Zen 4 offenbar mit AVX-512-Unterstützung

Denn man kann AVX 512 unterschiedlich effektiv implementieren. Der Leistungssprung von einem 9980xe auf einen 10980xe beträgt hier Faktor 10x
Davon habe ich noch nie gehört, hast Du dafür irgendeinen Beleg?

Das man die AVX Einheiten unterschiedlich performant ausführen kann ist klar, AMD hatte früher ja auch AVX-2 auf nur 128 Bit breiten Einheiten unterstützt und musste daher alle 256 Bit AVX2 Befehle in 2 Schritten verarbeiten, was die Performance entsprechend senkt. Aber von einem Faktor 10 zwischen der AVX-512 Performance von Skylake-X zu Cascade Lake höre ich das erste mal.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo @Holt

Na, sicher dat:


Ich selber habe zwar ebenfalls beide in Systemen verbaut, aber so unterschiedlich, dass sich da ein "Performance" Vergleich verbietet. (9980xe auf einem Asus Prime II (mit einer 1050Ti) und den 10980xe auf einem MSI Tomahawk x299 (mit einer Asus TUF 3090 OC)
 
Da geht es um die DL-Boost, welches erst mit Cascade Lake eingeführt wurde und auch Teil von AVX-512 ist. Natürlich bringt das bei Anwendungen die dies schon nutzen können, einen entsprechend großen Performancegewinn, sonst hätte man das ja nicht eingeführt. AVX-512 hat eben sehr viele subsets und neben der Frage wie AVX-512 implementiert ist, entscheidet im Zweifel die Frage welche der subsets davon implementiert sind darüber, wie performant eine konkrete Anwendung läuft.
 
Ich sags ja nur ungerne ;

1. hatte versucht das nivau Intel® Intrinsics Guide zu schieben, da hätte man schön tief einsteigen können + mehr ! Fachleute ! anlocken, aber ..ja kein wunder, bei dem Nivau läuft jeder nur weg.
Das ist hier in erster Linie ein Forum für Gamer und andere Anwender. Menschen die Programmieren können sind hier in der Minderheit. Daher versteht auch kaum jemand, dass AVX512 nicht nur eine Verbreiterung der Vektoren mit sich bringt, sondern sehr viele neue Befehle (auch für nur 256 Bit breite Vektoren), die das Anwendungspektrum für AVX im Generellen deutlich verbessern. Nur damit sich das verbreitet, braucht man unbedingt CPUs für die normalen Anwender, die das auch unterstützen. Auf Servern ist es mittlerweile Standard.
 
Das AVX im Desktop Segment keine bis kaum anwendung findet ist eigentlich schon vom Grundsatz her nicht richtig. Man sieht es halt nur nicht. ;)

Eigentlich greift jede Software die irgendwo was mit Grafik, Multimedia, Spielen, Verschlüsselung, Encoding zu schaffen hat, zumindest in Teilen auf AVX zu und gerade Spiele Engines setzen bei rechenintensiven Hochleistungsbibliotheken fast ausschließlich direkt oder indirekt AVX ein.
Die Sache ist halt nur, dass aufgrund der doch eher sehr bescheidenen Streuung an CPUs die AVX-512 im Desktop Segment implementiert haben, der Aufwand halt noch nicht lohnt die Sotware auf AVX-512 anzupaassen.
Vieleicht ändert sich das ja wenn nun AMD mit in den Segment einsteigt und alle künftigen CPUs AVX-512 generell include haben.

Ich habe das mal nachgelesen welche Optimierungen bei AVX-512 ingame theoretisch möglich sind: Grob gerechnet liegt der Mehrwert bei ungefähr 20GFlops bei CPU 3GHz pro Kern, bei quasi Verdoppelung der Integeroperationen (50%)
 
Ich habe das mal nachgelesen welche Optimierungen bei AVX-512 ingame theoretisch möglich sind: Grob gerechnet liegt der Mehrwert bei ungefähr 20GFlops bei CPU 3GHz pro Kern, bei quasi Verdoppelung der Integeroperationen (50%)

Das freut die Sockel 2066 Fraktion natürlich in großen Teilen - wobei man die Nachteile der Uraltplattform natürlich weiterhin hat.
 
Naja, dass ist ja noch nicht alles. Die jeweilige API Schnittstelle der GPU muss ja auch noch dazu fähig sein den entsprechenden Algorithmus auch noch optimiert abzubilden.
Also viel Programmieraufwand, der sich halt im Desktop Segment und da erst quasi aktuelle CPU ab Intel Gen.11 und ab morgen ja auch Gen.12 AVX-512 unterstützt, schheinbar noch nicht rentiert.
Wenn ab jnächstes Jahr aber AMD mit auf den Zug aufspringt, die Softwareentwickler auch das Potential welches in AVX-512 steckt erkennen (da gehe ich aber eher davon aus, dass die das schon längst erkannt haben, der u.U. Mehraufwand halt nur noch nicht lohnt) und kommende Software generell auch optional AVX-512 optimiert entwickelt wird, dass das dann der neue Standard werden könnte.
Es müssen also mehrere Komponenten ineinander greifen, damit AVX-512 sich am Desktop Markt genau so durchsetzt wie im Serser Segment schon geschehen.

edit: Und was AVX allgemein betrifft: Vulkan API / DX12 API usw. nutzen alle AVX/AVX2 und somit auch BF2042 (kleiner Spoiler für die Gamer) ;)
Grid 2 zb. nutzt auch optional AVX-512, wenn die CPU das unterstützt.

Bei Assassin's Creed Odyssey war es ja sogar so, dass das nach gepatcht werden musste für ältere CPUs vor 2009, da diese AVX/2 noch nicht unterstützten:
Update zur AVX-Unterstützung // Technischer Support **UPDATE 8. OKTOBER**: Wir können bestätigen, dass das AVX-bezogene Update mit dem nächsten Patch ausgerollt wird. Wir werden im Laufe dieser Woche weitere Details mitteilen können. Hallo allerseits, Wir haben Spielerberichte über PC-Abstürze aktiv beobachtet und möchten uns einen Moment Zeit nehmen, um euch diesbezüglich ein Update zu geben. In erster Linie möchten wir uns bei allen bedanken, die sich über die verschiedenen Kanäle mit uns in Verbindung gesetzt haben, um zusätzliche Informationen bereitzustellen. Dank Ihrer Unterstützung konnten wir die häufige Ursache einiger gemeldeter Abstürze identifizieren: Die betroffenen CPUs unterstützten AVX nicht – mehr Details unten. Wir haben Ihr Feedback gehört und arbeiten jetzt aktiv an einer Lösung, um die unterstützten CPUs zu erweitern, damit unsere Spieler Assassin’s Creed Odyssey ohne AVX-Unterstützung innerhalb der Mindestanforderungen ausführen können.
 
Zuletzt bearbeitet:
Das AVX im Desktop Segment keine bis kaum anwendung findet ist eigentlich schon vom Grundsatz her nicht richtig. Man sieht es halt nur nicht. ;)
Nein, das war nicht gemeint.

MMX führte 64Bit Vektoren ein.
SSE führte 128Bit Vektoren ein. SSE2, SSE3, SSSE3, SSE4.1 und SSE4.2 erweiterten den Befehlssatz für 64Bit (die ursprünglich mit MMX eingeführten Vektoren) und 128Bit Vektoren, so dass der Nutzen dieser Vektorregister größer wurde, und eine immer größere Anzahl an Applikationen davon profitierten.
AVX führte dann 256Bit Vektoren ein. Hauptsächlich sind es nur 256Bit Befehle, bis auf ein paar wenige Befehle, die die Zusammenarbeit mit dem älteren SSE verbessern. AVX2 erweitert nur die Befehle für die 256Bit Vektorregister.

AVX512 hingegen ist eben nicht nur eine Erweiterung auf 512Bit Register, sondern es liefert etliche neue Befehle für die schon mit AVX eingeführten 256Bit Registern ein. Hierbei ist wesentlich, dass nur bei 512Bit Befehlen die CPU langsamer takten muss als unter AVX2. Das steht tief vergraben in der Intel Dokumentation, und ist so nicht gleich ersichtlich. D.h. man kann mit Hilfe von AVX512 Programme bei Bedarf mit 512Bit Vektorregistern nutzen, und falls das nicht so viel bringt kann man auch nur 256Bit Registern nutzen. Aber in jedem Fall hat man deutlich mehr Befehle zur Auswahl. Deshalb ist AVX512 so wertvoll auch für normale CPUs, aber solange keine CPUs für Normalverbraucher mit AVX512 kommen, wird das halt nicht wirklich unterstützt. Mittlerweile unterstützen die meisten CPUs AVX2, garantiert unterstützt jede 64Bit CPU egal ob von AMD oder Intel SSE4.2, und deswegen wird es noch immer als kleinstmöglichen Basis genommen. Damit der Code garantiert funktioniert.
 
Hm verstehe,mir ist aufgefallen das ich sogar alle SSE Funktionen als Erweiterung abwählen kann und dennoch wird das Videoumwandeln nicht langsamer.Irgendwas scheint hier echt schief zu laufen. Ich habe sogar die MMX Einheiten abgeschaltet und dennoch nicht langsamer umgewandelt.Kein Wunder also das AVX kaum eine Wirkung bei mir hat.Wenn da garnix in die Richtung belastet wird,dann kommt auch kein Boost zustande.Was macht man denn dann wenn die älteren noch nicht mal nen Boost machen. Sind die Settings so klein das da nix mehr sich beschleunigen lässt? Vielleicht versteht das ja einer von euch sowas.Ich wandle in H264 um,also in MP4.
Was anderes wird es nicht mehr geben ,bei mir.
 
MMX führte 64Bit Vektoren ein.
SSE führte 128Bit Vektoren ein. SSE2, SSE3, SSSE3, SSE4.1 und SSE4.2 erweiterten den Befehlssatz für 64Bit (die ursprünglich mit MMX eingeführten Vektoren) und 128Bit Vektoren, so dass der Nutzen dieser Vektorregister größer wurde, und eine immer größere Anzahl an Applikationen davon profitierten.
AVX führte dann 256Bit Vektoren ein. Hauptsächlich sind es nur 256Bit Befehle, bis auf ein paar wenige Befehle, die die Zusammenarbeit mit dem älteren SSE verbessern. AVX2 erweitert nur die Befehle für die 256Bit Vektorregister.
Vielleicht noch mal hier zum Nachlesen:


aber solange keine CPUs für Normalverbraucher mit AVX512 kommen
Ice Lake und Tiger Lake sind in Notebooks schon länger verbreitet und man sollte den Anteil an Notebooks an der Gesamtzahl der Rechner nicht unterschätzen und Rocket Lake bietet auch AVX-512. Skylake-X und Cascade Lake würden auch dazu gehören, hier kann man aber streiten wie weit deren Käufer noch zu den "Normalverbrauchern" zählen, wobei jeder unter so einem Gummibegriff sicher verstehen kann was er möchte.
 
Skylake-X und Cascade Lake würden auch dazu gehören, hier kann man aber streiten wie weit deren Käufer noch zu den "Normalverbrauchern" zählen
Zu meiner Verteidigung: Ich habe auch Rüssel Rechner (3950x und 5950x, 2700x und mein Sohn einen 3800x) am Laufen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh