AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

Alles in allem: ist halt Marketing von AMD, indem man das so macht, sind die Foren zufrieden (weil kein neuer Sockel und 32 Kerne, das würde Intel nie machen 11elf) und gleichzeitig sichert man den (zwar winzigen) Markt für Workstations/Bastelserver, da viele Anwender für >4000€ Anschaffungskosten dann wohl doch eher 1000€ (EPYC)-10000€ (Intel Quadsocket mit ähnlichem Takt) drauflegen und wissen, dass alles so skaliert wie bisher (wobei der Markt auch durch 128GB max effektiv abgeschnitten ist).
Ohne den Punkt, daß AMD es so macht wie sie es eben machen, weil sie dazu gezwungen sind oder es anders nicht können, ist das alles also rein positiv zu sehen?
Und auch wenn der erwähnte Markt so "winzig" ist, bekommt der erste Threadripper jetzt einen Nachfolger, also rechnet sich das trotzdem? (Ich schätze grad AMD hat kein Geld für solche Minusgeschäfte?)

Bedeutet also, unterm Strich ist alles ist ok damit?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum basht man eigentlich auf dem 2990wx rum @flxmmr wenn es auch den 2950x gibt der deine ganzen Probleme löst und billiger ist?
 
@gR3iF
Guter Punkt, aber diese Frage hab ich hier selbst schon mind. 1x gestellt. Als ich das tat wurde aber noch schnell drüber hinweg geschwätzt.
 
Bedeutet also, unterm Strich ist alles ist ok damit?
Ja, und es hat auch niemand was anderes behauptet. Ist halt eine Wundertüte für 1800€ (wie so oft bei AMDs High-End-Produkten der letzten Zeit ;)) und vmtl. für die Zielgruppe auch ok ;). Sooo langsam ist der ja nie (außer in manchen Spielen).

Warum basht man eigentlich auf dem 2990wx rum @flxmmr wenn es auch den 2950x gibt der deine ganzen Probleme löst und billiger ist?
Mein Problem ist das eh nicht ;). Und das Herumbashen haben andere Menschen angefangen, am Anfang stand nämlich nur ebendiese Aussage von fdsonne #14:

Bei den Gamestests sieht man extrem deutlich, dass das gute Stück einfach übel unter der kastrierten Speicheranbindung krankt und der NUMA only Mode wahrscheinlich Epyc bedingt sein übriges dazu tut.
[...]
Das ganze Konstrukt ist so mMn einfach nicht Massenmarkttauglich, weil sehr Anfällig für starke Leistungsschwankungen. im ganz Speziellen wird es immer User/Anforderungen geben, die das berücksichtigten und selbst bei Benches gibt es welche, die das messen/können -> und damit gute Werte fabrizieren. CB-R15 ist ungeeignet für diese Art von Prozessoren um damit Leistungsvergleiche ggü. anderen Modellen am Markt anzustellen, weil es alle Nachteile ausklammert, da nicht relevant.

Und dann ging's los:
du kannst mit nem Intel QC auch die Intel HEDT komplett versägen, wenns um die richtige SW geht...wenns halt auf wenige Threads mit viel Takt optimiert ist, wie hier auch.

Zieh die blaue Brille ab und schau dir objektiv an, wofür die jeweiligen SKUs gemacht sind.


Wahrscheinlich ist hier einigen entgangen, dass der 2990 mit W wie Workstation gekennzeichnet ist, da kannst man ja gerne einen I3 Intel reinhängen.

Nur weil das Klientel bestimmter Communitys lieber Spielebenchmarks sehen will, als denn Workstationsbenchmark heißt das noch lange nicht, das man einen fast 2000$ teuren und für Arbeitsumfelder geeigneten 32 Core Prozessor für Spielebenchmarks missbraucht.

Der 2950x ist doch schnell genug? Und unter FC5 gibt es auch noch andere Werte die belegen, dass man sogar den 8700k Stock schlägt.

Ich weiß nicht, was der 2950X damit zu tun hat, dass der 2990X 2 Dies ohne SI hat und deshalb _nicht nur in Spielen_ manchmal weit hinter den (von AMD aufgebauten) Erwartungen zurückbleibt, aber gut...

Und dann geht das halt 6 Seiten weiter, auf die Leute, die sich den 2990X kaufen werden, um ihn dann als 2950X zu betreiben (und für Cinebench rebooten, was anderes können die sich wohl nicht vorstellen, was soviele Kerne nutzt), folgen die Beleidigten, die nicht verstehen, warum das eben eine interessante Marketingentscheidung ist, die technisch halt Implikationen hat, die Menschen, die keine Ahnung haben und Müll labern, die Menschen die "ihre" Marke verteidigen müssen (weil AMD ja nicht genauso wie Intel mit HEDT hauptsächlich Marketing betreibt), und schließlich die Trolle, die hier für unsere Freunde im Osten für die nächste FUD-Kampagne trainieren.
 
Zuletzt bearbeitet:
Ja da hast du wahr... Es bleibt dabei, dass man genau aufpassen muss ob sich der 2990wx für die eigene Arbeit lohnt und wenn nicht (weil threadskalierung oder speicherzugriffe oder irgendetwas anderes) dann muss man das passende Werkzeug kaufen...

Ich bin sehr froh, dass es jetzt Auswahl gibt und Intel immer weniger "killer" Argumente hat. Nur was in den Foren teilweise abgeht ist so abgespcaed...
 
Die schlechte Performance in Games ist Resultat der kastrierten Anbindung... Warum muss man sich den Spaß schön reden? Wäre eher schön wenn IHR endlich mal mit diesem Fanboy scheiß aufhören würded und es nüchtern sehen würdet. Für ne CPU, die HEDT sein soll ist die Leistung in Games und in so manchem Anwendungsbereich einfach mau. Das liegt, siehe oben an der Anbindung, recht sicher zumindest, weil das Ding nicht viel anders macht als ein 16C TR - der es deutlich besser hinbekommt.
Was hat das mit Brille zu tun? Immer wenn euch was nicht in den Kram passt ist Kritik nur noch Fanboy scheiße - das geht mir sowas von auf die Eier...

Vielleicht wäre eine etwas gemäßigtere Wortwahl sinnvoller gewesen:
Warum der 2990WX in Spielen versagt... liegt nicht nur an der von dir kritisierten Auslegung, sondern in erster Linie am NVidia Grafiktreiber, der wohl mit so vielen Kernen nicht mehr klar kommt und massiv an Leistung verliert. Anders kann man sich wohl kaum erklären, warum eine Vega64 so weit vor einer 1080TI liegt. Das ändert natürlich nichts daran, dass die Auslegung nicht optimal ist und Leistung kostet, aber in erster Linie scheint der NV Treiber in Spielen die massive Bremse zu sein. Wäre interessant, wie sich hier eine Quadro oder die Titan schlägt, ob die auch mit Leistungsverlusten aufgrund der hohen Kernzahl zu kämpfen hätte.
 
@flxmmr

Das Getrolle ging los als fdsonne bemängelte, er müsse ja bei einem WX den Gamingmode nutzen, um unter Spielen höhere Ergebnisse als bei 2950x zu erreichen (warum die Tester das überhaupt machten) und was das für einen Sinn ergibt, nicht alle Cores dabei aktiv zu lassen, oder 16, ständig umschalten wäre einfach nicht im Sinne des Erfinders! Wobei das über das angepasste Ryzen Mastertool möglich wäre. Du versuchst doch einfach nur diesen unsinnigen Thread am Leben zu erhalten, so dass er immer schön auf Seite 1 steht.

Die Benchmarkergebnisse unter Spielen bei 2990wx sind alle für die Katz (wie sich dies auf Anwendungen auswirkt weiß niemand), wenn sie auf nV GPUs erfolgten, weil der Treiber nicht mit 32/64 umgehen kann. Nvidia hat schlichtweg vergessen ihn anzupassen, weil man damit eben noch nicht rechnete. Auf Intelsystemen besteht das Problem schon länger. Spekulativ - vielleicht ist es ihnen auch gar nicht möglich, weil sie ständig manuell und nachträglich an dem Sheduling umher doktern (Balance CPU/GPU), um ihre Hardware besonders gut aussehen zu lassen. Damit sind auch die ganzen Argumentationen völlig OT.

Bis die entsprechende Software und Treiber+LL nicht angepasst wurde, macht es keinen Sinn darüber zu diskutieren, ob die Leistung des 2990wx weit unter dem liegt was AMD suggerierte, selber anderswo bietet oder eben die Konkurrenz, nur darum geht es dir doch, sie hätten wieder gehypt und nun platzt die Blase. Danke für deine Bestätigung. Das fdsonne seit Jahren kein grünes Blatt an AMD Hardware lässt, egal wo und wie, sich dabei an unsinnigen Eigeninterpretationen/-argumentationen echauffiert, ist weit über die Grenzen von HWLF bekannt. Da kann es schon sein, er rumort gegen seine eigene Hausredaktion, weil deren Testergebnisse anders ausfallen als er sich vorstellt. Wenn er so ein Spezi ist, bitte im forum-3dcenter sitzen genug.

Intel geht unter 32/64 keinen Deut besser, und wer bitte zockt auf einem Xeon Dual Server? fdsonne?, dann tut er mir Leid. Soetwas überhaupt als irgendeine Form von Mangel anzusehen, bei einer Workstation CPU ist einfach lächerlich. Andere Hersteller ziehen es nicht mal in Erwägung, mit einem Gähnen wird deine Email gelöscht.

Keine meiner Fragen wurde beantwortet. fdsonne hat versucht es zu analysieren. Im Gegensatz zum 2950x oder Epyc, hat der 2990wx eine überarbeitete IF, die bidirektional nur für das SI arbeitet (oder aber AMD implementierte sie von Anfang an. Epuc stellt noch den 2P I/O Transfer sicher), daher müssen die Daten auch nicht extra über die "sonst bekannte" IF (die die Dices verbindet), geschoben werden. Genauso wie ein PCIe Controller (Interface) mehrere "Schichten" (Layerscape) nutzen kann, um Daten zu übermitteln, die beim 3.0 Standard lange nicht ausgenutzt werden.

Genauso wurde NUMA (geringste Latenz) vs UMA (höchste Bandbreite) Mode Bandbreite kritisert, obwohl bei entsprechender Ramausstattung die Bandbreite und Durchsatz unter bestimmten Modi steigt, statt abfällt.

Wenn ihr Epyc wollt - kauft Epyc, wenn ihr Intel wollt - kauft Intel, wenn ihr den 2990wx wollt - kauft ihn. Aber reitet nicht auf unsinnigen Argumenten umher wo ihr weder entsprechende Informationen zu habt, noch wie es intern umgesetzt wurde/wird. Diesen Fanboy-Flamewar habt ihr ganz allein ausgelöst, weil jedes zweite Wort bei euch Fanboy und keine Ahnung ist. Seht ab und an mal in den Spiegel. Die Hälfte eurer "Spekulationen" scheitert damit daran, dass die Software eben aktuell mit 32/64 nicht umgehen kann und wie arrogant ihr dann antwortet ist offensichtlich und schwarz auf weiß zu lesen. Das steht schon viel weiter vorne in diesem Thread. Was kann denn Intel besser mit z.Bsp. Mesh, dass wird doch genauso wenig unterstützt, weil darauf niemand optimiert!

Schalte einfach einen Kern des 2990wx ab und benche mit der alten Softwarekonfig neu! Verwende eine AMD Karte! Linux soweit es verfügbar ist. Wozu einen WX zum Spielen empfehlen? Alle Redaktionen darunter auch HWL haben dazu Stellung bezogen, HWL in einer Videobotschaft zum Aufbau ihres TR/WX Projektes Fluxxkompensator (AMD hat es Vorfeld schon mitgeteilt), auch zu dem Teil das die Software eben aktuell nicht mit 32/64 (was es in der Vergangenheit schon immer gab [6C, 8C - T usw.]) umgehen kann, aber die haben ja alle keine Ahnung (spekulativ - es kann AMDs Schuld sein [wie beim Ryzenlaunch] weil man einfach zu früh gelauncht hat und die Hersteller nicht fertig sind, aber das wissen wir nicht, wir wissen nicht wie die Entwicklungsabteilungen der Hersteller beschäftigt sind, Antragslisten abzuarbeiten und den Entwicklersupport/Consumersupport damit zu pflegen und was das bedeutet).

Die bidirektionale Bandbreite der IF für das SI ist genauso hoch, wie die des verwendeten RAM, sie liegt mit 2GB/s über der Erfordernis (25GB/s vs 23/GB/s@2933 DDR4; bidirektional 50GB/s). Die angegebenen Latenzen sind nicht anders als auf dem 2950x. Anwendungen brauchen keine besondere Ressourcenzuweisung und auch weniger Speicherzugriffe, wenn sie hauptsächlich ihre Daten im CPU Cache halten und auf Serversystemen werden Adressbereiche dann auch manuell zugewiesen, wenn es notwendig ist. Speicherlastige Zugriffe fallen gleich hoch aus.

Overhead ist nicht immer eine schlechte Sache wenn Effizienz keine Rolle spielt, da er den Takt bei höherer Prozessauslastung oben halten kann und Prozesseffizienz spielt beim 2990wx wohl wirklich keine Rolle, wenn er 250W und mehr schlucken darf.

Dein Assembler, wie läufst denn? Schon fertig oder nichts sinnvolles zu tun.:fresse2:

Guten Tag.

PS: Es geht auch ganz sicher nicht um mögen oder nicht mögen, und ja man kann nicht zu jedem eine Beziehung aufbauen.

Falls wer noch mitliest: seht euch einfach mal die Topologie des Epycs und des 2990wx an, und wie die Speicherkanalzuordnung, die Coreverteilung (CCX)+IF aussieht, wobei die direkte I/O Anbindung für 2P völlig wegfällt und dann führe man sich selbst vor Augen wie viele "misses" der Epyc produzieren würde.
 
Zuletzt bearbeitet:
Ja da hast du wahr... Es bleibt dabei, dass man genau aufpassen muss ob sich der 2990wx für die eigene Arbeit lohnt und wenn nicht (weil threadskalierung oder speicherzugriffe oder irgendetwas anderes) dann muss man das passende Werkzeug kaufen...
Ich behaupte dann mal, daß wer sich bisher nach Alternativen dazu umschaut, oder sein altes damals gleichpreisiges System mit eben dem 2990WX ersetzen will, für den wird sich das lohnen, selbst wenn die Kerne über die Auslagerungsdatei auf einer HDD kommunizieren würden...
 
Die Benchmarkergebnisse unter Spielen bei 2990wx sind alle für die Katz (wie sich dies auf Anwendungen auswirkt weiß niemand), wenn sie auf nV GPUs erfolgten, weil der Treiber nicht mit 32/64 umgehen kann. Nvidia hat schlichtweg vergessen ihn anzupassen, weil man damit eben noch nicht rechnete. Auf Intelsystemen besteht das Problem schon länger. Spekulativ - vielleicht ist es ihnen auch gar nicht möglich, weil sie ständig manuell und nachträglich an dem Sheduling umher doktern (Balance CPU/GPU), um ihre Hardware besonders gut aussehen zu lassen. Damit sind auch die ganzen Argumentationen völlig OT.
Und diese Weisheit konntest du bisher nicht teilen, aber natürlich wusstest du es :hail:. Hast du außerdem mal die Zahlen angeschaut? Besser heißt noch lange nicht gut :shot:. Und dass man jetzt Systeme mit GPU-Output und ein paar mehr Kernen hat, ist jetzt nicht sooo neu ;)?

Bis die entsprechende Software und Treiber+LL nicht angepasst wurde, macht es keinen Sinn darüber zu diskutieren, ob die Leistung des 2990wx weit unter dem liegt was AMD suggerierte, selber anderswo bietet oder eben die Konkurrenz, nur darum geht es dir doch, sie hätten wieder gehypt und nun platzt die Blase.
Ich war nicht gehypt, ich stelle lediglich fest, dass das Teil eine seltsame logische Struktur hat, die zu gewissen Problemen führen kann und, dass es sich wohl um ein reines Marketingprodukt handelt. Und ich denke nicht, dass für diesen Einzelfall nennenswert Software angepasst wird. Entweder es läuft (rendern, rein numerische Routinen ohne Datennutzung) oder es läuft vllt., vllt. aber auch nicht – jeder Test, den man finden kann, stellt fest, dass die Performance mehr als inkosistent ist. Gerade bei Tasks, die man eben nicht so ohne weiteres auch auf unterschiedliche Maschinen aufteilen könnte (das ist beim Rendern jetzt kein Hexenwerk, weder von der Konfiguration, noch von den Lize). Und bei den wenigen Benchmarks, die sich tatsächlich mit Arbeit befassen wird das besonders deutlich (schau dir mal Golems Qt5-Compile-Benchmark vs. Phoronix Kernel-Build-Benchmark an), wobei natürlich die Frage ist, inwiefern diese Anwendungen skalieren...

Danke für deine Bestätigung. Das fdsonne seit Jahren kein grünes Blatt an AMD Hardware lässt, egal wo und wie, sich dabei an unsinnigen Eigeninterpretationen/-argumentationen echauffiert, ist weit über die Grenzen von HWLF bekannt. Da kann es schon sein, er rumort gegen seine eigene Hausredaktion, weil deren Testergebnisse anders ausfallen als er sich vorstellt. Wenn er so ein Spezi ist, bitte im forum-3dcenter sitzen genug.
Und wie schön ist es, dass dir ausgerechnet vor 1½ Wochen das Ritalin ausgegangen ist und du dir gedacht hast: Dieses Forum braucht Erleuchtung, ich will der weiße Ritter sein, der diesen Fanboy ausschaltet. Und der dann auf der Suche nach Verbündeten PM mit jämmerlichen "Oh, sieh was für ein NVidia-Fanboy der böse Mod ist" verschickt. Oder warst du vllt. doch schon mal hier und hast einfach nicht den Mumm allen Leuten zu zeigen, was für ein d***** Troll du bist?

Intel geht unter 32/64 keinen Deut besser, und wer bitte zockt auf einem Xeon Dual Server? fdsonne?, dann tut er mir Leid. Soetwas überhaupt als irgendeine Form von Mangel anzusehen, bei einer Workstation CPU ist einfach lächerlich. Andere Hersteller ziehen es nicht mal in Erwägung, mit einem Gähnen wird deine Email gelöscht.
Naja, Leute arbeiten damit auf jeden Fall erfolgreich. Auch mit grafikintensiven Anwendungen und mit konsistenter Performance.


Keine meiner Fragen wurde beantwortet. fdsonne hat versucht es zu analysieren. Im Gegensatz zum 2950x oder Epyc, hat der 2990wx eine überarbeitete IF, die bidirektional nur für das SI arbeitet (oder aber AMD implementierte sie von Anfang an. Epuc stellt noch den 2P I/O Transfer sicher), daher müssen die Daten auch nicht extra über die "sonst bekannte" IF (die die Dices verbindet), geschoben werden. Genauso wie ein PCIe Controller (Interface) mehrere "Schichten" (Layerscape) nutzen kann, um Daten zu übermitteln, die beim 3.0 Standard lange nicht ausgenutzt werden.
Sag mal bist du geistig behindert: https://fuse.wikichip.org/news/1569/amd-announces-threadripper-2-chiplets-aid-core-scaling/ selbst AMD ist anderer Ansicht, als du?! Layerscape = ein ARM-Prozessor für Mobilfunkanwendungen

Tut mir leid, aber du laberst einfach nur BS.
Falls wer noch mitliest: seht euch einfach mal die Topologie des Epycs und des 2990wx an, und wie die Speicherkanalzuordnung, die Coreverteilung (CCX)+IF aussieht, wobei die direkte I/O Anbindung für 2P völlig wegfällt und dann führe man sich selbst vor Augen wie viele "misses" der Epyc produzieren würde.
Vllt. machst du das einfach mal selber:
https://images.anandtech.com/doci/13124/TR2%20vs%20EPYC%20v2.png

Ich behaupte dann mal, daß wer sich bisher nach Alternativen dazu umschaut, oder sein altes damals gleichpreisiges System mit eben dem 2990WX ersetzen will, für den wird sich das lohnen, selbst wenn die Kerne über die Auslagerungsdatei auf einer HDD kommunizieren würden...
Spricht der große Softwareentwickler :shot:
 
Zuletzt bearbeitet:
Wenn ich beim 2990WX in den GameMode gehe und nur noch ein IO DIE mit 8 Kernen aktiv ist, wie wirkt sich das auf die Verbindung zum Arbeitsspeicher aus? Ich gehe mal davon aus, dass, obwohl der zweite IO DIE deaktiviert ist, der daran angeschlossene Arbeitsspeicher weiterhin genutzt werden kann. Gleiches für die PCIe Lanes. Das würde bedeutet, selbst wenn nur ein DIE aktiv ist, es trotzdem passieren kann, bzw. passieren wird, dass auf Arbeitsspeicher des zweiten deaktivierten DIEs zugegriffen wird.

Dieser Umstand müsste doch den Verdacht, dass die höheren Latenzen bei der Verwendung von nicht direkt zugreifbarem Arbeitsspeicher mitverantwortlich für die teils schlechte Performance sind, entkräften.

Warum testet denn endlich keiner mal, wie sich das ganze bei den Spielen verhält, wenn man diese auf den ersten DIE bindet? Mir kommt langsam immer mehr der Verdacht, bzw. das Gefühl auf, dass es nicht daran liegt, wie im 2990WX die Speicherkanäle/PCIe Lanes verteilt sind, sondern die Anwendungen/Spiele aufgrund der hohen Kernanzahl Unfug/Blödsinn treiben. Warum starten manche Anwendungen nicht, wenn zu viele Kerne vorhanden sind?! Das riecht für mich nach schlechter Programmierung, bzw. fällt mir dafür kein logischer Grund ein.

Luxx, ihr habt doch den Testaufbau am Start, also Spiel starten, TaskManager auf, wechseln zu Details, Rechtsklick auf den Prozess vom Spiel, Zugehörigkeit festlegen und ab CPU 16 alle Haken raus. Dann noch hoffen, dass die Kerne "vernünftig" durchnummeriert wurden und auch die ersten 16 logischen Kerne auf dem ersten DIE sitzen.

Das gleiche könnte man im Anschluss auch "umgekehrt" machen, und die Anwendung an einen Compute-DIE binden, womit das Programm immer über einen anderen DIE mit dem Arbeitsspeicher/PCIe kommunizieren muss.

Der Vergleich der Performance von einer Anwendung, die nur auf einem IO-DIE läuft und im zweiten Test nur auf einem Compute-DIE ist sicher interessant und vielleicht aufschlussreich.

Leiht mir einer einen 2990WX? :fresse:
 
Dieser Umstand müsste doch den Verdacht, dass die höheren Latenzen bei der Verwendung von nicht direkt zugreifbarem Arbeitsspeicher mitverantwortlich für die teils schlechte Performance sind, entkräften.
Ein Tester hat wohl eine Quadro P6000 verwendet, wo der Unterschied nicht so auffiel (unter Windows).

AMD verwendet beim WX und auch anderen EPYC NUMA Single Domains die Scalare Scalable Datafabric, die auf dem Coherent HyperTransport Protokoll aufsetzt (paketbasiertes arbeiten) und die trotz voller Ausschöpfung der vorhandenen Bandbreite wichtige Datenpakete (Kontrollpaket) per Priority Request Interleaving zustellen kann. Die Speicherbandbreitengrenze (Limit) liegt bei einem 8x4C Die Cost 1P imo bei ~145GB/s. Broadwell bspw. erreicht sie bei 65GB/s.

AMD gibt die Latenzen bei weniger gut auf NUMA angepasste Workloads mit +40ns an.

Der 2990WX läuft auch unter Windows Server nicht wirklich gut.
Hatte ich imo schon verlinkt stieß auf Desinteresse.

Nachdem man Leute wie dich allerdings demaskieren sollte:
- Latenzen: wofür? Beim RAM für den 2950X sicher planbarer, da es nur den (Sonderfall-)Fall Die mit Speicher-zu-Speicher anderes Die gibt (neben dem Speicher direkt am Die). Beim 2990x ist dieser Fall halt für 2Dies die Regel. Und wenn man für jeden RAM-Zugriff ungefähr mindestens die Core-to-Core-Latenz die bei anandtech genannt ist, ansetzt, so kommt man auf 100ns zusätzlich...
Das Problem dabei ist das du nicht liest was du verlinkst und wenn ist es altes Zeug, AMD oder die Autoren gingen bei der Angabe der Latenzen von einer Taktrate von 2,4 GHz und 2667MHz Speichertakt (MEMCLK 1333MHz) 19-19-19 mit entsprechender Bitzahl aus...und schrieben schon immer das höhere Taktraten und OC die Bandbreite anhebt und schärfere Einstellungen Latenzen verringern kann. Wie hoch taktet ein TR2? Bei TR wurden die Die to Die Links verdoppelt und zwei IFOP SevDes zusätzlich hinzugefügt (Layer A, B, C, D vergleichen), so das sich die ursprüngliche Bandbreite fernab anderer Protokolle (Data Fabric, Cachelatenz bis -11%) verdoppelt (und bei schon genanntem Takt mit 85,33GB/s angegeben wird). Ich vermute das reicht addiert, da der Wert mit Takterhöhung noch ansteigen müsste. Hängt sicher auch davon ab wie viele Module man verbaut, nur kann man pauschal nicht so heran gehen wie du das tust. AMD muss dir nicht sagen was sie als Referenzen hernehmen. Machen andere genauso.

AMD schrieb:
AMD reported around 145 nanoseconds round-trip for a system with a CPU frequency of 2.4 GHz and DDR4-2666...
Also ging man von 105+40 aus bei einem Takt von 2,4GHz usw., wobei man damit wohl einen absolut miesen Wert angab (NUMA
unknow) und nirgends gehypt hat, weil der sich kaum noch toppen lässt.
 
Zuletzt bearbeitet:
Wenn ich beim 2990WX in den GameMode gehe und nur noch ein IO DIE mit 8 Kernen aktiv ist, wie wirkt sich das auf die Verbindung zum Arbeitsspeicher aus? Ich gehe mal davon aus, dass, obwohl der zweite IO DIE deaktiviert ist, der daran angeschlossene Arbeitsspeicher weiterhin genutzt werden kann. Gleiches für die PCIe Lanes. Das würde bedeutet, selbst wenn nur ein DIE aktiv ist, es trotzdem passieren kann, bzw. passieren wird, dass auf Arbeitsspeicher des zweiten deaktivierten DIEs zugegriffen wird.

Dieser Umstand müsste doch den Verdacht, dass die höheren Latenzen bei der Verwendung von nicht direkt zugreifbarem Arbeitsspeicher mitverantwortlich für die teils schlechte Performance sind, entkräften.
Selbst wenn dem so ist das dann auch das RAM am anderen Die verwendet wird, so ist die Frage ob nicht zuerst das lokale RAM verwendet wird und erst wenn dies belegt ist das am anderen Die. In diesem Fall dürften die 16GB am Die mit den aktiven Kernen schon zumindest den Großteil des Games aufgenommen haben. Da müssten weitere Tests erfolgen, auch mit der Graka in einem Slot mit Lanes des Dies mit den aktiven Kernen und einmal in einem Slot mit Lanes des anderen Kerns um zu sehen wie große der Einfluss dabei jeweils ist.
 
Da müssten weitere Tests erfolgen, auch mit der Graka in einem Slot mit Lanes des Dies mit den aktiven Kernen und einmal in einem Slot mit Lanes des anderen Kerns um zu sehen wie große der Einfluss dabei jeweils ist.
Hast du dir schon mal Gedanken darüber gemacht warum AMD eine Aufteilung PCIe 3.0 (16/8/16/8) bei den 48 Lanes für GPUs umgesetzt hat?

TR/TR2 wird ja nicht nur bei den Cores gegenüber Epyc beschränkt, sondern auch bei der Verfügbarkeit von PCI 3.0 Lanes und wie man diese dann anbindet?

Ich würde hier empfehlen zu versuchen die Präsentationsunterlagen von John Morris einzusehen und einige Whitepaper+Unterlagen im Zeitraum von 03-08/2018, wobei es nicht reicht mir etwas in zuzuschicken, zu meinen man hätte vollen Zugriff, was als Linknachweis dann nicht mal ein aktuelles Sicherheitszertifikat trägt.

Einige Angaben verlinkter Seiten gegen dabei Content wieder, der vor Erscheinen von TR1 im Umlauf war und der zu Teilen nicht mal von AMD stammte. Es wäre daher vollkommen legitim, sich fachlich auch an den Support zu wenden, wenn man Bedenken hat AMD verkauft etwas das sie so nie angekündigt hatten.
 
Zuletzt bearbeitet:
Die schlechte Performance in Games ist Resultat der kastrierten Anbindung... Warum muss man sich den Spaß schön reden? Wäre eher schön wenn IHR endlich mal mit diesem Fanboy scheiß aufhören würded und es nüchtern sehen würdet. Für ne CPU, die HEDT sein soll ist die Leistung in Games und in so manchem Anwendungsbereich einfach mau. Das liegt, siehe oben an der Anbindung, recht sicher zumindest, weil das Ding nicht viel anders macht als ein 16C TR - der es deutlich besser hinbekommt.
Was hat das mit Brille zu tun? Immer wenn euch was nicht in den Kram passt ist Kritik nur noch Fanboy scheiße - das geht mir sowas von auf die Eier...

soviel kraft im ausdruck und doch unrecht gehabt, köstlich :haha:
 
...
Deine Einstellung erinnert mich teilweise an meine Einstellung, die ich vor über 10 Jahren hatte, wo ich noch dachte, C/C++ ist das einzig Wahre und alles andere ist Kinderkram. Java, lol, die haben nicht mal richtige Pointer und nen Müllsammler (garbage collector), was für Idioten! Können nicht mal vernünftig ihre Ressourcen verwalten, was für Trottel. Tja, der wahre Trottel war aber ich, der aus irgendwelchen hirnverbrannten Gründen dachte, man ist geil, wenn man C/C++ programmiert. Heute erscheint mir das so absurd. Aber so ist das halt, man lernt ständig und das was man gestern gemacht hat, bzw. wie man es gemacht hat, findet man morgen schon schlecht, weil man wieder was Neues gelernt hat.
Ich bin zwar selbst kein Programmierer, aber arbeite täglich mit mehreren zusammen.
Das "Coole" an Assembler ist eben, das man direkt mit dem Programm Code die Hardware ansprechen kann.

Vulkan der Nachfolger von Mantle ist also eine Art C++ das vereinfachen von Programmieren, nicht alles händisch schreiben zu müssen.
Wie Legos zusammen Basteln (in der richtigen Reihenfolge natürlich) ;)
 
Selbst wenn dem so ist das dann auch das RAM am anderen Die verwendet wird, so ist die Frage ob nicht zuerst das lokale RAM verwendet wird und erst wenn dies belegt ist das am anderen Die. In diesem Fall dürften die 16GB am Die mit den aktiven Kernen schon zumindest den Großteil des Games aufgenommen haben.
Wer/Was entscheidet denn, wo angeforderter Speicher physikalisch reserviert wird?
Spekulatius: Es gibt den Speichermanager in Windows/Linux und entsprechende Hardware/Speichercontroller, welche vom Speichermanager wie ein Treiber, bzw. durch einen Treiber angesprochen wird.
Ich selber kenne (bisher) keine Möglichkeit zu bestimmen, wo mein angeforderter Speicher physikalisch "liegen" soll. Vermutlich wird das daher vollständig vom Speichermanager/Treiber/Hardware entschieden. Und es wäre ja klug, wie von dir angedeutet, wenn der Speicher dort reserviert/belegt wird, wo die Latenzen am geringsten sind.

Da müssten weitere Tests erfolgen, auch mit der Graka in einem Slot mit Lanes des Dies mit den aktiven Kernen und einmal in einem Slot mit Lanes des anderen Kerns um zu sehen wie große der Einfluss dabei jeweils ist.
Ist es bei den PCIe-Lanes wie bei den Speicherkanälen. Der 2990WX hat insgesamt 64 PCIe-Lanes. Jeder IO-DIE hat 2x 16 Lanes. Wird jede PCIe-Lane "fest" mit einer PCIe-Lane vom Mainboard verbunden? Also z.B. das vom ersten IO-DIE die ersten 16 PCIe-Lanes zum ersten PCIe-Slot x16 gehen?

Wie werden eigentlich diese "Verbindungen" der Speicherkanäle und PCIe-Lanes hergestellt? Sind die immer fest, also Speicherkanal 1 ist immer mit den ersten beiden RAM-Steckplätzen verbunden und die ersten 16 PICe-Lanes immer mit dem ersten PCIe-Slot oder wird das z.B. beim Booten bestimmt/eingestellt?
 
Wer/Was entscheidet denn, wo angeforderter Speicher physikalisch reserviert wird?
Spekulatius: Es gibt den Speichermanager in Windows/Linux und entsprechende Hardware/Speichercontroller, welche vom Speichermanager wie ein Treiber, bzw. durch einen Treiber angesprochen wird.
Ich selber kenne (bisher) keine Möglichkeit zu bestimmen, wo mein angeforderter Speicher physikalisch "liegen" soll. Vermutlich wird das daher vollständig vom Speichermanager/Treiber/Hardware entschieden. Und es wäre ja klug, wie von dir angedeutet, wenn der Speicher dort reserviert/belegt wird, wo die Latenzen am geringsten sind.
Unter Linux nimmt man die libnuma und allokiert auf einem bestimmten NUMA-Knoten Speicher. Als Workarounde pinnt man den Thread an einen bestimmten Core, allokiert Speicher und schreibt dann auch sofort auf diesen. Denn erst bei ersten physikalischen Zugriff werden die Pages auch wirklich angelegt.

Ist es bei den PCIe-Lanes wie bei den Speicherkanälen. Der 2990WX hat insgesamt 64 PCIe-Lanes. Jeder IO-DIE hat 2x 16 Lanes. Wird jede PCIe-Lane "fest" mit einer PCIe-Lane vom Mainboard verbunden? Also z.B. das vom ersten IO-DIE die ersten 16 PCIe-Lanes zum ersten PCIe-Slot x16 gehen?
Ja und Ja

Wie werden eigentlich diese "Verbindungen" der Speicherkanäle und PCIe-Lanes hergestellt? Sind die immer fest, also Speicherkanal 1 ist immer mit den ersten beiden RAM-Steckplätzen verbunden und die ersten 16 PICe-Lanes immer mit dem ersten PCIe-Slot oder wird das z.B. beim Booten bestimmt/eingestellt?
Die Verbindungen erfolgen beim Verdrahten des Boards, d.h. sie sind fest und können nicht geändert werden. Nein, das lässt sich nicht beim Booten ändern.
 
@jdl
WX = WorldRecordX

Zumindest die Xbar to HT-Link wird ein kleinen overhead haben.
Alles andere liegt im Cache.
Komprimiert und Verschlüsselt mit der Hardware ID.
 
@jdl, Danke für die Infos!

Unter Linux nimmt man die libnuma und allokiert auf einem bestimmten NUMA-Knoten Speicher. Als Workarounde pinnt man den Thread an einen bestimmten Core, allokiert Speicher und schreibt dann auch sofort auf diesen. Denn erst bei ersten physikalischen Zugriff werden die Pages auch wirklich angelegt.
Zu meinem Verständnis: libnuma ist vermutlich dann die Linux-Bibliothek, die von der sogenannten NUMA-aware-Software verwendet wird. Der Workaround ist die "Notlösung" für Software, die so eine Bibliothek nicht hat, wie vermutlich Programme für Windows.

Die Verbindungen erfolgen beim Verdrahten des Boards, d.h. sie sind fest und können nicht geändert werden. Nein, das lässt sich nicht beim Booten ändern.
Wie verhält sich das denn, wenn die CPU weniger PCIe-Lanes hat, als das Mainboard? Mein 6700K hat nur 16 Lanes und ich habe 2 Grafikkarten und eine Soundkarte verbaut. Die GTX 970 steckt im ersten Slot (x16), die GT 710 im zweiten Slot (x8) und die ASUS Xonar in Dritten (x4). Wie soll das denn funktionieren, wenn die CPU-Lanes immer fest mit bestimmten Mainboard-Lanes verbunden sind? Oder gilt das nur für die TR-Boards, weil alle TR 64 Lanes haben, also genug um alle Lanes auf dem Board zu "bedienen"?
 
Hast du dir schon mal Gedanken darüber gemacht warum AMD eine Aufteilung PCIe 3.0 (16/8/16/8) bei den 48 Lanes für GPUs umgesetzt hat?
Ja ich weiß wieso, aber was hat das mit dem Zitat zu tun, wenn sowieso mit nur einer Graka gearbeitet wird? Die gehört dann natürlich in den richtigen Slot der auch als x16 arbeiten kann.

Wer/Was entscheidet denn, wo angeforderter Speicher physikalisch reserviert wird?
Das entscheidet die Speicherverwaltung des OS, aber die bekommt ihre Informationen beim Booten vom System und da hängt es dann bei TR eben vom Modus ab, im UMA Modus wird ihr nur ein Speichercontroller gemeldet an dem das ganze RAM hängt, wie ja auch der Test der Speicherbandbreite und -latenz zeigt und wie es bei UMA auch sein muss. Daher muss man ja auch jedesmal neu Booten, wenn die Einstellung geändert wird.
Spekulatius: Es gibt den Speichermanager in Windows/Linux und entsprechende Hardware/Speichercontroller
Richtig, der bzw. die HW RAM Controller steckt/stecken in der CPU und das BIOS informiert dann den Speichercontroller des OS darüber was da vorhanden ist. Diese Information und wohl auch die Art wie die beiden aktiven RAM Controller der Dies arbeiten, ändert sich eben bei TR je nachdem in welches Modus der läuft.
Ich selber kenne (bisher) keine Möglichkeit zu bestimmen, wo mein angeforderter Speicher physikalisch "liegen" soll.
Dann hast Du noch nie Software geschrieben die NUMA Aware ist und solltest vielleicht mal dies hier lesen:Allocating Memory from a NUMA Node

Wissen erspart Spekulatius!
Ist es bei den PCIe-Lanes wie bei den Speicherkanälen. Der 2990WX hat insgesamt 64 PCIe-Lanes. Jeder IO-DIE hat 2x 16 Lanes.
Nein, die Dies haben nicht 2x 16 Lanes, dies ist eine Vereinfachung die immer wieder zu Fehleinschätzungen verleitet, denn es sind 16 + 8 + 4 + 4 Lanes und die 8 + 4 + 4 lassen sich eben nicht zu x16 zusammenfassen! Deshalb gibt es auch nicht ein X399er Board welches drei Slots hat die als x16 betrieben werden können, wie pclovely schon bemerkt hat. Bei dem AM4 Ryzen werden nur die 8 Lanes nicht rausgeführt, an den einen x4 hängt der externe Chipsatz und die anderen 4 sind vom internen Chipsatz, der steckt zwar in der CPU (weshalb die eigentlich auch SoCs sind) und damit an einem anderen (PCIe Lane) Host Controller, weshalb die eben nicht zu x16 kombinierbar sind, denn dafür müssen alle Lanes vom gleichen Host Controller kommen.

Wird jede PCIe-Lane "fest" mit einer PCIe-Lane vom Mainboard verbunden? Also z.B. das vom ersten IO-DIE die ersten 16 PCIe-Lanes zum ersten PCIe-Slot x16 gehen?
Fest ja, aber ob nun die vom ersten Die auch am ersten Slot hängen, kann man nicht sagen, dies hängt ja auch davon ab wie die Verdrahtung auf dem Mainboard ist. Fest ist auch nur halb richtig, denn es gibt auch Umschalter (damit meine ich keine Switches wie PLX Chips) um die Lanes bzw. meist nur einen Teil davon auf andere Slots umzuschalten. Die sind nötig wenn 8 der 16 Lanes einer x16 Slots auf einen zweiten Slot aufgeteilt werden können, so dass man eben x16/x0 oder x8/x8 hat. Das ist bei denen dann anderes als bei PLX Chips statisch und wird beim Booten einmal eingestellt, dafür sind die viel billiger und brauchen auch viel weniger Strom.

Wie werden eigentlich diese "Verbindungen" der Speicherkanäle und PCIe-Lanes hergestellt?
Intern im Chip, bei AMD also über die IF, bei Intel über Ringbusse oder Mesh.
Sind die immer fest, also Speicherkanal 1 ist immer mit den ersten beiden RAM-Steckplätzen verbunden und die ersten 16 PICe-Lanes immer mit dem ersten PCIe-Slot oder wird das z.B. beim Booten bestimmt/eingestellt?
Das ist immer fest auf der Platine verdrahtet, wozu sollte man dies auch umschaltbar machen? Es ist aber nicht sicher wie die Zuordnung der Slots zu den Dies ist, dies hängt davon ab wie der Boardhersteller die Pins das CPU Sockels an die Pins der Slots geroutet hat.
 
Ja ich weiß wieso, aber was hat das mit dem Zitat zu tun, wenn sowieso mit nur einer Graka gearbeitet wird? Die gehört dann natürlich in den richtigen Slot der auch als x16 arbeiten kann.
Du beantwortest deinen vorherigen Vorschlag mit diesem Post eigentlich schon allein. Das DMI3 folgt einer bestimmten PCIe Lanes Partionierung, die auch für TR und TR2 gilt (Physical Links and Lanes; 0-3 [1a], 4-7[1b], 8-11[1c], 12-15[1d]=x16 Post [a1]). Du hast dann soweit Recht, dass die Karte in den Port der x16 [a1] unterstützt gehört und sich auch bei TR2 imo an Dies binden kann, die dann sinnbildlich direkt verdrahtet sind. Macht die Frage oder den Vorschlag eigentlich überflüssig, weil in GPU lastigen Anwendungszenarien dann nicht nur das SI limitieren könnte und Latenzen anderweitig das Ergebnis beeinflussen würden.

PS: @jdl beantwortet im Post #202 mit Antwort 3 dies bereits ansatzweise. Sein gesamter Post ist sehr nachhaltig. Das Layout/Routing ist mit Standards vorgegeben, was beim Asus Zenit Extreme auch mal zum Nachteil gereichen kann (CPU Sockel vs PCIex16 [a1]).

- - - Updated - - -

Wie verhält sich das denn, wenn die CPU weniger PCIe-Lanes hat, als das Mainboard? Mein 6700K hat nur 16 Lanes und ich habe 2 Grafikkarten und eine Soundkarte verbaut.
Die verfügbaren PCIe Lanes werden je nach I/O Hub Config und mit Splittern geroutet. Dabei müssen nicht alle Systemgeräte an die 3.0 Lanes der CPU angebunden werden. Der PCIe Bus erlaubt zugleich Interrupt-Sharing.
 
Zuletzt bearbeitet:
Was hat das mit DMI3 zu tun, welches der Namen der für die Intel Anbindung der Chipsätze ist und technisch PCIe 3.0 x4 entspricht? Kein vernünftiger Mensch der Wert auf die Performance der CPU legt wird diese in Slots stecken in denen diese nur über 4 PCie Lanes angebunden sind. Wie immer geht in deinen Beiträgen alles komplett durcheinander.
 
Was hat das mit DMI3 zu tun, welches der Namen der für die Intel Anbindung der Chipsätze ist und technisch PCIe 3.0 x4 entspricht?

Es geht um eine 4 fach "Aufteilung" der verfügbaren Lanes, mit Priorität und bestimmter Bandbreite, was das gesamte "Interface" sehr flexibel macht.

Zum Bsp. 48 PCIe 3.0 Lanes:
3x16
2x16, 2x8
6x8
12x4

Ein PCIe x16 Slot mit seinen 16 PCIe3.0 Lanes könnte dann ein 4x4=16 sein.

Darf ich mal fragen woran du direkt entwickelst? Mit Threadripper oder Promontory hat das sicher nichts zu tun.
 
Die Spielebenchmarks sind richtig dämlich. Welcher Noob testet bitte mit niedrigen Details? Damit senkt man die CPU Last, was keiner möchte. Wenn man ein GPU Flaschenhals verhindern will, muss die Auflösung reduziert werden. Da hat Hardwareluxx seinen schlechten Ruf mal wieder bestätigt, herzlichen Glückwunsch.
 
Die Spielebenchmarks sind richtig dämlich.
Nö, ist mal was anderes. Und du verkennst, um was es wirklich geht.

Letztlich sind die Durchschnitts-FPS eh für den Boppes. Die 99th Perc.-FPS sind ausschlaggebend.

AMD Ryzen Threadripper 2990WX und 2950X im Test - Echter Fortschritt mit bis zu 32 Kernen - Seite 4 von 9 - Toms Hardware Deutschland

Ich für meinen Teil würde niemals einen TR oder Intel-X als Gaming-CPU kaufen. Wirtschaftlich vollkommen idiotisch. Aber wenn ich Arbeitstiere suche, die auch ab und zu mal ein Spielchen vertragen, bin ich bei TR & Intel-X richtig. Und dann entscheiden die 99th-Perc.-FPS.

Und wenn ich ein Arbeitstier mit möglichst viel Rechenleistung zum kleinen Preis suche, der auch noch Gaming schafft, ist der Threadripper genau das Eisen, das man sucht.

Die Gamer, die hier kritisieren, sollten endlich mal ihre Scheuklappen abnehmen und richtig hinsehen! Das hier sind Arbeitstiere, keine Geparden. Als würdet ihr euch in einem LKW-Forum darüber aufregen, dass die 500PS keine 300km/h schaffen. :rolleyes: :wall:
 
Fortunes: Hast den Rest seines Posts auch gelesen? Der eine von dir zitierte Satz ist so ohne Kontext nicht viel wert. Tipp: Er hat Recht. ;)
 
Warum zeigt man OC bei einer derartigen CPU, aber kein undervolten? Ergibt für mich absolut keinen Sinn das aus dem Test herauszulassen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh