Ryzen Threadripper 2nd Gen: Einfluss der Speicheranbindung kleiner als gedacht

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.600
threadripper_teaser.jpg
In Kürze soll es soweit sein und AMD wird die Ryzen-Threadripper-Prozessoren der zweiten Generation vorstellen. Bisher waren diese mit maximal 16 Kernen ausgestattet. Nun wird es auch Modelle mit 24 und 32 Kernen geben.Vor etwa zwei Wochen schaute sich Roman Hartung alias der8auer die Leistung eines AMD EPYC 7601 mit 32 Kernen also Vorschau auf die zweite Generation der Ryzen-Threadripper-Prozessoren etwas genauer an. Da die EPYC-Prozessoren aber nicht die Taktraten...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist Cinebench denn überhaupt geeignet dafür solche Szenarien zu testen ?! Meine Amateurocler Erfahrung sagt nein.
 
Zu dem Eintrag "Intel 28 Kerne / 5 GHz" ist dem Schreiber nichts weiteres oder erwähnenswertes bekannt?
 
Ich würde ja mal den Artikel bis zum Ende lesen ... da steht dann folgendes:

Roman kommt nun aber zu dem Schluss, dass die Leistung, zumindest für den Cinebench, keine große Unterschiede aufzuweisen hat – egal wie die Anbindung stattfindet.
 
Ich würde ja mal den Artikel bis zum Ende lesen ... da steht dann folgendes:

Roman kommt nun aber zu dem Schluss, dass die Leistung, zumindest für den Cinebench, keine große Unterschiede aufzuweisen hat – egal wie die Anbindung stattfindet.
Ich weiß nicht für wen die Empfehlung gilt, aber die Überschrift und die von dir zitierte Feststellung... Warum steht sowas irgendwo am Ende und nicht gleich zu Anfang?

Hat das überhaupt etwas mit Octa-Channel und 2gen Threadripper zu tun? Oder mit Octa-Channel und Cinebench? Ich werde da leider nicht so schlau draus.

Du meinst also es ging garnicht darum eine Schlagzeile herzustellen, bei der die Leute sich denken sollten, AMD macht mit Octa-Channel nur eine wenig sinnvolle Show?
 
Die galt für Croni, welcher einen direkten Bezug zwischen Cinebench und Octa Channel herstellen wollte den es so gar nicht gab in dem Artikel.

Die Headline ist komplett daneben, einfach weil Threadripper kein Octa Channel haben wird und sich hier auf Epyc bezogen wird. Macht in meinen Augen so gar keinen Sinn. Alles weitere sind Vermutungen im Artikel ob der Anbindung der Controller.
 
Genauso wenig macht es Sinn mit Cinebench die Speicheranbindung zu testen, da hätte er sich die Mühe und HW-Luxx den Artikel sparen können .. das wollte ich damit sagen.
 
Die hat er doch damit gar nicht getestet ... hast du das überhaupt verstanden? Das wird als Randnotiz erwähnt und HWL macht daraus ne Schlagzeile ... Roman sagt aber das es mit Cinebench keine/kaum Unterschiede gibt egal wie die Controller angebunden sind.

Es ist doch eh egal, weil der Artikel von vorn herein Quark ist - Threadripper hat Quad Channel und keinen Octa Channel.
 
[Durch den höheren Takt erreichte der EPYC 7601 bei 4.050 MHz einen Cinebench-Ergebnis von fast 6.100 Punkten. Dies ist schon ganz ordentlich...]

"Ganz ordentlich"... so kann man das auch nennen.
Das klingt wie: "Jo, 6100 Punkte sind ganz ordentlich, aber mein Netbook schafft mehr..." ;)
 
Zuletzt bearbeitet:
Frage mich das ob das nur Intel-Systeme betrifft oder ob auch auch AMDs neuer Threadripper von einem gemeinen Performancebug heimgesucht werden wird. Bei 64 logischen Prozessoren unter Windows (32 Kerne + HTT) ist die Gaming-Performance bei CPU lastigen Szenen sprichwörtlich im Keller. In stark CPU lastigen Szenen wo die GPU nur wenig zu tun bekommt, werden in der Praxis nur halb soviele FPS erreicht und das gilt fast ausnahmslos für jede DirectX 11/12 Anwendung. Witcher 3, GTA5 aber auch diverse Benchmarks fallen besonders stark auf. Jetzt vor kurz vor dem Release des Threadrippers mit 32 Kernen vielleicht ganz interessant aber wer spielt schon auf solchen Höllenmaschienen...:hust:

Der Bug existiert nun schon seit ein paar Jahren (Haswell-E Dual Sockel) und scheint nur in Kombination mit Nvidiakarten aufzutreten. Werden im Bios Kerne deaktiviert oder HTT ausgestellt, so das Windows nicht mehr über 64 logische Prozessoren verfügt verschwindet der Bug. Bei mehr als 64 logischen Prozessoren existiert der Bug auch nicht, da dann Windows die Kerne zwangsweise in mindestens zwei Prozessor-Knoten unterteilt und normale Anwendungen damit nicht umgehen können.
 
Frage mich das ob das nur Intel-Systeme betrifft oder ob auch auch AMDs neuer Threadripper von einem gemeinen Performancebug heimgesucht werden wird. Bei 64 logischen Prozessoren unter Windows (32 Kerne + HTT) ist die Gaming-Performance bei CPU lastigen Szenen sprichwörtlich im Keller. In stark CPU lastigen Szenen wo die GPU nur wenig zu tun bekommt, werden in der Praxis nur halb soviele FPS erreicht und das gilt fast ausnahmslos für jede DirectX 11/12 Anwendung. Witcher 3, GTA5 aber auch diverse Benchmarks fallen besonders stark auf. Jetzt vor kurz vor dem Release des Threadrippers mit 32 Kernen vielleicht ganz interessant aber wer spielt schon auf solchen Höllenmaschienen...:hust:

Der Bug existiert nun schon seit ein paar Jahren (Haswell-E Dual Sockel) und scheint nur in Kombination mit Nvidiakarten aufzutreten. Werden im Bios Kerne deaktiviert oder HTT ausgestellt, so das Windows nicht mehr über 64 logische Prozessoren verfügt verschwindet der Bug. Bei mehr als 64 logischen Prozessoren existiert der Bug auch nicht, da dann Windows die Kerne zwangsweise in mindestens zwei Prozessor-Knoten unterteilt und normale Anwendungen damit nicht umgehen können.
Also die Skalierung sieht bei AMD nicht so schlecht aus mit SMT, also Multi-Thread mehr als HTT. ;)

4K-TVs: Diese Fernseher haben ein 100-Hertz-Panel - Bilder, Screenshots - AUDIO VIDEO FOTO BILD
 
Gab es nicht hier mal einen mit einem Dualsocket-Xeon für zigtausende Euro der sich dann wunderte wieso BF1 darauf ruckelte? Diese CPUs sind ganz sicher nicht fürs Zocken gedacht.
 
Welchen Einfluss die RAM Bandbreite hat, hängt immer sehr von der Anwendung ab, pauschale Aussagen sind daher im Zweifel bei anderen Anwendungen falsch.
 
Also die Skalierung sieht bei AMD nicht so schlecht aus mit SMT, also Multi-Thread mehr als HTT. ;)

Mit SMT hat das nichts zu tun. SMT ist hier nur zweck zur Beihilfe um auf 64 logische Prozessoren zu kommen. Es könnten wohl auch 64 echte Kerne ohne Multithreading sein. Scheinbar verschluckt sich da irgendwo der Nvidia-Treiber, denn bei 31C/62T und allen anderen configs ist das Problem nicht existent. 64 logische Prozessoren sind auf Windows für "normale" Anwendungen sowieso das Maximum weil darüber unbedingt Numa-Support bzw. Prozessor-Gruppen-Support mitgebracht werden muss. Bei normalen Anwendungen ist man garnicht dazu in der Lage mehr als 64 Threads auszuwählen. Es gibt nämlich so einige, die sich wundern warum Sie z.B. keine 72 Threads zuweisen können sondern nur 64 Threads und sich auch darüber wundern, warum Anwndungen fröhlich von Windows per Zufall mal auf die eine Gruppe/Knoten und mal auf die andere Gruppe/Knoten bei jeden Anwendungsstart gelegt wird ohne das irgendwie beeinflussen zu können. Ohne das sich da in der Software-Landschaft etwas ändert wären eventuelle 7nm Threadrippers mit noch mehr Kernen als Workstation unter Windows ohne angepasste Software ziemlich sinnfrei. Es sei denn, man kommt ohne Multi-Threading klar. Aber das nur als kleine Gedankenspielerei.

Um es nochmal kurz zu sagen: Genau bei der magischen 32c/64t oder 64c/64t Grenze von Windows könnte es zu einem
Performance-Bug mit Nvidiakarten kommen.
 
Zuletzt bearbeitet:
SMT ist immer dazu da die Rechenwerke auslasten zu können, wenn der eine Thread eben auf I/O (meist RAM Zugriffe) warten muss und bringt daher umso mehr, je öfter dies vorkommt. Wenn man bedenkt das TR2 4 aktive Dies hat und wohl nur 2 davon direkt mit RAM verbunden sein werden, so dürfte SMT schon eine Menge bringen, weil die RAM Zugriffe eben sehr wahrscheinlich nicht auf lokal angebundenes RAM gehen werden und damit die Latenz diese hoch sein wird, also der andere Thread oft genug zum Zuge kommen kann, während einer auf seine Daten oder die nächsten Instruktionen aus dem RAM wartet.

Bei einer optimalen Architektur vor die Vorhersagen immer klappen und die als nächstes benötigten RAM Inhalte daher immer schon im Cache stehen wenn sie gebraucht werden, würde SMT nichts bringen, dafür wäre sie dann aber trotzdem noch schneller. Wenn SMT also viel bringt, ist dies eigentlich kein Grund zu jubeln, sondern zeigt das es woanders noch Schwächen gibt.
 
SMT ist immer dazu da die Rechenwerke auslasten zu können, wenn der eine Thread eben auf I/O (meist RAM Zugriffe) warten muss und bringt daher umso mehr, je öfter dies vorkommt. Wenn man bedenkt das TR2 4 aktive Dies hat und wohl nur 2 davon direkt mit RAM verbunden sein werden, so dürfte SMT schon eine Menge bringen, weil die RAM Zugriffe eben sehr wahrscheinlich nicht auf lokal angebundenes RAM gehen werden und damit die Latenz diese hoch sein wird, also der andere Thread oft genug zum Zuge kommen kann, während einer auf seine Daten oder die nächsten Instruktionen aus dem RAM wartet.

Bei einer optimalen Architektur vor die Vorhersagen immer klappen und die als nächstes benötigten RAM Inhalte daher immer schon im Cache stehen wenn sie gebraucht werden, würde SMT nichts bringen, dafür wäre sie dann aber trotzdem noch schneller. Wenn SMT also viel bringt, ist dies eigentlich kein Grund zu jubeln, sondern zeigt das es woanders noch Schwächen gibt.

Wir haben uns wohl missverstanden. Ich meinte mit dem letzten Post eigentlich nicht das SMT unnütz ist oder anders skaliert sondern wollte nur sagen, dass dieses Feature wie gesagt nur Mittel zum Zweck ist um auf 64 logische Prozessoren unter Windows zu kommen damit der erwähnte Bug provoziert wird.
 
Gab es nicht hier mal einen mit einem Dualsocket-Xeon für zigtausende Euro der sich dann wunderte wieso BF1 darauf ruckelte? Diese CPUs sind ganz sicher nicht fürs Zocken gedacht.
also ich zocke jeden Tag Quake Champions auf dem 1950X, top framerate, top performance.

Aber mit 64 threads wäre ich da vorsichtiger. Einige Spiele mögen es schon nicht, mit 32 threads bedient zu werden. Dann heißt es manuell Hand anlegen und threads zuteilen, was nervig sein kann.
Vor allem im VR, in dem eine stabile 90fps Leistung wichtig ist, gab es Fälle, da musste ich manuell von 32 threads auf 4 bis 6 core threads zuweisen damit keine framedrops entstehen. Manche games switchen die threads durch die CPU wohl zu oft und wahllos herum das dann Leistung kostet. Anstatt die threads einfach auf den Kernen fixiert zu lassen. Auch ein Beispiel wäre Agents of Mayhem (müll game, meine Meinung), das lief auf 32 threads mit ca. 60fps und dann mit zugewiesenen 4-6 core threads dann mit knapp 80fps in einer Stillstand-Szene. Nur wollte genau dieses game dann mit automatischer thread Zuweisung nach dem beenden auch nicht mehr starten... also dann immer erst mit allen 32 threads starten und während das game dann läuft per Hand abändern. Gibt manchmal die unterschiedlichsten Probleme mit zu vielen threads :shake: Dirt Rally startet mit 32 threads ja gar nicht und es lässt sich auch nichts machen soweit mir bekannt. So viel zu "code masters".
 
Zuletzt bearbeitet:
Wie immer halt. Abwarten und Teetrinken dann klärt sich alles auf. Bin schon auf Threadripper 2 gespannt. :)
 
Frage mich das ob das nur Intel-Systeme betrifft oder ob auch auch AMDs neuer Threadripper von einem gemeinen Performancebug heimgesucht werden wird. Bei 64 logischen Prozessoren unter Windows (32 Kerne + HTT) ist die Gaming-Performance bei CPU lastigen Szenen sprichwörtlich im Keller.

Wäre mir neu. Habe lange selber mit 2x 22 Core + HT gespeilt (E5-2699V4) sind dann 44 Cores + HT also 88 Threads. Ging bestens. BF1 usw. kein Problem.
 
Romsky Angabe kann ich bestätigen. Habe die CPUs von ihm vererbt bekommen. Solange der Takt ausreichend ist, habe ich keine Probleme. Auch vor einem Jahr nicht mit 2 Titan X Hybrid...
 
Romsky Angabe kann ich bestätigen. Habe die CPUs von ihm vererbt bekommen. Solange der Takt ausreichend ist, habe ich keine Probleme. Auch vor einem Jahr nicht mit 2 Titan X Hybrid...

Mit den Retail 2699V4 sollte es daher noch weniger Probleme geben da diese noch viel höher als deine Boosten.
 
Wäre mir neu. Habe lange selber mit 2x 22 Core + HT gespeilt (E5-2699V4) sind dann 44 Cores + HT also 88 Threads. Ging bestens. BF1 usw. kein Problem.

Betrifft ja auch nur die 32c/64t Config + Nvidia Karte. Bei mehr oder weniger Kernen ist der Bug nicht existent. Man hätte im Bios jeden Prozessor mit 16 Kernen laufen lassen müssen oder alternativ einen mit 22 und den anderen 10 Kernen.;)
 
Zuletzt bearbeitet:
Die hat er doch damit gar nicht getestet ... hast du das überhaupt verstanden? Das wird als Randnotiz erwähnt und HWL macht daraus ne Schlagzeile ...
Da wir schon bei Texte lesen und verstehen waren: Ich glaub croni-x ging es nicht um einen gewissen Roman, sondern um einen gewissen Andreas. Diese Randnotiz ist in der News grob gerechnet 610x440 klein...
 
Zuletzt bearbeitet:
Demnach kommt also AMD selbst auf 5099 Punkte mit 4x 8 GB DDR4-3200, während der der8auer in seiner Simulation mit 4 DIMMs nur 3867 Punkte bei 3,4GHz erreicht hatte:
Scheinbar mit 2666er RAM:
5099 sind 31,8% mehr als 3867, 3200 aber nur 20% mehr als 2666, wenn man annimmt das der bessere RAM Durchsatz sich linear auf das Ergebnis auswirkt fehlen damit noch 10% die über den Takt gekommen sein müssen, was dann auf etwa 3,8GHz All Core schließen ließe. Es wäre dann interessant zu wissen ob dieser Takt sowie der RAM Takt von 3200 schon OC oder offiziell ab Werk vorgesehen sind.

Für den EPYC 7601 @3,8GHz stehen ja 5871 Punkte in der News, 15% mehr als der Threadripper 2990WX mit Quad Channel und schnelleren RAMs erreicht haben soll. Übrigens zeigen die Werte des EPYC 7601 bei den verschiedenen Taktraten, dass er zwar bei 3,8GHz sehr gut skaliert, dann aber bei 4,05GHz das Ergebnis doch deutlich abfällt, bei linearer Skalierung wäre dies mit 100MHz weniger zu erreichen gewesen, was also darauf hindeutet, dass dann bei der Taktfrequenz bei Cinebench die Speicherbandbreite selbst bei 8 Kanälen schon zu limitieren beginnt, die 5099 Punkte für den 2990WX wären damit schon ein sehr guter Wert. Dumm nur, dass man keine ECC RAMs mit 3200 bekommt und die wenigsten Workstationanwender dürften statt auf ECC-RAM auf womöglich übertaktete normale RAMs ohne ECC setzen wollen, zumal wenn die Plattform ja ECC RAM unterstützt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh