Ryzen Threadripper 2920X und 2970WX: AMD komplettiert die Familie

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
amd_threadripper_2950x.png
Gerade noch rechtzeitig hat AMD seine selbst gesetzte Frist eingehalten. Denn drei Tage vor Ablauf startet der Verkauf der beiden letzten fehlenden Threadripper-Prozessoren. Ryzen Threadripper 2920X und 2970WX sollen das Angebot an HEDT-Modellen abrunden, vor allem in Hinblick auf den Preis. Dadurch hat der kleinste Vertreter überraschend eine Rolle übernommen, mit der im Vorfeld nicht gerechnet werden konnte.Daran ist ausgerechnet Intel Schuld. Denn nach wie vor wird der Core...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So ein 2970WX oder 2990WX wären ja schon was als nachfolger... :d
 
Ich muss mal direkt fragen:
Habt ihr bei euren Tests eigentlichim Bios alles bei CPU und RAM auf Standard belassen, oder dort etwas verändert? (XMP aktiv z.B.)
Ich komme nicht ansatzweise auf diese niedrigen Verbrauchswerte (mit einer GPU, XMP aktiv und alles auf "Auto" im Bios)
 
Ich muss mal direkt fragen:
Habt ihr bei euren Tests eigentlichim Bios alles bei CPU und RAM auf Standard belassen, oder dort etwas verändert? (XMP aktiv z.B.)
Ich komme nicht ansatzweise auf diese niedrigen Verbrauchswerte (mit einer GPU, XMP aktiv und alles auf "Auto" im Bios)
Bei den Verbrauchsmessungen ist alles auf "Auto" gestellt, der RAM läuft mit XMP-Profil. In Windows sind alle störenden Hintergrundaktiviäten (Update etc.) deaktiviert.
 
Danke für die schnelle Klarstellung,
jetzt ist mir um so mehr ein Rätsel, warum der Verbrauch bei mir so hoch ist.
 
Wie kann ein unterschied im Cinebench R15 Test mit einem Kern zustande kommen, wenn man 9900k mit einem 8086k vergleicht, beide haben schließlich 5GHz?
 
Messschwankungen vielleicht, oder kann es sein dass die 9xxx ganz leichte Architekturelle verbesserungen erhalten haben?
 
Ich lass meinen 1950X immer mit den 16 Kernen in Spiele laufen. Ist aber mal interessant zu sehen, was einzelne Spiele an Leistungsplus erfahren können, wenn sie nur mit 8 Kernen laufen.

Jetzt steht diesem Thema nur eins im Wege... es wird auf niedrig und 1080p getestet. Hab ich zu spät gesehen. Somit sind diese Infos für mich absolut nutzlos und sinnfrei, wünschte ich hätte damit nicht meine Zeit verschwendet...........

Dann muss ich wohl tatsächlich selber mal benchmarken und mir selbst davon ein Bild machen.
Zumindest in Quake Champions (1440p @med/high) ist mir zwischen 16 kern und 8 Kern (UMA vs NUMA) Betrieb kein eklatanter Unterschied aufgefallen. Aber hatte auch keine bestimmte Testmethodik.
 
Messschwankungen vielleicht, oder kann es sein dass die 9xxx ganz leichte Architekturelle verbesserungen erhalten haben?
Das bezweifle ich ernsthaft, bei Einzelkerntests sind die Ergebnisschwankungen extrem gering, ein Punkt unterschied mag auftreten aber nicht so viele, beide Generationen sind ident, mit der gleichen Architektur, Fertigung und IPC.
Andere Seiten haben dies auch wie erwartet festgestellt, zum Beispiel dieser Link verdeutlicht dies anschaulich : Cinebench R15 (Single-Core) CPU benchmark list - CPU / Prozessor Vergleich - cpu-monkey
 
Zuletzt bearbeitet:
Jetzt steht diesem Thema nur eins im Wege... es wird auf niedrig und 1080p getestet. Hab ich zu spät gesehen. Somit sind diese Infos für mich absolut nutzlos und sinnfrei, wünschte ich hätte damit nicht meine Zeit verschwendet...........

Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?

Wofür wäre das interessant für den Leser?
 
Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?

Wofür wäre das interessant für den Leser?

Einfach um zu sehen ob ein CPU Wechsel was taugt oder nicht.

Oder eben wie in dem Fall... ob der """gaming mode""" also 8 Kerne only überhaupt etwas taugt gegenüber den """full cores mode""" also 16 Kerne.
Das ist mir doch sch*** egal ob der 1950X in 1080p @ low mit 8 Kernen schneller läuft als in der Praxis 1440p @ high kein Unterschied zu erkennen ist?!!?
Warum sollte ich mir den gaming mode reinknallen (extra dafür den PC rebooten), damit ich in der Praxis keine große Veränderung habe? Oder eben doch? Es gibt hierzu eben keine benchmarks. Später nach dem gaming wieder neu booten zurück auf 16 Kerne. Jau, das macht Freude!


Aber ist ja immer das gleiche geblubber. Es gibt (für) immer die zwei Lager. Ein Lager will syntetische Benchmarks sehen, am besten benchmarks in denen das eigene auserkorene/auserwählte Produkt maximal gut da steht, das andere Lager will die Praxis sehen und praxisgerecht vergleichen können.

Wenn ich mich zB zwischen einer Workstation CPU und einer ""gaming CPU"" entscheiden müsste, dann wollte ich zumindest wissen, mit welchen Leistungsunterschied ich mich in der Praxis konfrontiert sehen würde.
Ein GPU Bottleneck geht sehr weit. So weit wie die GTX1080ti, oder RTX2080 oder gar RTX2080ti langt... die erst mal haben.
 
Verstehe deine Logik nicht.
Wenn man in höherer Auflösung testet verändert sich die CPU Leistung nicht. Sie wird nur schlechter darstellbar und im schlimmsten Fall sogar verfälscht.
Das hat nichts mit RealWorld zu tun, sondern mit messen von Daten die irrelevant für das Produkt sind. Du misst damit ein komplett anderes Produkt, nämlich die GPU.

In 4k sind auf einmal alle CPUs "gleich schnell". Aber ist das eine relevante Information? Sie sagt nichts aus über das Produkt selber, sondern darüber, dass die zum testen verwendete GPU zu langsam war.
Wenn man den Test mit einer GPU von 2005 durchführt, dann wäre auch in 720p noch jede CPU "gleich schnell", genauso wie in 1080p, 1440p und 4k.

Was Du forderst ist absichtliche Verfälschung der Testdaten. Ein CPU Test sollte die CPU testen und nicht die GPU. Genauso wie ein Auto Test nicht die Straße testen sollte, oder das Fahrad das benutzt wurde um zum Auto zu kommen.
 
Einfach um zu sehen ob ein CPU Wechsel was taugt oder nicht.

Oder eben wie in dem Fall... ob der """gaming mode""" also 8 Kerne only überhaupt etwas taugt gegenüber den """full cores mode""" also 16 Kerne.
Das ist mir doch sch*** egal ob der 1950X in 1080p @ low mit 8 Kernen schneller läuft als in der Praxis 1440p @ high kein Unterschied zu erkennen ist?!!?
Warum sollte ich mir den gaming mode reinknallen (extra dafür den PC rebooten), damit ich in der Praxis keine große Veränderung habe? Oder eben doch? Es gibt hierzu eben keine benchmarks. Später nach dem gaming wieder neu booten zurück auf 16 Kerne. Jau, das macht Freude!


Aber ist ja immer das gleiche geblubber. Es gibt (für) immer die zwei Lager. Ein Lager will syntetische Benchmarks sehen, am besten benchmarks in denen das eigene auserkorene/auserwählte Produkt maximal gut da steht, das andere Lager will die Praxis sehen und praxisgerecht vergleichen können.

Wenn ich mich zB zwischen einer Workstation CPU und einer ""gaming CPU"" entscheiden müsste, dann wollte ich zumindest wissen, mit welchen Leistungsunterschied ich mich in der Praxis konfrontiert sehen würde.
Ein GPU Bottleneck geht sehr weit. So weit wie die GTX1080ti, oder RTX2080 oder gar RTX2080ti langt... die erst mal haben.

machs so wie ich: ich schalte meinen 2950x für games nie in den gamemodus weil das eh für die fische ist bei ultra settings und 4k. Das Tier ist schlussendlich nicht fürs zocken gemacht sondern hat ganz andere Aufgaben zu verrichten . Und da sind mir paar Frames in Spielen mehr ehrlich gesagt wurscht mit käse....

PS: Der 2970WX schaut sehr lecker aus!
 
Zuletzt bearbeitet:
@Rattenmann: Ich verstehe die Logik sehr gut. Der Artikel suggeriert, dass die CPU A x% schneller beim zocken sei als CPU B. Ja das ist sie, unter völlig realitätsfernen Parametern. Beim Zocken kommt es auf die Gesamtleistung an, nur eine Komponente zu betrachten bringt wenig.

Ich kann hier auch einen Autovergleich starten: Ein Autotest bescheinigt mir, dass ich mit einem Porsche 20% weniger Zeit benötige um auf die Arbeit zu fahren als mit einem popeligen Opel. Aber nur, wenn es A keine Verkehrsregeln (niedrige Auflösung) und B keine anderen Verkehrsteilnehmer (niedrige Details) gibt. Dann kann ich klar sagen, ja das ist ja super. Guter Vergleich, in der Realität ist der Porsche auch nicht schneller.

Bei CPUs zum Zocken macht es keinen Unterschied ob du 200€ oder 600€ ausgibst. Im Gegenteil, wenn du das gesparte Geld in eine bessere GPU investierst, hast du mehr FPS. Die Masse kauft PCs nach einem Budget.

Ich laufe mit meiner 1080Ti entweder ins GPU Limit oder bin am Vsync, eine teurere CPU bringt da genau 0. Klar, du hast recht, man misst mit solchen Einstellungen nur die CPU Leistung, aber das kommt in der Praxis nur zum tragen, wenn du eine aktuelle Grafikkarte mit einer uralt CPU kombinierst. Mein alter Q9550 würde da heute auch schlapp machen, aber deswegen hätte sich zum Zocken seinerzeit keine teurere CPU gelohnt.
 
Zuletzt bearbeitet:
Was Du forderst ist absichtliche Verfälschung der Testdaten. Ein CPU Test sollte die CPU testen und nicht die GPU. Genauso wie ein Auto Test nicht die Straße testen sollte, oder das Fahrad das benutzt wurde um zum Auto zu kommen.

Er fordert eine absichtliche Verfälschung der Testdaten und du forderst eine absichtliche Verfälschung der Testergebnisse.

Fazit: Man will beides sehen.
A: Was die CPUs können unter synthetischen und praxisfernen Bedingungen und
B: Was die CPU in der Praxis leisten, wenn man sie sich kauft.

Wenn man das hat, kann man entscheiden ob man das Geld aus seinem Budget lieber in mehr CPU oder mehr GPU steckt.
 
Der GPU test würde aber komplett irrelevant ausfallen, außer man hat exakt die selbe GPU,.. sollen sie also jede GPU einbauen und testen?
 
Wieso alle? HighEnd und ne gute Middlerange reicht.

Eigentlich reicht schon die schnellste Grafikkarte. Größer können die Unterschiede zwischen den CPUs ja nicht werden. Aber mit etwas im Bereich von 1060/580 kann man anhand der verschiedenen Auflösungen noch die Unterschiede einschätzen.

Und wieso irrelevant? Kann ja nicht so irrelevant sein, wenn sich das so viele wünschen.

PS: Es gibt nicht nur 720p low settings oder 4K high quality 16x AA. Da gibts noch viel dazwischen. ;)
 
Zuletzt bearbeitet:
Warum die Leistung einer GPU relevant sein soll für die Kaufentscheidung einer CPU verstehe ich einfach nicht.
Man will doch in jedem Test dafür sorgen alle verfälschenden Variablen rauszunehmen. Das beinhaltet vor allem GPU Leistung.

Sind die FPS in 1080p höher, dann ist die CPU schneller. Auch in 1440p, auch in 4k, auch in 8k. Was sonst soll man den testen?
Jedes Spiel, in jeder Auflösung die NICHT GPU capped ist, wird dann schneller sein und zwar um relativ genau die selben Prozente.

Was hier gefordert wird ist also eine Momentaufnahme einer GPU X?
Wenn eine 1060 in 1440p/ultra bei allen Prozessoren 60fps macht, welche Information über die CPU hat man dann gewonnen? Die einzige Information ist doch dann, dass man im GPU Limit ist,...
Und wenn man dann ne dickere GPU kauft, die nicht limitiert, ist man wieder bei den selben prozentualen Unterschieden die man vorher schon in 1080p auf low hatte.

Denke mein Verständnisproblem ist, warum die Redaktion Zeitaufwand betreiben soll um das Offensichtliche zu "testen", dass man auch ohne Test wusste.
Die einzige Information die man daraus ziehen könnte, wäre doch: "Reicht die CPU um ins GPU cap zu rennen, bei den verwendeten GPUs". Und diese Information ist bei so ziemlich jeder sinnvollen CPU / GPU Kombination: Ja.
Solange man keine 100 Euro CPU mit einer 1000+ Euro GPU ausstattet wird die Antwort immer "ja" sein. In den meisten Fällen reicht sogar eine 200 Euro CPU um eine 2080ti ins GPU cap zu treiben.

Diesen offensichtlichen Zusammenhang zu belegen, mit mehreren GPUs und Auflösungen noch dazu, kostet so eine Redaktion gerne mal Tage an Arbeitszeit,...
 
Ich weiß auch nicht wo das Verständnisproblem liegt. Haben doch mehrere hier schon dargestellt worum es geht -> Die Frage ist wann sie ins Cap rennt.

Welche Information hast du gewonnen, wenn CPU X nur in realitätsfremden und nach dem Kauf nie verwendeten Szenarien getestet wird? Welche Information hast du gewonnen wenn die CPU nur im GPU-Limit getestet wird?

Mir würde nix von beidem helfen, wenn ich eine CPU suchen würde.
 
Und wieso nicht?
Wenn eine CPU bei 720p/low Auflösung 300 fps schafft, dann schafft sie das auch bei 1080p, 1440p und 4k/ultra.
Also welche Information fehlt dann? Zusammen mit einer GPU die bei 1440p maximal 100fps schafft, werden genau 100fps entstehen. Mit einer GPU die nur 30fps schafft, werden auch nur 30fps entstehen.
Und bei einer theoretischen Monsterkarte die 400fps in 4k packt, würden dann halt nur 300fps entstehen.

Man würde hier einfach nur Tage in Tests stecken die das Offensichtliche belegen.
Ich meine, solange die Redaktion das machen will UND dabei nicht an den wirklich relevanten CPU Tests spart, ist mir das ja egal. Kann ja drüber scrollen und es ignorieren. In der Realität würde aber an anderem Ende gespart werden.
 
...

Das stimmt nicht immer.

Beispiel Benches Bf1 vs MP64 und wenn dann gleichzeitig noch gestreamt wird, sieht wieder anders aus. So gesehen sollte man sich nicht nur nach den in den ersten Reviews gemachten Benches richten.

...

Am Ende kauft eh jeder was er will, und meist auch von Anfang an wollte. (Intel vs. AMD), trotz Tests und Gegentests oder Preis. Egal wie teuer es ist. Sag mir jetzt keiner er hätte Hardware gekauft, die er nicht wollte :P

...
 
Zuletzt bearbeitet:
Tests mit gaming + streaming sind natürlich etwas anderes und machen auch Sinn. Findet man größtenteils in englischen Reviews, aber auch da eher selten. So arg viele Streamer gibt es dann halt doch nicht. Und die paar die es ernsthaft machen, kaufen einfach die dickste CPU und rechnen sie als Firmenausgabe ab. ;-)
 
Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?

Wofür wäre das interessant für den Leser?

Deine neue GPU musst Du dir schon selbst schön reden, das müssen nicht andere für Dich tun.
 
Und wieso nicht?
Wenn eine CPU bei 720p/low Auflösung 300 fps schafft, dann schafft sie das auch bei 1080p, 1440p und 4k/ultra.

Sorry, aber ich höre schallendes Gelächter. Wer hat dir denn den Schwachsinn eingetrichtert?
 
Die Leute, die diese synth benchmarks mit der Aussage verteidigen: "in Praxisnahen gaming benchmarks sind die Ergebnisse eh alle gleich wegen dem GPU bottleneck..."

.....sind das eigentlich auch die selben Leute die dann behaupten, Intel CPUs seien besser fürs gaming?

Wie kann das sein, wenn sie offenbar alle gleich hoch liegen @1440p, 4k...8k.... ? Was ist denn nun mit der korrekten CPU Auswahl...

Logik ist für manche Leute nicht so einfach, schätze ich.

Ja am besten sollte es Ergebnisse aus beiden Welten geben. Dann könnte man auch einen sinnvollen informationsgehalt ziehen.
wie gesagt, der 16kern vs 8kern gaming mode 1080p@low ist so ein beschiss... der Aufwand und verschwendete Zeit lohnt sich hier auf gar keinen Fall! Jemand soll mich hier vom Gegenteil überzeugen!
Der Tester selbst!?
 
Danke für den Test.
Aber wieso diese Aussage:"NUMA ist somit überflüssig"?
Das ist falsch. Die kleinen Threadripper haben 2 NUMA nodes, die Großen 4. Auf meinem früheren 1950er lief Schach mit NUMA besser als ohne.
 
Danke für den Test.
Aber wieso diese Aussage:"NUMA ist somit überflüssig"?
Das ist falsch. Die kleinen Threadripper haben 2 NUMA nodes, die Großen 4. Auf meinem früheren 1950er lief Schach mit NUMA besser als ohne.

Das sehe ich genau so. Maxwell Render so wie die meisten aktuellen unbiased Render-Engines profitieren auch von NUMA.
 
Ist doch egal, mit den 7nm Chips sind die NUMA-Nodes beim MCM doch eh Geschichte;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh