16 % IPC-Plus: AMD stellt die Ryzen-9000-Prozessoren mit Zen-5-Kernen vor

Bin mal gespannt ob der 15900k wieder das ca. das doppelte kostet wie der 9800x3d und dabei langsamer im gaming ist. Oder der 9800x3d wieder schneller wie der 9950x3d bleibt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du meinst den Core Ultra 9 285K. ;)
 
Bin mal gespannt ob der 15900k wieder das ca. das doppelte kostet wie der 9800x3d und dabei langsamer im gaming ist. Oder der 9800x3d wieder schneller wie der 9950x3d bleibt.
Den 9950X3D würde ich nur kaufen wen jeder CCD den eignen Cache hat und nicht wie es es beim 7950X3D gelöst wurde.
 
Zuletzt bearbeitet:
Würde sich ein Upgrade vom 5800x3D lohnen? Ich vermute, das ist aktuell natürlich noch Kaffeesudleserei, oder?
 
Auf am5 zu wechseln ist schonmal ganz gut. Jetzt wissen wir ja das die Plattform lange leben wird :)
 
Ich würde mich natürlich freuen, kann aber auch sein das da nächstes Jahr nur noch ein refresh kommt und dann 26 27 nur so Perlen wie 9600x3d und 9700xt und co. Die nächste große gen würde dann wohl 26 bereits für am6 kommen. Oder am6 kommt wirklich sehr spät und wir sehen noch was nettes auf am5, gerne auch viele neue gute apus. Also abwarten.
Ansonsten genau der Grund warum ich nicht auf 13700k gegangen bin.
 
Ich würde mich natürlich freuen, kann aber auch sein das da nächstes Jahr nur noch ein refresh kommt und dann 26 27 nur so Perlen wie 9600x3d und 9700xt und co. Die nächste große gen würde dann wohl 26 bereits für am6 kommen. Oder am6 kommt wirklich sehr spät und wir sehen noch was nettes auf am5, gerne auch viele neue gute apus. Also abwarten.
Ansonsten genau der Grund warum ich nicht auf 13700k gegangen bin.
Hoffe es ist wie bei am4 eine mehr Generationen Plattform ;)
 
13700KF ist auch deutlich besser als der 13700K.
 
Hmm Fehler in der Matrix :fresse:

Würde sich ein Upgrade vom 5800x3D lohnen? Ich vermute, das ist aktuell natürlich noch Kaffeesudleserei, oder?
Vergleich die Daten vom vom 5000er zum 7000er zum 9000er.
Vergleich die Daten vom 5000er x3d zum 7000er x3d.
Dann weißt du wie der 9000er x3d abschneiden wird.
 
Zuletzt bearbeitet:
Bringt es den überhaupt einen Vorteil? Beim gaming reichen doch 8. Dann leidet doch nur der Verbrauch
Geht wohl weniger um den Vorteil, sondern darum den Nachteil des unoptimierten OS scheduling zu umgehen - damit sichergestellt ist dass die spielethreads definitiv auf nem X3D chiplet laufen.
Oder ist das problem windows-seitig mittlerweile 100% gefixed? @all
Beitrag automatisch zusammengeführt:

Hmm Fehler in der Matrix :fresse:


Vergleich die Daten vom vom 5000er zum 7000er zum 9000er.
Vergleich die Daten vom 5000er x3d zum 7000er x3d.
Dann weißt du wie der 9000er x3d abschneiden wird.
würd mich in die reihe der uninformierten einreihen - hau mal deine infos raus bidde
 
würd mich in die reihe der uninformierten einreihen - hau mal deine infos raus bidde
Meine Info war, dass die 9000er aka Zen5 16er CCX bekommen. Diese von mir fehlerhafte Info kannst du mehrfach im Forum lesen.
Entsprechend hab ich eben noch mal google gefragt, Google sagt dass Zen5 8er CCX hat.
Deswegen Fehler in der Matrix.

Zur Frage 9000er x3d:
Was der x3d kann, 5700x zu 5800x3d kann man nachlesen. 7700x zu 7800x3d kann man nachlesen. Dann weiß man was der x3d bringt.
Und dann hast du halt 15% vom 5000er zum 7000er und 16% vom 7000er zum 9000er. Oder anders: 16% mehr als der 7800x3d.
🤷‍♂️
 
.

Zur Frage 9000er x3d:
Was der x3d kann, 5700x zu 5800x3d kann man nachlesen. 7700x zu 7800x3d kann man nachlesen. Dann weiß man was der x3d bringt.
Und dann hast du halt 15% vom 5000er zum 7000er und 16% vom 7000er zum 9000er. Oder anders: 16% mehr als der 7800x3d.
🤷‍♂️
Stimmt nicht ganz oder AMD hat falsche Folien gezeigt. In den Folien ist zu sehen das der non 3d 10-20% schneller als der 14900k ist und dann wird der x3d nochmal 10-20% drauf setzten. Also bei cyberpunk ca 30% schneller und das Spiel ist keine Rosine :)
 

Anhänge

  • Screenshot_20240605_220514_Gallery.jpg
    Screenshot_20240605_220514_Gallery.jpg
    64,8 KB · Aufrufe: 43
Zuletzt bearbeitet:
Gibt es hier wen der auf einen 5X3D gewechselt ist und in 4K spielt? Ich wünschte ich könnte mir den 5800X3D mal ausleihen, da ich gerne sehen würde ob der bei meinen Spielen irgendwas bringt. Vermutllich aber nix da die Spiele die ich spiele eh niemand testet und in 4K ist es recht wenig Unterschied. Vermutlich werde ich weiter warten und mir dann einen 8800X3D oder so holen. So 50 % in den min fps snd schon Minimum damit das Upgrade lohnt.

Ich habe den 5900X.
 
Gibt es hier wen der auf einen 5X3D gewechselt ist und in 4K spielt?

Schau halt ob du im CPU Limit bist.
Schau nach ob deine Spiele auf den x3d reagieren.
Da brauchst du nix testen, ein wenig lesen und verstehen reicht.
 
Gibt es hier wen der auf einen 5X3D gewechselt ist und in 4K spielt? Ich wünschte ich könnte mir den 5800X3D mal ausleihen, da ich gerne sehen würde ob der bei meinen Spielen irgendwas bringt. Vermutllich aber nix da die Spiele die ich spiele eh niemand testet und in 4K ist es recht wenig Unterschied. Vermutlich werde ich weiter warten und mir dann einen 8800X3D oder so holen. So 50 % in den min fps snd schon Minimum damit das Upgrade lohnt.

Ich habe den 5900X.
Lohnt sich nicht.
Für WQHD oder weniger möglicherweise sonst nicht.
Für Strategie Spiele oder Aufbauspiele kann das durchaus in 4k nochmal impact haben, aber bei allem anderen eher weniger. Mein Fazit war das der Unterschied nüchtern irgendwo bei maximal 4% in 4k liegt im gemischten Szenario vs den anderen CPUs.
Der 5900x ist ja schon recht ordentlich bestückt mit Cache in combo mit Takt.
Was anderes wäre die Entscheidung von einer älteren Generation zu wechseln in AM4, dann wäreder X3D halt mit das Beste.
 
Für mich hat sich der Umstieg vom 5800X3D auf einen 7800X3D deutlich positiv bemerkbar gemacht, und zwar bei X-Plane und FS 2020 (und wahrscheinlich auch bei einigen anderen Games, die mir aber weniger wichtig und offenbar auch schon mit dem 5800X3D so ausreichend gut gelaufen sind, dass sie mir da nicht negativ aufgefallen sind).
 
Für mich hat sich der Umstieg vom 5800X3D auf einen 7800X3D deutlich positiv bemerkbar gemacht, und zwar bei X-Plane und FS 2020 (und wahrscheinlich auch bei einigen anderen Games, die mir aber weniger wichtig und offenbar auch schon mit dem 5800X3D so ausreichend gut gelaufen sind, dass sie mir da nicht negativ aufgefallen sind).
Das ist was anders, hier kommen nochmal fast 800mhz-1 Ghz Takt dazu und zusätzliche IPC (mehr Transistoren) on Top.

Bei Niftu Cals Beispiel handelt es sich um ein Wechsel von 5900x auf 5800X3D.
Der 5900x ist oder war vor Markteinführung vom 5800X3D quasi die schnellste CPU für Gaming die Sinnvoll war bei AM4 war, auch aufgrund des höheren Caches in Kombination mit höheren Taktspitzen.
Mittlerweile gibt es den 5700X3D noch, aber dieser ist höchsten interessant wenn man von einem 5600 oder 3700X/3600 oder älter kommt.

1717660465985.png

Ich kann nur so viel sagen den L3 Cache hatte mit dieser Generation AMD soweit nochmal optimiert das beide CCDs zugriff hatten und die Latenzen nochmal drastisch verkürzt wurden, klar ist das nicht so optimiert wie bei großzügigen X3D aber es hat trotzdem einen Effekt.

Kleiner Nachtrag So bald man sich in WQHD oder höheren Auflösungen bewegt macht nicht viel Sinn. In einigen Benchmarks mit 5800X3D @3200 vs 5800X3D @3800 mhz hat es nicht mal mehr eine skalierung gegeben. Das heißt wenn man sich noch am RAM geld sparen möchte lohnt sich das.

Wenn man aber schon einen 5900X hat sollte man schauen ob man stattdessen lieber am RAM nochmal optimieren kann. 100€ hier für ein flottes RAM Kit kann unter umständen das FPS Delta etwas reduzieren zum X3D.

1717661501360.png
 
Zuletzt bearbeitet:
Kleiner Nachtrag So bald man sich in WQHD oder höheren Auflösungen bewegt macht nicht viel Sinn. In einigen Benchmarks mit 5800X3D @3200 vs 5800X3D @3800 mhz hat es nicht mal mehr eine skalierung gegeben. Das heißt wenn man sich noch am RAM geld sparen möchte lohnt sich das.
CPU und Auflösung so in Relation zu setzen wie du es tust ist grundsätzlicher Quatsch.

Mit einer 4090 im System ist deine Aussage heute schon falsch.

Es geht um CPU Limit und GPU Limit.
Wenn du im GPU Limit bist, wird ne neue CPU nix bringen.
 
CPU und Auflösung so in Relation zu setzen wie du es tust ist grundsätzlicher Quatsch.

Mit einer 4090 im System ist deine Aussage heute schon falsch.

Es geht um CPU Limit und GPU Limit.
Wenn du im GPU Limit bist, wird ne neue CPU nix bringen.
Ja und nein, wenn es ein Engine Limit ist erkennst du das nicht und eine Projektion auf neuartige Spiele kannst du auch nicht machen (voraussagen).

Aber alleine schon die Tests von HWUnboxed hatten gezeigt das Nvidia Treiber und AMD Treiber unterschiedlich in Limits skalieren.
Nvidia ist CPU hungriger im allgemeinen als AMD.

HW Unboxed Video

Leider werden zu selten Benchmarks in Limits gemacht.

Edit: Diese Anomalie kannst in den typischen Benchmarks nicht feststellen. Das ist immer auch so meine Kritik. Man nimmt immer die Schnellste CPU damit man potentiell kein CPU Bottleneck hat und lässt testen welche die Schnellste Grafikkarte ist: Check die 4090.

Alle anderen CPU Tests werden dann nur mit der 4090 gemacht, diese Tests reflektieren aber nach dem HW Unboxed Video aber nicht die real Performance mit einer AMD Karte oder Nvidia Karte einer älteren Generation in einem Bottleneck Szenario.
Wir gehen davon aus das Resultat aus der Nvidia Konstellation gilt auch für alle AMD Setups. Unter umständen kauft sich einer aber 7900GRE und hätte aber keinen X3D gebraucht weil das Scaling vom 7600 zum 7800X3D bei dieser Karte vielleicht nicht das 4090 Nvidia Delta repräsentiert.
 
Zuletzt bearbeitet:
Was interessiert ein engine limit in einem CPU Benchmark?
Wenn du ne CPU testen willst brauchst du ein geeignetes Szenario für den Test. Ein künstliches nicht durch die CPU verursachtes Limit ist kein geeignetes Szenario.

Ich teste doch auch nicht einen Porsche GT3 mit angezogener Handbremse oder im Rückwärtsgang für ne Aussage über topspeed?
:wall:
 
Zuletzt bearbeitet:
Was interessiert ein engine limit in einem CPU Benchmark?
Ich teste doch auch nicht einen Porsche GT3 mit angezogener Handbremse oder im Rückwärtsgang für ne Aussage über topspeed?
:wall:
Okay dann erklär mir das HW Unboxed Resultat. Mit der Anomalie.
 
Okay dann erklär mir das HW Unboxed Resultat. Mit der Anomalie.
Was interessiert eine Anomalie durch Driver Overhead für eine generelle Aussage?
Wenn du ne Anomalie testen willst, Teste die Anomalie. Aber auf Basis eines außergewöhnlichen Datenpunkt eine generelle Aussage mit vielen Datenpunkten in Frage zu stellen ist einfach dumm.

Die ganze Diskussion ist dumm, außer man will den Driver Overhead analysieren. Dann ist es evtl interessant.

Wir gehen davon aus das Resultat aus der Nvidia Konstellation gilt auch für alle AMD Setups. Unter umständen kauft sich einer aber 7900GRE und hätte aber keinen X3D gebraucht weil das Scaling vom 7600 zum 7800X3D bei dieser Karte vielleicht nicht das 4090 Nvidia Delta repräsentiert.
Wer CPU Limit und GPU Limit nicht versteht und dann meint CPU Overhead mit einer halb so starken AMD Grafikkarte ausgleichen zu können und deswegen Quatsch kauft, dem kann ich auch nicht helfen.
Auch diesen Punkt halte ich für dumm.

Weil am Ende läuft's darauf hinaus dass du nach deiner Logik jede CPU mit jeder GPU und jedem Treiber der letzten 12 Monate und jedem Spielepatch der letzten 12 Monate testen musst.
Und dann hast du einen Haufen Daten, aber keine für Kaufberatungen sinnvolle Erkenntnis.

Dann kannst du auch einfach nach den Ranglisten und groben FPS werten kaufen und wissen dass das exakte Ergebnis durch Einfluss von Software, Kühlung und Konfigurationen variiert.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh