AMD lässt Arrow Lake ganz schön alt aussehen: Der Ryzen 7 9800X3D im Test

kommt auf die güte des chips und die lastszenarien an.

meiner ist stock mit dem u12a mit 900rpm in cinebench nicht zu kühlen. -.-
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tatsächlich? Welchen Kühler hast Du?

Meint ihr den 9800X3D kann man auch mit einem Low-Profile Kühler, wie den Noctua NH-L12S gut kühlen? Muss ja fast sein, wenn es beim 7800er klappt.
Aber ich bin bisher von mehr Verbrauch und mehr Wärme ausgegangen :)
Ich habe eine ROG Ryuo III AiO mit 360er Radiator. Der 7800X3D ging bei mir kaum unter 80 Grad unter Volllast, im Sommer dann auch bis ans Limit von 89 Grad. Der 9800X3D läuft bei mir mit etwas Curve Optimizer auf 65 Grad. Mit PBO Overclock auf 5,4GHz sind es 75 Grad im Cinebench. Das ist schon ein massiver Unterschied. Wir haben drüben in den Threads aber ziemlich krasse Streuung. Einige haben mit ihren Chips Probleme mit der Kühlung.

 
Ich denke, dass die CUDIMMs keine glorreiche Zukunft haben werden. Stichwort: Latenz...
Wenn man mal von den 9600 CL42 ausgeht, würden diese 9,1 ns entsprechen, DDR5 liegt normal in der Region 12-14 ns.
CUDIMM könnte also durchaus allgemein die Performance steigern, sicher müssen das aber die Tests zeigen. ;)
 
Meint ihr den 9800X3D kann man auch mit einem Low-Profile Kühler, wie den Noctua NH-L12S gut kühlen?
Ich spiele da aktuell ein bisschen rum.
Ich hab einen L12Sx77 - also bisschen mehr Spielraum als beim einfachen L12S und bei Stock rennt der 9800X3D in einem einfachen Cinebench R23 schnurstracks in Richtung 90°C. Da werden aber halt auch 150 Watt durchgejagt.
Bereits mit CO -30 bekommt man die CPU insoweit eingebremst, das sie hier nur noch in Richtung 76-77°C geht. Spitzenverbrauch dann im Bereich um die 120 Watt... Bei Dauerlast wird das mitunter aber auch schon etwas kritischer. Im 10 Minuten Test ist sie dann nach 3-4 Minuten dann auch schon wieder an der 90°C Marke.

Habe dann mal mit TDC und EDC gespielt - Quasi manuell die Werte gesetzt: 125W/90A/115A für PPT/TDC/EDC... Und jetzt komme ich beim 10 Minuten Test auf einen Höchstwert von 86°C.

Punktwert lag beim Einzelrun dann immer bei 23.100-23.300 - also wie hier im Test. Über 10 Minuten spuckt er mir dann noch immer solide 22.900 Punkte aus. Der Takt geht dann halt nicht mehr in Richtung 5225 sondern 5175-5150
Das ist mit so einer Kühllösung aber absolut verschmerzbar, wenn man die Leistung recht gut konserviert bekommt.

Warum die PPT/TDC/EDC-Anpassung, wenn er doch nur 120-125 Watt zieht? Ohne Anpassung steigen TDC/EDC und damit halt auch PPT während des Laufes immer weiter an, weil die höheren Temperaturen mehr Spannung erfordern, damit er die 5225 MHz durchhält. Lass gerade noch einmal "Out of the box nur mit -30 CO" laufen und er peakt mir nach 4 Minuten schon um die 90°C

Edit. Das ist aber vor allem VOLLLAST-Spielerei. Wenn es ums Gaming geht, chillt die CPU derbe vor sich hin. Wie jede X3D-CPU vorher auch. Und die Temperaturen sind noch einmal deutlich niedriger. Auch wenn man die Temperaturen nicht komplett mit 5800X3D oder 7800X3D vergleichen kann.
 
Zuletzt bearbeitet:
Wenn man mal von den 9600 CL42 ausgeht, würden diese 9,1 ns entsprechen, DDR5 liegt normal in der Region 12-14 ns.
CUDIMM könnte durchaus allgemein die Performance steigern, sicher müssen das aber die Tests zeigen. ;)
Wenn der Herr Professor sich mal die Ras Latenz anschauen würde... wobei die oft nicht angegeben wird ... warum wohl und wenn dann ist sie fantastisch Hoch
 
Und vergisst auch den notwendigen Gear 4 Mode, der sowieso alle Latenzen kaputt macht. Aber bei manchen gibt es eben keine Hoffnung irgendwelche technischen Zusammenhänge zu verstehen.
 
Um es mal ganz provokant zu sagen: Mir erschließt sich hier jetzt nicht ganz der Hype. Mehr Leistung als der 7800X3D wird sich mit höherem Stromverbrauch erkauft? Das soll jetzt die neue top Gaming CPU sein? Ganz ehrlich, hätte ich jetzt keinen 7800X3D wüsste ich nicht warum ich mir jetzt den 9800x3d holen sollte. Insbesondere da ich auch nicht die große Variation an verschienden Games spiele. Bei einigen Games macht er ordentlich was her in anderen precht er nicht so weit vor. Denke da würde ich zum "älteren" Modell greifen momentan.

Aber alles gut, die neue CPU ist sicher ein guter Wurf aber ich finde es wirklich nicht so doll wenn eine etwas höhere Spieleleistung mit automatisch ordentlich (sehe ich so) mehr Energieverbrauch einhergeht. Gute Ingenieursleistung sieht anders aus.
 
Zuletzt bearbeitet:
Der 9800X3D ist der ausgereifte 7800x3D.
Alles was bei dem 7800X3D nicht gut umgesetzt war ist beim Nachfolger optimiert und verbessert worden. Daher ist es einfach ne gute CPU und die Konkurrenz hat nichts vergleichbares und das als Marktführer.
Gegenüber Intel ist AMD ein kleiner Laden.
Daher solide Leistung von AMD.
 
Meint ihr den 9800X3D kann man auch mit einem Low-Profile Kühler, wie den Noctua NH-L12S gut kühlen? Muss ja fast sein, wenn es beim 7800er klappt.
Aber ich bin bisher von mehr Verbrauch und mehr Wärme ausgegangen :)
Für Spiele und normale Office-Last ganz sicher. Brauchst du die acht Kerne häufig unter Volllast, kann der Ryzen 9 9800X3D schon recht warm werden und pumpt eben auch mehr Abwärme in den Kühler.
 
Der 9800X3D ist der ausgereifte 7800x3D.
Alles was bei dem 7800X3D nicht gut umgesetzt war ist beim Nachfolger optimiert und verbessert worden. Daher ist es einfach ne gute CPU und die Konkurrenz hat nichts vergleichbares und das als Marktführer.
Gegenüber Intel ist AMD ein kleiner Laden.
Daher solide Leistung von AMD.
Auf jeden Fall - der 9800X3D ist eine Meisterleistung.
 
Um es mal ganz provokant zu sagen: Mir erschließt sich hier jetzt nicht ganz der Hype. Mehr Leistung als der 7800X3D wird sich mit höherem Stromverbrauch erkauft? Das soll jetzt die neue top Gaming CPU sein?

Stimmt schon zum Teil. Ich finde die CPU richtig gut, aber vieles wurde sich auch mit der Brechstange erkauft. 150w@Default sind eine Nummer und die meisten haben keine Ahnung vom Core Optimizer etc. Ich könnte mir vorstellen, dass viele Systeme unter Volllast ins Temperaturlimit laufen, gerade bei Lukü. Andererseits lässt AMD die CPU halt mal machen und der 7800X3D war beschränkt..
Jeder, der es effizienter unter Volllast möchte muss halt selbst Hand anlegen.

Im Gaming ist die CPU trotzdem @stock verdammt schnell und effizient.
 
"brechstange" ist schon sehr übertrieben aus meiner sicht. er verbraucht mehr aber brechstange ist doch das was wir beim mitbewerber gesehen haben.
aber das eigentliche thema dabei ist doch nicht, dass der 9800x3D hier den verbrauch so hoch hat im vergleich, sondern dass der 7800x3D beschnitten werden musste um ihn thermisch zu schützen.
die "fesseln" wurden nun abgelegt und es ergibt sich eben dadurch eine noch größere differenz.
 
Mehr Leistung als der 7800X3D wird sich mit höherem Stromverbrauch erkauft? Das soll jetzt die neue top Gaming CPU sein?
Also hier finden sich ja immer wieder wilde Maßstäbe für Beurteilungen die oft trotzdem ihre Berechtigung haben da jeder andere Prioritäten hat. Aber ich denke, dass die meisten eine "top Gaming CPU" tatsächlich an der Leistung und weniger an der Effizienz messen. In so fern würde ich absolut sagen, dass wir es hier mit der aktuell besten Gaming-CPU zu tun haben, zumal diese kaum in der Performance/Watt in Gaming hinter der Spitze zurückhängt und damit im Gaming immer noch sehr sehr(!) effizient ist.
Ich gehe aber in so fern mit: auch für mich persönlich, der nicht ganz vorne mit dabei sein muss, ist der 7800x3d das rundere Gesamtpaket (vor allem da ich tatsächlich auch stark auf die Effizienz schaue). Der Titel "top Gaming CPU" geht aber auch in meinen Augen aktuell an den 9800x3d.
 
Unter Volllast (Prime95) habe ich um die 150 Watt gesehen, aber diese Last ist dermaßen massiv und nicht allgegenwärtig (zumindest bei mir nicht). In Games ist der 9800X3D (besonders zusammen mit Undervolting via CO) weitaus effizienter. Für mich ist der große Vorteil, dass der 9800X3D nun nicht hauptsächlich im Gaming-Bereich punkten kann, sondern auch bei Anwendungen. Und dies ist deutlich zu spüren.
 
150w@Default sind eine Nummer
Der Punkt ist doch: 7800X3D und 9800X3D haben die gleiche TDP-Klassifizierung und damit auch die exakt gleichen Limits. Der 7800X3D macht nur vorher dicht, weshalb er halt gar nicht über die 90 Watt kommt. Er stößt an Limits. AMD hat den nicht besonders effizient konfiguriert. Er kann halt einfach nicht mehr Watt ziehen.
Der 9800X3D bekommt das aufgrund der Änderungen eben hin, die TDP-Klassifizierung auch auszunutzen. Da verhält es sich letztlich wie jeder Zen-Prozessor vorher auch. Ist also eher vergleichbar mit den non-X3D-Varianten, die sich halt im Rahmen ihrer TDP-Klassifizierung austoben konnten.
Das lässt Spielraum für Optimierungen, die es beim 7800X3D gar nicht so sehr gibt.

Wie vor paar Beiträgen erwähnt: Ich spiele gerade rum. Mit CO -30, PPT 125W - TDC 90A - EDC 110A und aktuell -100 MHz Takt komme ich mit einem L12Sx77 immer noch konstant auf 98% der Punkte im Cinebench, als wenn ich ihn zügellos Out of the Box betreibe.
Mit besseren Kühler reicht locker -30 CO rein und das Ding zieht nicht mehr als 120 Watt bei exakt gleicher Leistung. Im Zweifel bekomme ich sogar noch die 200 MHz oben drauf, die viele einstellen.

Um es kurz zu machen: Der 9800X3D verhält sich in Anwendungen jetzt so, wie eine non-X3D-Variante. Er nutzt seine Limits aus und muss für den Cache hier nicht mehr eingebremst werden. Klar geht das halt auf Kosten der Effizienz. Das Verhältnis passt aus meiner Sicht aber noch. Und wenn man nachhilft, passt Verhältnis sogar sehr gut.
 
Aber alles gut, die neue CPU ist sicher ein guter Wurf aber ich finde es wirklich nicht so doll wenn eine etwas höhere Spieleleistung mit automatisch ordentlich (sehe ich so) mehr Energieverbrauch einhergeht. Gute Ingenieursleistung sieht anders aus.
wenn man keine gurke wie ich erwischt hat ist der 9800x3d mit angepassten CO in seinem Anwendungsgebiet (gaming) sehr sparsam.

in GOWR hatte ich gestern auf 165 FPS capped 50-70w verbrauch.
 
Zuletzt bearbeitet:
Ein weiterer Punkt sind die nochmals gesteigerten Low-FPS-Werte, die manche für unwichtig halten. Klar sind diese nicht lebensnotwendig, für mich jedoch von hoher Bedeutung, wenn ich am PC zocke.
 
Für ein Allroundsystem ist er ideal. Gaming mit max. Effizienz und auch so hat man Anwendungsleistung die sich nicht verstecken braucht.

Nächste CPU wird dann die letzte und beste für AM5 mit 16 Kernen oder AM6 aber nur wenns das 16 Kern Chiplet gibt mit Cache.
 
Stimmt schon zum Teil. Ich finde die CPU richtig gut, aber vieles wurde sich auch mit der Brechstange erkauft. 150w@Default sind eine Nummer und die meisten haben keine Ahnung vom Core Optimizer etc. Ich könnte mir vorstellen, dass viele Systeme unter Volllast ins Temperaturlimit laufen, gerade bei Lukü. Andererseits lässt AMD die CPU halt mal machen und der 7800X3D war beschränkt..
Jeder, der es effizienter unter Volllast möchte muss halt selbst Hand anlegen.

Im Gaming ist die CPU trotzdem @stock verdammt schnell und effizient.

Von Brechstange ist der 9800X3D schon etwas entfernt, sowas war eher der 14900KS :fresse:
 
Intel spielt in einer anderen Liga :d

nehmen wir den Vergleich zum 7800x3d, da setzt der 9800x3d den Hebel schon ganz schön an. Da ging AMD bis an die zumutbare TDP Grenze.
 
Die Beschreibung von @kachiri beantwortet das Ganze ziemlich gut. ;)
 
Hab grad die ersten Benchmarks mit dem 9800X3D vs. mein 14900k gemacht.
Bei den AVG FPS komm ich wie erwartet nicht ran. Allerdings schlägt sich der 14900k@ 8400Mhz max tweaked RAM bei den Low FPS sehr gut und liegt teilweise vorne.
Hab bisher aber auch erst CS2, Cyberpunk & Starfield testen können.

Das Ergebnis kann ich übrigens gar nicht nachvollziehen. Würde mich mal interessieren welche Ingame Szene das war.
1731493330455.png
 
Starfield dürfte schwer davon abhängig sein, wo/welche Szene man hier nimmt. Bei uns ist es recht früh im Spiel in einer Stadt mit vielen NPCs.
 
Starfield dürfte schwer davon abhängig sein, wo/welche Szene man hier nimmt. Bei uns ist es recht früh im Spiel in einer Stadt mit vielen NPCs.
Wäre cool wenn ihr bei zukünftigen Reviews die Bench Szene vielleicht als Video zeigt.
 
Hätte mal ne Frage zum undervolting.
Geht das "heutzutage" überhaupt noch? Mich wundert dass darauf in den Tests nicht eingegangen wird.
Damit könnte man je nach Chipgüte ja etwas gegen den höheren Energieverbrauch unternehmen.
 
Mich wundert dass darauf in den Tests nicht eingegangen wird.
weil man in einem test einfach nicht alles unterbringen kann.
wichtig ist doch erstmal was das teil out of the box liefert... oc oder uv ist dann was zum separaten betrachten.
 
Hätte mal ne Frage zum undervolting.
Geht das "heutzutage" überhaupt noch? Mich wundert dass darauf in den Tests nicht eingegangen wird.
Damit könnte man je nach Chipgüte ja etwas gegen den höheren Energieverbrauch unternehmen.
du kannst ja nicht anhand eines exemplars eine generelle OC/UV empfehlung aussprechen.

getestet wird immer nur das was der Käufer gegen sein geld bekommt
 
Klar, alles cool, hätte ich Zeit dafür würde ich ihn nach 9 Jahren i5 auch kaufen, aber dauert noch ein wenig.
Overclocking wurde ja - wenn auch nur kurz - angetestet, da dachte ich eben.
Aber ist es technisch noch möglich? Wie gesagt, bin lange nicht mehr aktuell mit meinem Wissen ;]
 
Ja, Undervolting ist möglich. Einerseits über die VCore oder besser über den Curve Optimizer in den AMD-Precision-Boost-Overdrive-Einstellungen im BIOS.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh