Zen 4 mit DDR5: Ryzen 9 7950X und Ryzen 7 7700X im Test

Das dürfte auch interessant sein

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vor allem, wenn wir die gleichen Leistungssprünge bekommen wie auf AM4 :asthanos:

Da lohnt es sich dann schon bei der übernächsten Generation aufzurüsten und das ohne ein neues Board kaufen zu müssen, welches dann wahrscheinlich noch mal 50% teurer wird die heutigen.

War von den hohen Temps anfangs auch wenig begeistert. Es gibt aber inzwischen Lösungen dafür ohne Kompromisse bei der Leistung eingehen zu müssen.

Ja sehe ich auch so. Mit der Temperatur bei ZEN4 ist es so wie mit dem Stromverbrauch bei den RTX3000. Es lohnt sich auf jeden Fall, mal kurz "Hand anzulegen:love:" um enorme Verbesserungen bei der Temperatur (ZEN4) oder dem Stromverbrauch (RTX3000) zu erreichen.
:coffee2:
 
@Don: der eco Mode ist schon was feines. Gerade auch in Bezug auf temps und Verbrauch bei ähnlicher spieleleistung. Son bisl kribbelt es schon. Aber ich warte auf alle Fälle noch auf die anderen chipsätze und rpl.
 
der eco Mode ist schon was feines.
Kommt halt ganz auf den Anwendungsfall beim render hilft es viel aber beim Gaminig sind die Ergebnisse halt eher Mau zumindest komt Igor zu diesen Fazit:
 
Ich warte noch bis November, bis die neuen Grafikkarten getestet wurden. Dann geht der 5820k sind seine wohlverdiente Rente. PBO und CO sind obligatorisch. Ich will es leise haben und da verzichte ich gerne auf die letzten 5% Performance. Igor hat ja auch gezeigt, dass bei 125Watt man in Blender und CB nicht mehr verliert und Spiele gleich schnell sind. Im GPU Limit erst recht.
 
Igor hat ja auch gezeigt, dass bei 125Watt man in Blender und CB nicht mehr verliert ...
Ähhmm da must du andere Videos geschaut haben als ich die 125 Watt kosten bei CB und beim rendern halt 10% sicherlich nicht extrem aber nicht so das man nichts verliert
 
Du beschreibst damit einen GPU Test!
Die werden im entsprechenden Bereich gemacht 🙃

Man kann doch in der Lage sein 2 Tests übereinander zu legen um für sich das passende Bild zu bekommen.

Ein GPU Test testet aber nur EINE GPU.
Mich interessiert ja die breite Masse an GPUs und ab welcher GPU ich im GPU Limit bin mit der CPU. Die FPS sind mir dabei wumpe.

Die Aussage, die mich interessiert, ist im Endeffekt: "Wenn ich GPU X habe, dann ist jede CPU über Y wertlos für den Gaming PC bei 1440p und bei 4k ist es sogar Y - noch mal 5 Tiers."
Hier wird über die tolle Gamingleistung gesprochen, die vermutlich bereits bei einem 9900K schon im GPU Limit liegen wird +/- ein Frame oder zwei.

Was wir im Test sehen ist ein THEORETISCHES Maximum (was wichtig für einen 1:1 Vergleich ist!), aber was wir nicht sehen: "Bringt mir ein Upgrade überhaupt was, bis auf einen größeren Balken in Cinebench?!".
Dafür kann ich dann natürlich 20 GPU Reviews zusammensuchen und hochrechnen, wie die sich dann vermutlich mit der CPU verhalten könnten,... aber es ist halt ein Ratespiel am Ende des Tages.
 
Was wir im Test sehen ist ein THEORETISCHES Maximum (was wichtig für einen 1:1 Vergleich ist!), aber was wir nicht sehen: "Bringt mir ein Upgrade überhaupt was, bis auf einen größeren Balken in Cinebench?!".
Dafür kann ich dann natürlich 20 GPU Reviews zusammensuchen und hochrechnen, wie die sich dann vermutlich mit der CPU verhalten könnten,... aber es ist halt ein Ratespiel am Ende des Tages.
Spätestens seit Intel Gen10 und AMD Ryzen 5000 sind eh alle normalen User im GPU Limit.
Ausnahmen:
- die die irgentwelche 240+ Hz Gaminingmonitore haben
- die die zwanghaft alle Einstellung immer nur auf Maximum stellen
- die die gerne 1000+ Euro nur für die GPU ausgeben

Nur das sind alles in meiner Meinung keine normalen User...
 
Normale User hängen heut noch fest bis Pascal :sneaky:
 
Ich kann hier noch ein paar Ergebnisse der Performance Efficiency Suite nachreichen. Beim Ryzen 9 7950 auch im Eco Mode.
@Don ich schätze er meint die Grafiken aus deinem Post hier.
 
Kommt halt ganz auf den Anwendungsfall beim render hilft es viel aber beim Gaminig sind die Ergebnisse halt eher Mau zumindest komt Igor zu diesen Fazit:
Bei den hohen Temperaturen auch noch eine Jacke tragen 😬
Ähhmm da must du andere Videos geschaut haben als ich die 125 Watt kosten bei CB und beim rendern halt 10% sicherlich nicht extrem aber nicht so das man nichts verliert
Die Watt-Begenzung allein verringert den Score in Benchmarks nur etwas und lässt die Temperatur nur minimal sinken. Es gibt aber ein paar Tweaks mit denen der Score trotz gleicher verringerter Wattzahl gleich bleibt und das bei stark sinkender Temperatur.

Schau mal das Video bei #516
 
Das dürfte auch interessant sein

Nichts neues, aber er fasst die Möglichkeiten echt gut zusammen. Was mich bei CO mit negativem Offset stört, ist die nicht vorhandene Möglichkeit "richtig" auf Stabilität zu testen.
Prime und einfach Volllast dürfte ja wenig zielführend sein.
 
Zuletzt bearbeitet:
Ein GPU Test testet aber nur EINE GPU.
Mich interessiert ja die breite Masse an GPUs und ab welcher GPU ich im GPU Limit bin mit der CPU. Die FPS sind mir dabei wumpe.

Die Aussage, die mich interessiert, ist im Endeffekt: "Wenn ich GPU X habe, dann ist jede CPU über Y wertlos für den Gaming PC bei 1440p und bei 4k ist es sogar Y - noch mal 5 Tiers."
Hier wird über die tolle Gamingleistung gesprochen, die vermutlich bereits bei einem 9900K schon im GPU Limit liegen wird +/- ein Frame oder zwei.

Was wir im Test sehen ist ein THEORETISCHES Maximum (was wichtig für einen 1:1 Vergleich ist!), aber was wir nicht sehen: "Bringt mir ein Upgrade überhaupt was, bis auf einen größeren Balken in Cinebench?!".
Dafür kann ich dann natürlich 20 GPU Reviews zusammensuchen und hochrechnen, wie die sich dann vermutlich mit der CPU verhalten könnten,... aber es ist halt ein Ratespiel am Ende des Tages.

du bist dann im gpu limit wenn die gpu weniger fps bringt als die cpu. du bist echt hardcorest schwer von begriff. sorry aber es kann echt nicht zu viel verlangt sein sich ein gpu test anzuschauen und dann 1 und 1 zusammenzuzählen. für das was du verlangst brauch ich wenige sekunden. wozu soll sich also das ganze luxx team hinsetzen wenn es im GPU test schon steht was du wissen willst?

CPU bringt 90fps.

GPU die ich mir zulegen könnte bringt 120.
ergebnis 90

gpu die ich mir zulegen könnte bringt 80fps
ergebnis 80

wirklich?


Hier das nächste Game welches in hohen Auflösungen ja angeblich immer und ausschließlich, es kann gar nicht anders sein > im GPU limit ist und die CPU ja sowas von Egal ist :rofl:

Halt warte:

ups ein 12700 in kombination mit 3200cl16-18-18-38 ist zu schwach
settings high, + Raytracing Reflections
cpu limit @ 3440x1440.

grtgrtrt.jpg

ohne RT sind meine gezielten 118 fps (120hz gsync panel) wieder drin ;)

ztj56545.jpg

OHNE Vsync 720p.

htrh3434.jpg
 
Zuletzt bearbeitet:
du bist dann im gpu limit wenn die gpu weniger fps bringt als die cpu. du bist echt hardcorest schwer von begriff. sorry aber es kann echt nicht zu viel verlangt sein sich ein gpu test anzuschauen und dann 1 und 1 zusammenzuzählen. für das was du verlangst brauch ich wenige sekunden. wozu soll sich also das ganze luxx team hinsetzen wenn es im GPU test schon steht was du wissen willst?

CPU bringt 90fps.

GPU die ich mir zulegen könnte bringt 120.
ergebnis 90

gpu die ich mir zulegen könnte bringt 80fps
ergebnis 80

wirklich?


Hier das nächste Game welches in hohen Auflösungen ja angeblich immer und ausschließlich, es kann gar nicht anders sein > im GPU limit ist und die CPU ja sowas von Egal ist :rofl:

Halt warte:

ups ein 12700 in kombination mit 3200cl16-18-18-38 ist zu schwach
settings high, + Raytracing Reflections
cpu limit @ 3440x1440.



ohne RT sind meine gezielten 118 fps (120hz gsync panel) wieder drin ;)



OHNE Vsync 720p.
Also deine Tests bzw. Grafikeinstellungen sind nicht seriös und bitte hör lieber auf damit. Bleib ruhig bei deiner Illusion, dass die CPU @4k noch so eine große Rolle spielt...

Für alle Interessierten nachfolgend mal ein richtiger Test ;)

 
Zuletzt bearbeitet:
und was soll mir der cb test sagen? dass alle cpus 1% percintel unter 144fps sind? ja da passt meine auch genau rein.

mein einstellungen sind unseriös? ich hab das spiel geladen und auf hoch gestellt, du bist eine kanone alter falter. :d

mit angepassten settings schafft meine 3080ti 3440x1440 NATIVE (Kein DLSS Matschepampe) mit über 118fps. das musst die cpu auch erstmal stemmen und wie du anhand des videos erkennen kannst, schafft sie das nicht immer.

seriös genug?

 
Zuletzt bearbeitet:
dass die CPU @4k noch so eine große Rolle spielt...
Er hat aber Recht. Ich bewundere zwar seine Ausdauer im Kampf gegen Windmühlen, aber ich finde es auch irgendwie faszinierend, wie hartnäckig sich diese Sache mit "In 4K spielt die CPU keine Rolle" hält. Wenn das so wäre, dann könntest Du ja auch noch mit einem Core 2 Duo oder P4 zocken ;)

Jetzt mal ernsthaft: Das Argument war (max. halb) "valide", als 4K Monitore neu waren und es keine Grafikkarten gab, die nur ansatzweise in dieser Auflösung anständige Leistung gebracht haben, aber es natürlich dennoch viele gab, die ihren neuen Monitor auskosten wollten.

Man muss sich das mal überlegen, es gab auch mal Zeiten, in denen Full HD volles GPU Limit bedeutete. Davor ist man Ewigkeiten mit Auflösungen rumgekrebst wie 1024x768. Als 1080p dann einigermaßen etabliert war und gut lief, kam 4K. Was einfach mal die 4-fache Auflösung des bisherigen "Standards" war, ein Sprung, den es so niemals vorher gab. Ich erinnere mich auch an viele Beschwerden, dass die GPU Hersteller sich doch mal "beeilen sollten" diesen Standard zu unterstützen.. was ich recht erstaunlich fand, war 4K doch das selbe als wenn ich mir vorher einfach vier(!) 1080p-Monitore gleichzeitig hingestellt hätte mit der Erwartung, ich habe keine FPS-Einbußen.

Sei es drum. Mittlerweile ist 4K jetzt über viele Jahre gängig und spätestens seit der 3000er Generationen gibt es viele (wenn vielleicht nicht auch die allermodernsten Triple AAA) Titel, die von den aktuellen Karten locker gestemmt werden. Wenn man von Leuten ausgeht, die sowieso max. 60Hz anpeilen, dann erst recht. Aber auch 144Hz ist jetzt kein utopisches Ziel mehr. Keiner kennt die Tests einer 4090, aber ich denke, die wird das Limit nochmal kräftig verschieben und vielleicht erleben wir dann mit der GPU-Generation in spätestens 2 Jahren, dass 4K dann auch mit 144Hz absolut kein Problem mehr für die Masse der GPUs sein wird und vielleicht 4K-Tests die "neuen 1080p" Tests werden, weil dann Auflösungen wie 8K langsam im Consumerbereich an Relevanz gewinnen. Da wird dann wohl aber die Diskussion von Neuem beginnen..

Nunja, sei es drum.. Tatsache ist einfach, und da hat @Scrush recht: GPU und CPU haben rein gar nichts miteinander zu tun. Dazu spielt nicht jeder AAA-Titel mit RTX oder dreht alle Settings auf Max. Und schon kann ich auch bereits heute sehr schnell im CPU-Limit sein. Noch deutlicher merkt man es an den noch wichtigeren Min-FPS bzw. 0,1% Lows. Da schadet eine schnelle (immer noch bevorzugt Singlecore Leistung!) auf keinen Fall. Es kommt immer auf den Anwender an und diese pauschale Aussage "mit 4K ist die CPU egal" stimmt einfach nicht. Das mag vielleicht zu Pascalzeiten noch irgendwie "gültig" gewesen sein, aber selbst da war es nicht korrekt, weil einfach kein Zusammenhang besteht zwischen den beiden Komponenten.

Ich finds ehrlich gesagt auch nicht schlimm, wenn man das nicht weiß. Es gibt auch genügend Dinge, von denen auch ich keine Ahnung habe. Ich weiß allerdings dann nicht ob es toll ist herzugehen und eben Leuten, die immer wieder ihre Zeit zu opfern um aufzuklären zu sagen "hör bitte lieber auf damit".. Dann vielleicht lieber nicht drauf reagieren.
 
ich könnte natürlich alle regler auf anschlag knallen und im gpu limit bei 80fps rumkrebsen. dann wäre tatsächlich auch ein 9900k ausreichend (grob geschätzt).

Aber ich will keine max settings und 80fps sondern ich will 118fps bei höchstmöglichen settings. es gibt tatsächlich menschen, die sind bereit Regler zu bedienen um das gpu limit nach oben hinaus zu schieben um den Monitor ausnutzen zu können. und wenn eine grafikkarte mit gelockerten settings das schafft, nehm ich das mit und bin bereit auf die ein oder anderen effekte zu verzichten.

und deswegen ist es falsch pauschal zu sagen dass hohe auflösungen automatisch gpu limit beudetet und die cpu egal wird.
 
Was wohl mehr FPS + bringen würde in 4K. von 12900K auf 13900K oder von 3090TI auf 4090?
Solange die CPU der GPU in den arsch tritt (die karte versorgen kann) liegt es am ende an der GPU zu einem Großteil was da an FPS rüberkommt (4K).

Aber ich halte mich lieber hier raus :)
 
Was wohl mehr FPS + bringen würde in 4K. von 12900K auf 13900K oder von 3090TI auf 4090?
Das kommt einfach auf das Spiel bzw. den Nutzer an. Ich persönlich profitiere von einem 12900K Upgrade auf einen 13900K mehr als von 3090 auf 4090. Natürlich bedeutet das nicht, dass bei diesem "Miniupgrade" die neue CPU direkt 100FPS mehr liefert sondern vielleicht im Durchschnitt nur 5. Die 4090 würde mir aber nichts bringen. Ich weiß, dass ich auch eher "Edge Cases" nutze wie bspw. Flugsimulatoren. Jemand der sich in Mainstreamtiteln bewegt (und da am Limit ist!), hat wahrscheinlich eher mehr von einer neuen GPU.

Es gibt hier aber keine pauschale Antwort, das ist die Kernaussage. Ohne dass der User Infos zu seinem Nutzungsverhalten gibt kann man überhaupt keine Angabe darüber machen, was einem "mehr bringt".
 
Was wohl mehr FPS + bringen würde in 4K. von 12900K auf 13900K oder von 3090TI auf 4090?
Solange die CPU der GPU in den arsch tritt (die karte versorgen kann) liegt es am ende an der GPU zu einem Großteil was da an FPS rüberkommt (4K).

Aber ich halte mich lieber hier raus :)
du verbindest wieder cpu und gpu und cpu mit der auflösung

wenn dein ZIEL fps wert X ist und NUR der 13900k das schafft und der 12900k das nicht, dann stellt sich gar nicht die frage welche gpu. erstmal brauchst du ne cpu die deinen wunschwert schafft. bringt dir die dickste gpu nix.

welche kombi jetzt von beiden die bessere ist, entscheidet sich aber nicht von einem einzigen spiel. deshalb ist es schwierig das als außenstehender vorherzusagen

zudem kann man ja vorher prüfen was beim aufrüsten mehr bringt. da muss ich nicht raten.

wenn du einen 12900k und eine 3090ti hast und du hast in deinen settings (scheiss egal welche auflösung) ein problem mit deinem CPU limit bringt dir eine 4090 nix. hast du ein problem mit dem cpu und gpu limit weil sich im spiel szenen unterschiedlich auswirken dann musst du beides upgraden. hast du mit dem cpu limit gar kein problem weil Sie in 720p deine wunsch fps erreicht die deine 3090ti in 4k nicht erreicht dann brauchst du eine dickere gpu.

thats it

das ist die vorgehensweise beim aufrüsten. alles planbar, vorher getestet und ohne dass man sich fragen müsste was mehr sinn macht

in dem video von mir droppen meine fps mal auf unter 118 richtung 110/105 um den dreh. alles weil die cpu nicht hinterherkommt. mein ziel wert sind 118 fps (120hz gsync panel). mir würde eine 4090 hier nix bringen.
 
Zuletzt bearbeitet:
Ich weiß, dass ich auch eher "Edge Cases" nutze wie bspw. Flugsimulatoren. Jemand der sich in Mainstreamtiteln bewegt (und da am Limit ist!), hat wahrscheinlich eher mehr von einer neuen GPU.
Das hat dann aber eher was mit einer schlecht gecodeten Software zu tun, wenn die Anwendung so stark Singlethreadlastig ist.
 
Das hat dann aber eher was mit einer schlecht gecodeten Software zu tun, wenn die Anwendung so stark Singlethreadlastig ist.
Es spielt doch keine Rolle, wenn es keine Alternative dazu gibt, oder (liegt übrigens nicht daran, aber ich will jetzt nicht eine weitere Off-Topic Diskussion zu den Gründen eröffnen)? :) Dazu gibt es auch in aktuellen Spielen immer noch einen Mainthread, der gerne limitiert - trotz besserer Multicoreunterstützung. Vielleicht gibt es auch Leute, die bspw. hauptsächlich ältere Sachen wie Source-Engine Spiele zocken, allerdings auf 4K. Auch hier hast Du kein GPU-Limit. Die einzigen Spiele in denen ich in "letzter Zeit" GPU limitiert war, waren Cyberpunk und Metro Exodus. Singeplayerspiele, einmal gezockt und dann fertig. Für meinen Use-Case eben eher eine Minderheit an Titeln. Aber ich bin auch nicht der Nabel der Welt.

Das Ding ist, wenn ich ne Kaufberatung aufmachen würde und mir dort jeder empfiehlt "nimm lieber ne GPU" ohne mein Nutzungsverhalten zu kenne, wäre das einfach eine Fehlberatung. Nochmals: GPU und CPU haben absolut nichts miteinander zu tun.

Aber keine Sorge, ich hör schon wieder auf hier. Ich sagte ja bereits, wir werden dann bei 8K-Monitoren wieder in dieser "Kreisdiskussion" sein ;) Danke dennoch an Dich @Scrush, dass Du nicht aufgibst :d
 
Das hat dann aber eher was mit einer schlecht gecodeten Software zu tun, wenn die Anwendung so stark Singlethreadlastig ist.
gegen die du als anwender nichts machen kannst. wenns so ist, dann isses so. ^^

ein cpu limit bei wenig fps muss nicht heißen dass der code schmutz ist. wir als user haben davon eh keinen plan und kann das nicht beurteilen.
 
Es spielt doch keine Rolle, wenn es keine Alternative dazu gibt, oder (liegt übrigens nicht daran, aber ich will jetzt nicht eine weitere Off-Topic Diskussion zu den Gründen eröffnen)? :) Dazu gibt es auch in aktuellen Spielen immer noch einen Mainthread, der gerne limitiert - trotz besserer Multicoreunterstützung. Vielleicht gibt es auch Leute, die bspw. hauptsächlich ältere Sachen wie Source-Engine Spiele zocken, allerdings auf 4K. Auch hier hast Du kein GPU-Limit. Die einzigen Spiele in denen ich in "letzter Zeit" GPU limitiert war, waren Cyberpunk und Metro Exodus. Singeplayerspiele, einmal gezockt und dann fertig. Für meinen Use-Case eben eher eine Minderheit an Titeln. Aber ich bin auch nicht der Nabel der Welt.

Das Ding ist, wenn ich ne Kaufberatung aufmachen würde und mir dort jeder empfiehlt "nimm lieber ne GPU" ohne mein Nutzungsverhalten zu kenne, wäre das einfach eine Fehlberatung. Nochmals: GPU und CPU haben absolut nichts miteinander zu tun.

Aber keine Sorge, ich hör schon wieder auf hier. Ich sagte ja bereits, wir werden dann bei 8K-Monitoren wieder in dieser "Kreisdiskussion" sein ;) Danke dennoch an Dich @Scrush, dass Du nicht aufgibst :d
Auch in CS GO lässt in 4K FPS liegen gegenüber 1080P das ist halt auch normal.

Obs jetzt nun 400 oder 600 Sind merke ich bestimmt nicht mehr aber klar lässt was liegen
 
Dazu gibt es auch in aktuellen Spielen immer noch einen Mainthread, der gerne limitiert
Gibt ja nicht ohne Grund Technologien wie Turbo Boost 3.0, die das volle Taktpotential der CPUs auf 1-2 Threads ausspielen.

Das Ding ist, wenn ich ne Kaufberatung aufmachen würde und mir dort jeder empfiehlt "nimm lieber ne GPU" ohne mein Nutzungsverhalten zu kenne, wäre das einfach eine Fehlberatung. Nochmals: GPU und CPU haben absolut nichts miteinander zu tun.
Deshalb wird ja auch meistens nach den gespielten Titeln gefragt ;)

gegen die du als anwender nichts machen kannst.
Du kannst ein besser optimiertes Spiel spielen.

ein cpu limit bei wenig fps muss nicht heißen dass der code schmutz ist. wir als user haben davon eh keinen plan und kann das nicht beurteilen.
Klar, CPU Limit heißt nicht automatisch schlecht. Wenn meine Anwendung aber im Singlethread Limit hängt, dann lässt der Entwickler durchaus ungenutztes Potential liegen. Ist halt aber auch immer die Abwägung, wie hoch der zu investierende Optimierungsaufwand ist.
 
ich könnte natürlich alle regler auf anschlag knallen und im gpu limit bei 80fps rumkrebsen. dann wäre tatsächlich auch ein 9900k ausreichend (grob geschätzt).

Wenn ich das schon lese dann wundert mich nicht, dass du @4k im CPU Limit bist. so kann man sich auch Grafikkarten Updates sparen. :rolleyes:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh