Arrow-Lake-Gegenspieler: Ryzen 7 9800X3D soll Ende Oktober oder Anfang November kommen

Ich sehe es etwas anders. Der 4k Test zeigt, das selbst die langsamste CPU, die schnellste GPU maximal bedienen kann. Auch das ist eine wichtige Aussage, zur Entscheidungsfindung beim Kauf einer CPU.

Du verstehst die Quintessenz nicht mein Freund. Stell dir vor, du möchtest testen, wie gut ein Koch (CPU) ist, und der Kellner (GPU) muss die Gerichte an die Tische bringen. Wenn du in einem kleinen Restaurant (720p) bist, kann der Kellner schnell arbeiten, und du siehst, wie effizient der Koch wirklich ist. In einem großen Restaurant (4K) ist der Kellner aber überfordert, und der Koch wartet, weil der Kellner nicht hinterherkommt.

Bei CPU-Tests geht es darum, die Leistung des Kochs zu sehen, nicht die Geschwindigkeit des Kellners. Wenn wir in hohen Auflösungen testen, sehen wir nur, wie schnell die GPU ist – die CPU wird nicht mehr richtig gefordert. Daher werden niedrigere Auflösungen wie 720p genutzt, um sicherzustellen, dass die Grafikkarte kein limitierender Faktor ist und die CPU ihre wahre Leistung zeigen kann.

In 4K ist die GPU oft der Flaschenhals, daher scheinen für deinen Anwendungsfall alle CPUs ähnlich zu sein. Aber das sagt nichts über die tatsächliche Leistung der CPU aus, sondern nur, dass die Grafikkarte in dieser Situation limitiert.

Was ist aber in 2 Jahren? Bald kommt GTA, was dann? Oder was ist wenn Cyberpunk plötzlich mit einem neuen Update kommt? Eine CPU will man auch (anders als eine Grafikkarte) gerne mal 5 Jahre+ behalten (ich weiß - wir nicht :LOL:).

Wie der Nutzer mit den Daten umgeht, ist ihm überlassen. Wieso sollten bei einer Review aber die Frames in 4K aufgezeigt werden? Da siehst du doch in keinem Fall, welche CPU besser performt?

PS: Mal in die Systemvoraussetzungen von Flight Sim 2024 geschaut? :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin auf die Tests und Vergleiche gespannt.:popcorn:
Ich frage mich nur, ob 3D Varianten generell die bessere Option für einen Spiele-Allrounder im System ist? Dann kann man sich fragen, ob der aufgebrachte zusätzliche 3D-Cache für die Zukunft sinnvoll ist und stattdessen die Cachestruktur/-Menge innerhalb vom Chip überarbeitet werden sollte? :unsure:
Der Vorteil beim aufpapen des Caches sind die Kosten, Cache braucht viel Platz auf dem Chip, Platz kostet Geld, mehr Platz erhöht auch die fehlerwahrscheinlichkeit was auch wieder Geld kostet.
 
Manchmal bewundere ich die Geduld mancher Leute hier. Ich hätte schon längst abgewunken. Ich sage nur alternative Fakten!😊
 
Jetzt sei mal nicht so böse zum 0815 Leser. Der 0815 Leser bekommt CPU Limit und GPU Limit auf die Reihe wenn man es ihm erklärt. Und wenn er es mal verstanden hat, dann kommt er wunderbar mit CPU Limit und GPU Limit klar. Und er kommt mit CPU Testergebnissen in 720p und GPU Testergebnissen in seiner Wunschauflösung klar. Aber nicht jeder ist ein 0815 Leser, akzeptiert.
Gut dann möchte ich dazu nur noch einen Satz sagen, wenn nur in 720p getestet wird, kann man das GPU Limit aber nicht erkennen. Und es wird in den Benchmarks auch nicht erklärt, dass man den 720p Benchmark nicht auf einen 4k Benchmark mappen kann. Oder finde ich solche erklärenden Sätze, im Fazit einer neuen CPU? So ein Satz wie, "die neue CPU ist zwar in 720p 15% schneller aber bei 99% aller Gaming-Rechner macht ein Update keinen Sinn, da niemand in 720p spielt".

Es geht mir nicht um GPU oder CPU Limits, sondern darum, dass die kleinste CPU schnell genug ist, für die schnellste GPU, außerhalb von Benchmarkauflösungen.
 
Gut dann möchte ich dazu nur noch einen Satz sagen, wenn nur in 720p getestet wird, kann man das GPU Limit aber nicht erkennen.
Was bei CPU-Tests eben so gewünscht ist...

Es geht mir nicht um GPU oder CPU Limits, sondern darum, dass die kleinste CPU schnell genug ist, für die schnellste GPU, außerhalb von Benchmarkauflösungen.
Du verallgemeinerst das. Erstens kommt es auf die CPU drauf an und zweitens auf das Spiel. Es gibt außerhalb von Fortnite, Cyberpunk und COD noch viele andere Spiele, die im CPU-Limit agieren. Ja, auch in hohen Auflösungen.
 
Gut dann möchte ich dazu nur noch einen Satz sagen, wenn nur in 720p getestet wird, kann man das GPU Limit aber nicht erkennen. Und es wird in den Benchmarks auch nicht erklärt, dass man den 720p Benchmark nicht auf einen 4k Benchmark mappen kann. Oder finde ich solche erklärenden Sätze, im Fazit einer neuen CPU? So ein Satz wie, "die neue CPU ist zwar in 720p 15% schneller aber bei 99% aller Gaming-Rechner macht ein Update keinen Sinn, da niemand in 720p spielt".

Es geht mir nicht um GPU oder CPU Limits, sondern darum, dass die kleinste CPU schnell genug ist, für die schnellste GPU, außerhalb von Benchmarkauflösungen.
Lies die Erklärung und hör auf die CPU mit der Auflösung in Verbindung zu setzen. Du laberst einfach faktisch falschen Blödsinn weil du nicht verstehst von was du überhaupt redest.

Du hängst dich an den 720p auf, weil du es nicht raffst, dass es mit der reduzierten Auflösung darum geht den Einfluss der GPU zu entfernen, und 720p ist halt ne uralte geringe Mainstreamauflösung die jedes Spiel kann.
Du kannst auch ne CPU in 4k testen wenn du sicherstellen kannst dass die Auslastung der GPU niemals über 90% geht und du damit keine GPU Limit Effekte in deinen CPU Test reinbekommst.
Du kannst auch in 240p testen und dafür dann mit ner GT730 statt 4090 als Grafikkarte. Es ist komplett egal, solang im CPU Test kein GPU Limit Effekt drin ist.
In einem CPU Test wird das Limit der CPU gezeigt. Ein CPU Test hat nichts mit GPU zu tun und nichts mit real zu erwartender Gamingpower oder realen FPS. Ein CPU Test zeigt was eine CPU an FPS schieben kann, wenn kein anderweitiges Limit wie ne GPU im System ist. Ein CPU Test zeigt was im Fall eines GPU Upgrades maximal erreicht werden kann, eben wo das CPU Limit liegt.
Raff es halt oder halt die Finger still!

Es ist echt frustrierend Erkenntnisverweigerern etwas erklären zu wollen. Das ist frustrierender als mit nem 2 Jährigen über den Wechsel eines schmutzigen Tshirts zu diskutieren.
 
Zuletzt bearbeitet:
Du hängst dich an den 720p auf, weil du es nicht raffst, dass es mit der reduzierten Auflösung darum geht den Einfluss der GPU zu entfernen, und 720p ist halt ne uralte geringe Mainstreamauflösung die jedes Spiel kann.

Wenn man den Einfluss der GPU entfernen möchte, wieso testet man dann überhaupt Spiele?
(In Auflösungen in denen niemand spielt)
 
Leider ist es genau so, vielen Dank für deinen Kommentar.

Der Leser bekommt dies hier geboten und denkt sich, WOW ich brauche eine neue CPU!

Dann kommt aber die Realität, die verschwiegen wird:
was willst du uns damit zeigen? dass die 4090 nicht über 237 fps kommt? richtig. das zeigt mir der 2. screenshot.

noch mal für dich.

Es gibt Regler in den Grafikeinstellungen.
Und nochmal extra für dich
Diese Regler, die kann man sogar verstellen
was kann man damit erreichen?

ein höheres GPU limit und dann kann man auch mit einer stärkeren CPU wieder mehr fps erreichen.

Achja, und seit wann sagt einem ein CPU/GPU test, wann man neue hardware zu kaufen hat? das hast du dir jetzt aber ausgedacht ;)

nehm das aktuelle wukong

wenn ich alle settings hochknalle komme ich nichtmal auf 100fps.
eine cpu die, 100fps erreicht würde in diesem fall reichen. Korrekt.

Dumm nur dass auch dieses Spiel Regler für die Grafikeinstellungen hat. Damit kann man die FPS um gut 50-70% steigern (gpu seitig)

und dann brauchst du wieder eine CPU die auch diese fps stemmt.

hast du dir jetzt einen ryzen 3600 eingebaut weil du glaubst man hat eh nie mehr fps als die graka weil du nur ultra settings kennst, hast du spätestens jetzt ein problem

ich bin nicht so direkt wie 2k5lexi aber du solltest dich wirklich mal damit auseinandersetzen

es gibt eben nicht nur 4k ultra settings sondern auch mehr
 
Zuletzt bearbeitet:
Wenn man den Einfluss der GPU entfernen möchte, wieso testet man dann überhaupt Spiele?
(In Auflösungen in denen niemand spielt)
Weil jedes Spiel eine andere CPU Last hat. Fortnite verhält sich anders als Cyberpunk. Anno1800 verhält sich anders als Warzone.
Deswegen testet man unterschiedliche Spiele. Um das CPU Limit in einem Spiel zu zeigen.
Und deswegen vergleicht man dazu unterschiedliche CPUen mit dem gleichen Spiel.
Wenn die CPU konstant ist und die Spiele wechseln hast du dennoch unterschiedliche CPU Limits.
Wenn das Spiel konstant ist und du unterschiedliche CPUen testest hast du auch unterschiedliche CPU Limits.

Und warum in kleinen Auflösungen? Lies halt die Erklärung. :motz:
 
Zuletzt bearbeitet:
sondern darum, dass die kleinste CPU schnell genug ist, für die schnellste GPU, außerhalb von Benchmarkauflösungen.

3440x1440 NATIVE
7800x3d
4090

Zelda BOTW.jpg
Elden RIng.jpg


was ist schnell genug?

eine CPU hat nicht die aufgabe eine GPU auf 100% zu bringen sondern deine gewünschten FPS zu erreichen
 
Ich sehe es etwas anders. Der 4k Test zeigt, das selbst die langsamste CPU, die schnellste GPU maximal bedienen kann. Auch das ist eine wichtige Aussage, zur Entscheidungsfindung beim Kauf einer CPU.
Will hier keiner hören, es gibt einfach Unterforen die Top sind, und welche in denen man einfach nicht posten sollte.
Ich z.B. sollte in diesem hier einfach nicht posten. Ich bin nur zu dämlich mir das dauerhaft zu merken.

Ist halt eine Hype- und Jubelveranstaltung auf pseudowissenschaftlichem Niveau.

Wäre es nämlich nicht nur psoduwissenschaftlich sondern darüber hinaus, würde man zum Schluss kommen, dass:
1. Die verschiedenen "High-End" CPUs in Spielen je nach Spiel teilweise deutliche Unterschiede haben (720p Bench).
2. Dass diese Unterschiede unter realen Bedingungen allerdings kaum eine Rolle spielen, da das GPU-"Problem" eine übergeordnete erdrückende Rolle spielt.
3. Dass eine Kaufentscheidung (für die reale Anwendung) daher (2) nicht aus den (durchaus richtig ermittelten) Ergebnissen aus Punkt 1 erfolgen sollte, sondern dass dafür andere Faktoren relevant sind, wie Verbrauch, Hitzeentwicklung, Stabilität, Kompatibelität der Plattform, Schnittstellen, Features (div. Hardwarebeschleuniger, De/Encoder, ECC Support, PCIe Bifurication etc.), vor allem noch das 1% Min-FPS Verhalten (ob das in 720p und 4k gleich ist?).

Punkt 1 wird zwar brav und richtig ermittelt, wenn man aber einen Schluss draus zieht und auf Punkt 2 und 3 hinweist, wird man übergriffig behandelt und als Idiot hingestellt (nicht von irgendwem, immerhin von den Mods, und zwar mehrfach).

=> Sollen sie ihre Spielwiese haben, ich werde dabei nicht weiter stören und entschuldige mich auch für meine Einmischung. Man (also die Plattform) verkommt so zwar (in meinen Augen) langsam Richtung "Jubel-Youtube-Influencer", aber wenn das der gewünschte Weg ist, warum nicht? Freie Menschen, freie Entscheidungen.
 
Fakten werden nun also als Pseudowissenschaft abgestempelt, weil man diese Fakten nicht versteht. Nun habe ich alles gelesen.
 
Punkt 2. und 3. haben im CPU Test nix zu suchen.
2. und 3. ist ne Bewertung. Das hat nix mehr allein mit der CPU zu tun nix mehr mit den Daten, nix mehr mit dem Testszenario, sondern mit der Systemkonfiguration. Das ist nicht das Ziel eines CPU Tests.

Dass du es nicht verstehen willst ist kein CPU Problem, kein Methodikproblem, sondern einfach ein DU Problem.

Fakten werden nun also als Pseudowissenschaft abgestempelt. Nun habe ich alles gelesen.
This!

Pwnbert bezeichnet grundlegendste Grundlagen der Computertechnologie die seit der Erfindung der Grafikbeschleuniger wie einer Voodoo1 gelten als Pseudowissenschaft. :rofl:
 
Zuletzt bearbeitet:
@Bladee
@pwnbert

1280x720 VS. 2560x1440

Borderlands3_2024_09_26_18_31_33_994.jpgBorderlands3_2024_09_26_18_31_18_370.jpg

Dasselbe würdet ihr sehen wäre meine 4090 stark genug über 233 fps in 4k zu liefern.

Die Auflösung hat auf die CPU keine Auswirkungen.

somit ist ein "720p CPU" test praxisnah bzw verzerrt nichts.

und so sieht es aus wenn CPU & GPU die ziel FPS erreichen.

Borderlands3_2024_09_26_18_37_35_592.jpg

Niemand spielt im GPU limit denn dann würdest du frameschwankungen haben und das ist auf einem adpative sync monitor nicht toll.
 
Zuletzt bearbeitet:
@ nordic_pegasus & FM4E
Die PCIe 5.0 Lanes beim Ryzen 5 & 7 werden also nur über die CPU zur Verfügung gestellt, nicht vom Chipsatz, und die angegebenen 24 PCIe 5.0 Lanes können je nach Mainboard Hersteller und Modell bei der freien Verfügbarkeit der Lanes dann in der Quantität variieren, umfassen aber nie mehr als 20 frei Verfügbare PCIe 5.0 Lanes?


AMD Desktop-CPUs bestehen aus den CCD-Chiplets (die Prozessor-Kerne) und einem I/O-Die. Der I/O-Die verbindet die CPU mit der Außenwelt. Darin sind u.a. der Speichercontroller (Anschluss der RAM-Module), USB und PCIe Schnittstellen eingebaut. Für SATA werden übrigens PCIe Lanes umgewandelt.

Eine AMD AM5 CPU kann maximal 28 PCIe Lanes anbieten (die G-Varianten haben weniger Lanes). Mehr PCIe Lanes geht nicht, weil der AM5 Sockel nicht mehr Lanes elektrisch anbinden kann. Darum ist der Threadripper-Sockel auch so groß, weil u.a. die vielen PCIe-Lanes angebunden werden müssen.

Wie ich oben geschrieben hatte, werden bei AM5 4 von 28 PCIe Lanes für den PCH (Plattform Controller Hub... früher nannte man sowas "Chipsatz") verwendet. Der PCH ist letztlich nur ein Switch, welcher die x4 PCIe Lanes, die ankommen, auf mehr Geräte verteilt. Wobei AMD als PCH derzeit eigentlich nur den sogenannten Promontory21 Chip verwendet, welcher wiederum x8 Gen4 plus x4 Gen3 anbieten kann. Der PCH hat aber nur die Bandbreite verfügbar, die x4 Lanes PCIe Gen4 hergeben.

Bei X870 wird ein einzelner Promontory21 verbaut. Bei X870E werden 2 Promontory21 in Reihe geschaltet. Darum verliert der erste Prom21 4 nutzbare Lanes, weil die beiden PCH damit untereinander angebunden werden.

Lange Rede, kurzer Sinn:
  • Eine AM5 CPU hat maximal 28 PCIe Lanes
  • Hiervon werden 4 Lanes zur Anbindung des PCH verwendet
  • Der PCH splittet diese 4 Lanes in 8 Gen4 plus 4 Gen3 auf
  • Wenn 2 PCH in Reihe geschaltet sind, sind es 12 Gen4 plus 8 Gen3
Damit hat auf den Marketing-Folie eine AM5 CPU maximal 24 Gen5, 12 Gen4 und 8 Gen3 PCIe Lanes verfügbar, aber nicht die volle Bandbreite. Bei X870 und X870E werden aber wohl 4 Lanes der CPU zusätzlich für den USB4 verwendet. Darum halte ich aktuell B650E für den besten Chipsatz, weil ein X670E zwar auf dem Papier mehr Lanes anbietet, aber nicht die Bandbreite hat. Und X870E bzw. X870 verlieren die "wertvollen" 4 Lanes, mit welchen man eine 2. SSD direkt an die CPU mit voller Bandbreite anbinden kann.
 
Ja, in der Realität für den Einsatzzweck am Ende halt wenig relevant.
Jein. Wenn man 1%lowFPS hervorheben würde, wäre das wenigstens bisschen interessanter, aber das ergibt kleinere Zahlen und kleinere Zahlen <> geile Hardware die man unbedingt kaufen sollte.
Man kann ja 720p und 4k machen, dann hat man beide Extreme... find daran nix verkehrt.
Macht man eher selten, weil das dann ein Balkendiagramm wäre was wie ein Lattenzaun aussieht. Bis auf die 2-3 Galionsfiguren die man als Gegenargument ins Feld führt spielen die Leute heutzutage zu 99% im GPU-Limit. Nicht zuletzt seitdem RT das geile Zeug ist.
(und dafür meist auf 2k reicht)
 
die die im hardware limit spielen, sind halt auch selbst schuld wenns ruckelt
 
hat nichts mit geld zu tun

ihr habt ein problem damit settings einzustellen und ein richtiges fps cap zu setzen.

das ist das problem. das hat mit finanziellen Mitteln nichts zu tun

Auch Zeitmangel glaubt, dass man heute immer im gpu limit spielt.

Wer halt nicht weiß wie man auf einem adaptive sync monitor sein kram ordentlich einstellt, der brauch sich halt nicht wundern.

adaptive sync monitore kosten 150€
144fps erreicht auch ein ryzen 5600 für 120€
und eine gpu die das in 1080p schafft gibts auch fürn apple und n ei.
 
Zuletzt bearbeitet:
Nein natürlich nicht :rolleyes: Erzähle mal jemanden mit ne 1070/1080/1080ti wie man aus dem GPU Limit kommt :ROFLMAO:
 
Lege mal eine andere Platte auf. Es sind nicht alle so flüssig wie Du.
Darum gehts net.
Ich hab CP2077 mit ner 3060ti auf 1080p gezockt mit Raytracing ohne DLSS.
Ich hab die FPS bei 45 FPS limitiert, obwohl der PC 50-70 FPS gemacht hätte.
Lieber konstante Frametimes als Ruckler hoch oder runter.
Da gehts nicht ums Posen, sondern um die eigene Haltung.
Das Auge sieht dass mehr FPS schneller sind, aber was das Auge hart nervt sind schwankende FPS.

Nach dem Upgrade zocke ich in 1440p mit ner 4070 und FPS Limit bei 72FPS.
 
Nein natürlich nicht :rolleyes: Erzähle mal jemanden mit ne 1070/1080/1080ti wie man aus dem GPU Limit kommt :ROFLMAO:
fps cap unterhalb des gpu limits setzen. dauert genau 10 sekunden

hab ich dauerhaft 99% gpu load anliegen und die fps schwanken zwischen 80-120, dann setze ich das fps cap unter 80.

gilt für cpu und gpu limits. der niedrigste wert beider parts ist der taktgeber.
 
fps cap unterhalb des gpu limits setzen. dauert genau 10 sekunden

hab ich dauerhaft 99% gpu load anliegen und die fps schwanken zwischen 80-120, dann setze ich das fps cap unter 80.
Sag ja, du hast gut reden mit einer aktuellen High End Karte.

Die genannten Karten müssen dann auf 30HZ laufen :sick:
 
wer mit einer 1070 cyberpunk spielen muss und alles auf max knallt, ist halt selbst schuld wenn am ende 10 fps rauskommen.

das hat nichts mit meinem equip zu tun. genauso wenig wie das GPU limit mit einem CPU test zu tun hat.

es geht hier ums prinzip nicht um rosinenpickerei

ihr stellt euch high res monitore hin, nehmt die dicksten grafikbrocken an spielen, knallt alle regler auf max und kommt dann immer wieder mit der Leier, das man doch immer im gpu limit ist. ihr seid doch selbst schuld daran.
Beitrag automatisch zusammengeführt:

Sag ja, du hast gut reden mit einer aktuellen High End Karte.

Die genannten Karten müssen dann auf 30HZ laufen :sick:
andere spiele spielen die zur hardware passen oder neue hardware kaufen.

langsame hardware ist kein argument für gpu limits in cpu tests

ich habe extra keine spiele als beispiel erwähnt. denn es ist mir wurscht was gezockt wird. es geht ums prinzip.

wer highend sehen will 3440x1440 oder 4k + hohe FPS 100-200, am besten dann noch in allen neuen triple A titeln, der muss eben auch dick einkaufen. das ist alles euer eigenes bier.
 
Zuletzt bearbeitet:
Auch Zeitmangel glaubt, dass man heute immer im gpu limit spielt.
Dir ist das Thema "Limit" wohl nur in seiner engsten Bedeutung geläufig. Am Limit zu spielen heißt NICHT, daß es gleich ruckt und zuckt (*) :fresse:
Wenn man deine goldenen Tipps ;) befolgt, senkt man den Limit bis es kaum bis garnicht wahrnehmabr ist (*) aber man behandelt damit eben die Limits. GPU-Limits. Nicht CPU-Limits.

Darf man ruhig differenziert sehen. Viele - auch mal garnicht so sonst ungeschätzte Reviewer - versuchen den Spagat zwischen maximal möglich und real relevant seit schon längerer Zeit mit 1080.

PS:
Persönlich halte ich 720 mit Skalierung (das auch noch) für ziemlich abenteuerlich. Und ab und zu sieht man dieses Abenteuer imho auch in dem einen oder anderne Ergebnis. Richtig? :hust:

Auch wenn das natürlich nicht gleich so abenteuerlich ist wie die Idee sich ernsthaft mit Geekbench zu beschäftigen :hmm:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh