16 % IPC-Plus: AMD stellt die Ryzen-9000-Prozessoren mit Zen-5-Kernen vor

Das speicherinterface scheint nicht zu sehr verändert worden zu sein - da sitzt der L3 davor. Also ich denke schon, dass L3D was bringen wird. Aber wir werden es sehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessant wird es erst werden wenn die x3d Varianten am Start sind von Zen5, denn die Schwachstelle aller non-3D Ryzen ist der Cache.
Mir stellt sich aber die Frage, ob der 3d Cache dann diesmal überhaupt noch so viel bringt, denn so wie es aussieht wurde hier bei Zen5 überall schon der Durchsatz verdoppelt, was auch den IPC Zuwachs bei gleichem Takt erklärt?
Der 3D Cache wird immer was bringen, je größer der ist desto weniger muss auf den Hauptspeicher (RAM) verlagert werden.
Stell ihn dir ähnliche dem Cache bei einer SSD vor, nur dort ist der Cache der RAM der weitaus schneller ist mit besserer Latenz als die TLC Speicherblöcke.
 
Dann ist es einfach uninformiertes Lamentieren sich über die Performance von 12+Kernen beim zocken zu echaufieren
Nein das mache ich nicht. Übrigens schreibt man echauffieren mit 2 f. Aber das tue ich nicht. Ich rege mich nicht auf und schon überhaupt nicht künstlich.
Wie du meinen Beitrag entnehmen kannst, habe ich einen Werdegang gezeichnet. Die 12 Kerne CPU 5900X war bei Zocker beliebt, weil etwas höher im Takt und war in Anwendung auch vorne dabei. Der 5900X hatte ein Image. Wie zu sehen, nur 6% vorne, aber vorne.
1717496944839.png


Doch der 12 Kerner 7900X und das zeigen auch die Zahlen, hat keinerlei Image. Auch der 7950% ist am 5800X3D gescheitert. In Games haben 7700X,7900X und 7950X miteinander konkurriert und wurden deutlich vom 13600K überholt. Und das ist meine Geschichte. Nicht deine emotional überladene Unterstellung, ich würde mich darüber künstlich aufregen, dass 12 Kerne nicht deutlich 8 Kerne, oder 6 schlagen. :stupid:
Meine Meinung hat den Inhalt, dass wenn Panther Lake gut wird und Granite auch so ein Bild abgibt, wie ich es über Ryzen 7000 zu Raptor gezeichnet habe, könnte nach meiner Phantasie, Zen6 noch für AM5 kommen.

Welche Geschichte du daraus zeichnen möchtest, ist mir absolut und völlig egal.
 
Zuletzt bearbeitet:
So lange die normalen Ryzen-Prozessoren bei 32 MB an L3-Cache bleiben, wird ein X3D mit 96 MB im Vorteil sein, sofern das Spiel davon profitiert, da eben weniger auf den RAM zurückgegriffen werden muss. Cache ist bedeutend schneller als RAM.
 
Ich sehe den 3D cache auch im Vorteil mit einer APU, als Infinity cache.
 
sofern das Spiel davon profitiert,
Zu dem Punkt wäre es wünschenswert, wenn Amd diesmal eine Whitelist heraus bringt, aus der ersichtlich ist, mit welchen Spielen deren X3D CPUs kompatibel ist.
 
Kompatibel? Mit allen.
Mit relevanten Vorteilen? Das kann man unabhängigen Tests entnehmen.
 
Im Grunde zeigt sich der Cache anhand der zahlreichen Benchmarks gut, wenn die X3Ds mit den großen Intel mit deutlich höherem Takt mithalten oder gar etwas überbieten können. Aber als klassisches Beispiel nenne ich immer wieder gerne Anno 1800. Bei dem Spiel kann der Cache gerade dann eine Menge herausholen, wenn man schon in einem weiten Late-Game ist.
 
Zu dem Punkt wäre es wünschenswert, wenn Amd diesmal eine Whitelist heraus bringt, aus der ersichtlich ist, mit welchen Spielen deren X3D CPUs kompatibel ist.
Liest du eigentlich was du das schreibst...
 
Er tut alles für seinem Beitragzähler :popcorn:
 
Der 3d cache regelt :) wir brauchen keine oder hohe mhz,watt oder schnellen ram. Alles fast überflüssig geworden.
 
Dann ist es einfach uninformiertes Lamentieren sich über die Performance von 12+Kernen beim zocken zu echaufieren, wenn die Datenlage bis auf einzelne Ausnahmen ganz klar ist, dass mehr als 6 Kerne nix bringen beim daddeln.
... das sind halt die Luxx'schen Scheuklappen.
Der 3D Cache wird immer was bringen, je größer der ist desto weniger muss auf den Hauptspeicher (RAM) verlagert werden.
Stell ihn dir ähnliche dem Cache bei einer SSD vor, nur dort ist der Cache der RAM der weitaus schneller ist mit besserer Latenz als die TLC Speicherblöcke.
Ein Cache bei der CPU ist nicht das gleiche wie ein schneller Arbeitsspeicher und ein DRAM Cache einer SSD ist nicht zum Daten reinschreiben da...


Die ganzen Benchmarks sind nett zum ansehen, was man daraus schließt, muss man selbst interpretieren... und auch, wie man diese für sich "mischt"...
Für mich interessant wären auch Benchmarks mit einer vernünftigen Mischlast, also Gaming mit diversem Kram der so im Hintergrund läuft...

Wegen +/- 5-10% bei irgend ner speziellen Anwendung entscheide ich mich nicht für ein Modell/Hersteller, da kommen ganz andere Einflüsse dazu.
Die Plattform muss als Ganzes sinnvoll sein, auch bezüglich Features, Schnittstellen, Softwareunterstützung, Leistungsaufnahme (= Wärme im Sommer und Lärm, nicht nur Energiekosten)...


So Anwendungsfälle wie "ich brauch aber min. 240 fps im 1337-kiddo-shooter" kann man doch kaum ernst nehmen... solls meinentwegen geben.
Ist ja auch nicht schlimm, wenn hier ein 8-Kern-x3d schneller ist als ein 16 Kern... ist auch nicht schlimm, wenn der i5 (fast) gleich schnell wie der i9 ist...
HEDT und Workstations waren auch nie toll zum zocken geeignet. Ist halt so und ist nix neues.

Ne CPU oder Plattform (nur/großteils) daran zu messen, wie schnell sie in 720p minimal settings Gaming ist, ist... naja... wenig Aussagekräftig für ein Gesamturteil?
Der gemeine "Gamer" ist schon ziemlich verbohrt und Influencergeschädigt... nix gegen Zocken am PC... aber diese "Gamer-Subkultur" und ihre Auswüchste halte ich jetzt nicht unbedingt für repräsentativ...
 
Der bekannte Core i7-5775C alias Broadwell.
Mit 6MB Cache gewinnt man keinen Blumentopf. Das haben die modernen schon fast als L1 xD

Ne CPU oder Plattform (nur/großteils) daran zu messen, wie schnell sie in 720p minimal settings Gaming ist, ist... naja... wenig Aussagekräftig für ein Gesamturteil?
Der gemeine "Gamer" ist schon ziemlich verbohrt und Influencergeschädigt... nix gegen Zocken am PC... aber diese "Gamer-Subkultur" und ihre Auswüchste halte ich jetzt nicht unbedingt für repräsentativ...
Wenn sich jemand aber genau für diesen Zweck CS2 oder Fortnite mit 500FPS+ spielen will dann zählt eben jenes Resultat. Der Test soll nur Zeigen wie viele Bilder pro Sekunde von der CPU verarbeitet werden kann.

Wenn deine Grafikkarte im Szenario X 500 FPS erzeugen kann, dann ist es halt schon relevant das deine CPU auch 500FPS verarbeiten kann, sonst riegelst du dein System ab vielleicht 350 ab.
Das heißt deine Grafikkarte langweilt sich.

Ich teile deine Ansicht das selbst 300FPS mehr als genug sind und darüber hinaus eher "Placebo" so wie aus echten Fußball Schuhen mit echten Stollen nicht gleich jemand ein Profi wird nur weil er das hat. Aber für manche ist das psychologisch super wichtig. Das die talentierten Sportler meistens mit sehr schlechter Ausstattung trotzdem gut performen zeigt doch als Beispiel Fußball. Talent ist guter Ausrüstung weit überlegen.
Aber wenn man nicht performt sind natürlich die anderen Schuld und diesem Fall die Komponenten.



Aber ja Gaming und gerade high FPS ist nicht für jeden relevant. Aber was der Test auch wieder zeigt wie hoch die minimalen FPS seien würden. Das heißt auch die Bildraten sind stabiler zwischen Min & Max ist das Delta geringer.
 
Ich meine mich zu erinnnern, dass der L4-Cache des Core i7-5775C auch bei Games mit dedizierter Grafikkarte positive Effekte verursachte.
 
Ich meine mich zu erinnnern, dass der L4-Cache des Core i7-5775C auch bei Games mit dedizierter Grafikkarte positive Effekte verursachte.
wäre das nicht ne Idee das mal zu testen mit ein paar Benchmarks? Hat jemand die CPU noch da? Mit einer 4090? :fresse:
 
Ne CPU oder Plattform (nur/großteils) daran zu messen, wie schnell sie in 720p minimal settings Gaming ist, ist... naja... wenig Aussagekräftig für ein Gesamturteil?
Der gemeine "Gamer" ist schon ziemlich verbohrt und Influencergeschädigt... nix gegen Zocken am PC... aber diese "Gamer-Subkultur" und ihre Auswüchste halte ich jetzt nicht unbedingt für repräsentativ...
in den cpu tests bei 720p geht es niemals um minimal settings

und tausche die 240fps einfach mal gegen 120fps,90 oder 60fps
 
... das sind halt die Luxx'schen Scheuklappen.
Zahlen Daten Fakten. Grenzen der Parallelisierung von Echtzeit-Anwendungen. Nicht Scheuklappen.
Kannst du alles aus 20 Jahre alten Artikeln aus der core2quad Zeit nachlesen.


Ne CPU oder Plattform (nur/großteils) daran zu messen, wie schnell sie in 720p minimal settings Gaming ist, ist... naja... wenig Aussagekräftig für ein Gesamturteil?
Beschäftige dich Mal mit dem Thema CPU Limit und GPU Limit. Evtl ergibt es dann mehr Sinn für dich.

Was Mischbewertung angeht:
Am Anfang war das Anwendungsgebiet, danach waren die Anforderungen.

Was ein Gesamturteil mit Mischbewertung angeht ist wohl eher eine Frage der Zielgruppe. Schau dir halt 2 Tests an. Luxx und pudget Systems zum Beispiel. Oder noch einen anderen für dein Szenario. Sei doch nicht so faul :shot:
 
Zuletzt bearbeitet:
Beschäftige dich Mal mit dem Thema CPU Limit und GPU Limit. Evtl ergibt es dann mehr Sinn für dich.
Du glaubst auch, dass die anderen total blöd sind, oder? Die Luxx'sche Überheblichkeit, aber IT halt, branchenüblich, sei verziehen, ich hab vergessen, dass ich nur noch in gewissen Unterforen posten "darf"... :d
Genau das ist ja der springende Punkt - ob das "CPU-Limit" jetzt 300% oder 320% vom "realen Limit" entfernt ist, so fuckin' what?

Das isn Benchmark/Test, den man sinnigerweise in die Bewertung einfließen lassen kann/sollte, aber nicht zu sehr gewichten.
 
wäre das nicht ne Idee das mal zu testen mit ein paar Benchmarks? Hat jemand die CPU noch da? Mit einer 4090? :fresse:
Gibs doch alles schon? musst doch nur mal nach tests suchen, dann kommen einige Testseiten zum Core i7-5775C.

Er war zu seinerseits immer ganz oben mit zu finden gegen andere Haswell CPU's oder auch teils gegen Skylake.. Das der heute kein Land mehr gegen neue sieht brauche ich dir hoffentlich nicht zu sagen? Das gleiche passiert auch alte X3D CPU's irgendwann, das die alt aussehen gegen neue.
 
Das isn Benchmark/Test, den man sinnigerweise in die Bewertung einfließen lassen kann/sollte, aber nicht zu sehr gewichten.
Es ist ein Test des Limits um zu zeigen/wissen was die CPU kann. Und dann kann jeder für sich selbst überlegen ob das CPU Limit für seine Anforderungen gut genug ist oder eben nicht.
Genau das ist ja der springende Punkt - ob das "CPU-Limit" jetzt 300% oder 320% vom "realen Limit" entfernt ist, so fuckin' what?
Das ist deine persönliche Bewertung, keine absolute Aussage. Wer anders bewertet evtl. anders.
Aber wieder luxxsche Überheblichkeit, IT halt, branchenüblich, sei verziehen, hab ich vergessen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh