Ryzen 7000 mit mehr Cache: AMD stellt gleich drei X3D-Modelle vor

.Ryzen 9000 schaue ich mir das erneut an. Würde mir aber wünschen, dass AMD beim nächsten mal sich dann nur auf X3D konzentriert oder zumindest beide Produkte gleichzeitig auf den Markt bringt, denn Ryzen 7000X sieht irgendwie nicht wirklich wie ein gesundes Produkt aus, wenn man so kurz nach Release direkt zwei Alternativen anbietet.
Wenn man Beides hintereinander auf den Markt bringt kann man 2x abkassieren, je nach Releaseabstand. Bringt man beides gleichzeitig stehen die nicht-X3D ziemlich bescheiden da und man muss die Preise untenrum drastisch senken oder obenrum drastisch erhöhen.

Der Einzige Fehler seitens AMD ist also der geringe Releaseabstand. Die meissten haben jetzt wohl einfach gewartet und entweder werden jetzt die Preise für nicht-X3D nochmal ordentlich fallen ODER (😂) die Preise für X3D werden "astronomisch". Ich tippe auf Nummer 2.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe da mal was gebaut, da einige wohl noch immer ein kleines Verständnisproblem bei der Bestückung haben:
Jo aber ist die Kernverteilung beim 7900X3D schon klar? 6+6 oder 8+4?

Denn die Verbindung zwischen den CCDs ist ja deutlich langsamer als die der Kerne auf den L3 Cache innerhalb des eigenen CCD
 
Wenn man Beides hintereinander auf den Markt bringt kann man 2x abkassieren, je nach Releaseabstand. Bringt man beides gleichzeitig stehen die nicht-X3D ziemlich bescheiden da und man muss die Preise untenrum drastisch senken oder obenrum drastisch erhöhen.

Der Einzige Fehler seitens AMD ist also der geringe Releaseabstand. Die meissten haben jetzt wohl einfach gewartet und entweder werden jetzt die Preise für nicht-X3D nochmal ordentlich fallen ODER (😂) die Preise für X3D werden "astronomisch". Ich tippe auf Nummer 2.
Denke mal der geringe Releaseabstand ist einfach der Konkurrenz geschuldet. Mit Zen3 war das ja noch anders, da hatte man längere Zeit die Leistungskrone im Gaming. Das hätte man aber absehen können, da Intel schon mit dem 12900K endlich mal wieder stark abgeliefert hat.
 
Ja vielleicht waren sie auch aus welchen Gründen auch immer noch nicht soweit mit dem Design/der Produktion. Ich hätte es auch lieber gesehen wenn 13XXX und 7000X3D direkt konkurriert hätten. Das wäre wohl recht nachteilig für Intel ausgegangen schätze ich, hätte wohl aber zumindest interessante Preisgefüge ergeben.
 
RAM OC lohnt sich mit den X3D Modellen doch eh nicht.
Na, das kann man so nicht verallgemeinern.
Was ist wenn eine Anwendung oder ein Game nicht vom Cache profitiert?
Richtig, der Ram ist dann wieder sehr wichtig.
Das am 5800X3D schon genau so zu beobachten,
dass wird sich nicht andern bei den neuen X3D Modellen.
Bei den Modellen mit 2CCD wird der Ram sehr wichtig bleiben, sonst bremst man einen CCD aus.
Nämlich denn mit höherem Boosttakt der keinen 3D Cache hat.
 
Was ist wenn eine Anwendung oder ein Game nicht vom Cache profitiert?

Genau das ist am Ende auch wieder das Problem mit diesen 3d Cache CPUs, man kann nie wissen. ob es bei meiner Anwendung/Spiel funktioniert.
Deshalb wäre gut, wenn AMD diesmal Kompatibilitätslisten herausgeben würde, in denen die Funktion bestätigt wird.

Denn das wäre ja eigentlich das Mindeste was man erwarten kann, AMD muss ja schließlich wissen, bei welchen Spielen es funktioniert und bei welchen nicht.
 
Zuletzt bearbeitet:
Genau das ist am Ende auch wieder das Problem mit diesen 3d Cache CPUs, man kann nie wissen. ob es bei meiner Anwendung/Spiel funktioniert.
Deshalb wäre gut, wenn AMD diesmal Kompatibilitätslisten herausgeben würde, in denen die Funktion bestätigt wird.

Denn das wäre ja eigentlich das Mindeste was man erwarten kann, AMD muss ja wissen, bei welchen Spielen es funktioniert und bei welches nicht.
Also bei 5800X3D liegt es ja wohl an der etwas niedrigeren IPC (niedrigerer Takt) gegenüber den normalen Zen3. Natürlich zieht der gegen moderne Intel aktuell bei denen Speicher eine niedrigeter Rolle spielt den kürzeren.
Man darf hier nicht vergessen der L2 wurde die Generation auch nochmal angehoben. Bei Intel war dieser auch immer etwas höher als bei AMD (letzen Generationen) Also die Testergebnisse bei einer 4090 in 1080p oder 1440p müssten brachial sein.
Ob es bei deinem Game schneller wird hängt von der Grafikkarte ab, zumindest kann ich mir sehr gut vorstellen das die % lows ziemlich high werden.:ROFLMAO:
 
Für Besitzer eines 5800X3D sehe ich keinen Grund auf AM5 zu wechseln.

Wenn ich mir das ansehe, was bringen mir dann weitere 70 FPS aus meiner CPU die die Grafikkarte eh nicht mehr händeln kann?
Ich bleibe dann geschmeidig und warte ab was 2023 mit dem nächsten Refresh bringen mag.

vll mal nicht doom hernehmen sondenr spiele die deutlich weniger fps auf der cpu bringen? ;)
 
dann ist die cpu da eben ein paar prozent langsamer, aber doch nicht so, dass es wirklich ins gewicht fällt...

Sehe ich ein wenig differenzierter.
Wenn AMD diese CPUs als die besten Gaming CPUs auslobt und eben die Gewichtung darauf setzt, muss man doch wissen bei welchen Anwendungen bzw. Games dieser Vorteil zum tragen kommt, oder nicht?
 
Sehe ich ein wenig differenzierter.
Wenn AMD diese CPUs als die besten Gaming CPUs auslobt und eben die Gewichtung darauf setzt, muss man doch wissen bei welchen Anwendungen bzw. Games dieser Vorteil zum tragen kommt, oder nicht?
wird man doch in tests sehen, oder nicht?

hast du dich beim 5800x3d auch so doof angestellt?
 
wird man doch in tests sehen, oder nicht?

Aber es wird ja immer nur ein bestimmter Auszug an Games getestet.
Deshalb sagte ich ja, dass es gut wäre, wenn AMD Kompatibilitätlisten heraus gibt, auf denen klar erkennbar ist, welches Game von der Technik profitiert und profitieren wird.
Beitrag automatisch zusammengeführt:

hast du dich beim 5800x3d auch so doof angestellt?

Nich zuletzt war das ja auch schon damals in den Tests vom 5800x3d ein Kritikpunkt, dass man eben nie sicher sein könne wann und wo der Cache greift.
 
Zuletzt bearbeitet:
Also bei 5800X3D liegt es ja wohl an der etwas niedrigeren IPC (niedrigerer Takt)
Der X3D hat mehr IPC (in bestimmten Anwendungen) aber weniger Takt.

Deshalb sagte ich ja, dass es gut wäre, wenn AMD Kompatibilitätlisten heraus gibt, auf denen klar erkennbar ist, welches Game von der Technik profitiert.
Im Zweifelsfall greifst du zum 7900X3D und testest es mit Processlasso selbst aus. Also die Anwendung einmal auf die X3D Kerne, einmal auf die normalen und dann schauen was mehr hilft: extra Takt oder extra Cache.

Für mich stellt sich außerdem die Frage ob die normalen Kerne den Cache des anderen Chiplet nutzen können und wie dort die Latenz über den IF ist. Also ob man von dieser Möglichkeit überhaupt effektiv was hat.
Beitrag automatisch zusammengeführt:

Jo aber ist die Kernverteilung beim 7900X3D schon klar? 6+6 oder 8+4?
Ich rate mal 6+6, weil alles andere die Sache noch komplizierter macht. Aber mal abwarten…
 
Wird bei mir wohl der 7800X3D werden.
Für nen ITX Build ist die Auswahl an Boards ja recht übersichtlich (1xB650, 2xB650E, 1xB670E) - denkt ihr ein B650E reicht oder doch lieber B670E? Ram OC hätt ich schon gerne.
Ram Oc kannst du doch mit dem 650 genauso. Jedenfalls mache ich auf meinem riptide derzeit nix anderes. Dazu noch 5,5ghz bei co -20. Finde meinen kleinen eigentlich sehr schick. Hoffe das man bei den neuen analog zum 5000er 3d nicht so viel tweaken muss. Der alte lief ja out of Box sehr gut.
Ich wart mal was die 3ds so bringen. Vorallem ob es durch die 2chiplets bei den großen signifikante vorteile gibt.
 
Aber es wird ja immer nur ein bestimmter Auszug an Games getestet.
Deshalb sagte ich ja, dass es gut wäre, wenn AMD Kompatibilitätlisten heraus gibt, auf denen klar erkennbar ist, welches Game von der Technik profitiert und profitieren wird.
Beitrag automatisch zusammengeführt:



Nich zuletzt war das ja auch schon damals in den Tests vom 5800x3d ein Kritikpunkt, dass man eben nie sicher sein könne wann und wo der Cache greift.
Kannst dir ja die Benchmarks des 5800x3d anschauen wann er zieht und dann auf den 7900x3d übertragen?
 
Also auch die 16 Kern Chips mit X3D?
DAS hat mich mal sehr happy gemacht.

Gerade auch, dass ein Chiplet dann "normal" läuft und eines "gepimpt".
Freut sich der neue Gaming PC. Die Benchmarks werden spannend, aber es ist ja zu erwarten, dass sie in Gaming besser da stehen, als der aktuelle 7950X.

Wirds wohl wieder nen AMD Chip für das nächste System.
Hoffe da kommen nicht ähnliche Probleme wie bei den GPUs,... aber da ich erst gegen Ende März den PC plane, können andere ja erst mal die Tester spielen und ich kauf dann das gefixte Produkt. ;-)
 
Gerade auch, dass ein Chiplet dann "normal" läuft und eines "gepimpt".
Freut sich der neue Gaming PC.
Was genau erzeugt bei dieser Designentscheidung Freude?

Man hat dann einen Chip, der hohen Takt fahren kann und einen, der viel Cache hat. Die Threads von Spielen müssen auf letzterem ausgeführt werden.

Da sind doch Probleme vorprogrammiert... ist dann im Prinzip wie bei Intels Hybridarchitektur, nur dass die halt einen Hardware Scheduler hat und vom OS erkannt wird.

Bin mal gespannt wie AMD dem OS beibringen möchte, welcher der gute und welcher der schlechtere CCD ist. Oder ob sie es einfach laufen lassen und hoffen, dass der normale Windows Scheduler ausreicht um genug Mehrleistung rauszuholen? 🤷‍♂️
 
Was genau erzeugt bei dieser Designentscheidung Freude?
Du gehst davon aus, dass AMD diese Info nicht im Controller hinterlegt hat.
Das wäre mal total deppert und das allererste Thema auf dem Tisch.

Natürlich KANN es sein, dass sie das verbockt haben (nichts ist unmöglich), aber das wäre ca. so als würde Ford einen neuen Mustang ohne Räder raus bringen.

Wenn der Controller dynamisch agiert (und ich wäre echt derbe geshockt, wenn er das nicht würde), dann hat man das beste aus beiden Welten.
Nicht jedes Spiel oder jeder Task in einem Spiel braucht maximalen Takt. Der Controller wird das schon splitten und die Last dorthin verteilen, wo die Aufgabe am effizientesten bewerkstelligt werden kann.
Ähnlich auch dem littleBIG Prinzip von Intel.

Da sich der Cache total verdoppelt, bedeutet das, dass ein Chiplet den 4-fachen Cache hat. Das andere Chiplet ist ein normaler 7950X.

Da steckt richtig derbe viel Potential dahinter.
Aber es ist mir schon klar: Theorie und Praxis müssen erst mal zusammenkommen. Ich bin nur erst mal von der THEORIE begeistert. Kaufen werde ich eh erst Ende März und bis dahin weiß man ja, wieviel der Theorie in der Praxis ankommt.

Was ich aber save sagen kann:
Sowohl der 9900K meiner Frau, als auch mein 5950X, limitieren die 4090er extrem in unseren Systemen. Der 9900K sogar noch deutlich mehr. Da kommt sie in 1440p oft auf kaum mehr FPS, als ich mit sonst identischem System in 4K hab. ;-)
 
dann zieht die settings an sofern die fps reichen :d
Mehr als Limit geht nicht. Müssen erst neue Monitore her, die auch 4k@144hz packen.
Da ist die Auswahl noch recht überschaubar und leider auch noch kein Modell dabei, wo man die 1-2k gerne bezahlt für.
Die 4090 ist einfach ein unaufhaltsames Monster für FPS. Macht wieder richtig Spaß das System. ;-)
 
Welcher "Controller"? Bei den derzeitigen Zen Architekturen sieht das OS identische CPUs.

Aber ja, klar limitieren aktuelle CPUs. Ist mit dem 13900K an der Kotzgrenze auch nicht anders.
 
Welcher "Controller"? Bei den derzeitigen Zen Architekturen sieht das OS identische CPUs.
Die CPUs haben einen eigenen Controller. Genau wie die GPUs einen haben.

Wie das genau verteilt ist in aktuellen Designs, weiß ich jetzt nicht, aber im Studium haben wir grob gesagt: "CPU ist ca 40% Leistung und 60% Controller" - dadurch kann eine CPU nahezu alle Aufgaben ausführen, weil der Controller das regeln kann.
Eine GPU hat damals nicht mal 5% der Größe eines CPU Controllers gehabt. Daher ist eine GPU SAU SCHNELL, aber auch absolut "dumm".

Um Code für eine GPU zu schreiben, muss man ihr GENAU sagen, was man von ihr will. Da sind extrem viel Vektorberechnungen gefragt, die man alle gezielt übergeben muss, bevor die GPU das dann wie ein Blitz umsetzt.
Bei einer CPU kann man überspitzt sagen: "Hier, mach mal!" und der Controller übersetzt das dann und die CPU regelt. Aber im Vergleich dann sehr langsam.
 
Ist denn bekannt, ob man die neuen X3D-Chips auch übertakten kann ?
Beim 5800X3D war das ja nicht bzw. kaum möglich.

Ansonsten schaut der 7950X3D schon echt nach einer sehr krassen CPU aus. Da ärgert man sich fast ein wenig über die eigene Ungeduld :d
 
Die CPUs haben einen eigenen Controller. Genau wie die GPUs einen haben.

Wie das genau verteilt ist in aktuellen Designs, weiß ich jetzt nicht, aber im Studium haben wir grob gesagt: "CPU ist ca 40% Leistung und 60% Controller" - dadurch kann eine CPU nahezu alle Aufgaben ausführen, weil der Controller das regeln kann.
Eine GPU hat damals nicht mal 5% der Größe eines CPU Controllers gehabt. Daher ist eine GPU SAU SCHNELL, aber auch absolut "dumm".
CPUs haben nicht "einen Controller", ich weiß nicht was du damit meinst. Du redest da vom grundsätzlichen Aufbau und der Instruktionsebene in den Kernen, das ist aber etwas komplett anderes.

Hier geht es um das Scheduling in der Schnittstelle CPU/OS. Damit so ein Ansatz aus unterschiedlichen Kernen gut funktioniert, braucht es entweder ein OS, das die CPUs ganz genau kennt oder/und einen extra darauf ausgelegten Hardware Scheduler wie Intel ihn verwendet.

Letzteres hat die Zen Architektur bisher nicht in Ansatz gebracht (war ja auch nicht nötig). Die große Frage für mich ist jetzt, hat AMD heimlich etwas neues eingebaut (eher unwahrscheinlich) oder halten sie es nicht für nötig und vertrauen auf Windows.
 
Eine CPU / GPU, ganz ohne Controller, wäre mir in der Tat neu.
Wir haben in der Uni zwar keine aktuellen CPUs auseinander genommen und bearbeitet, aber nen 4xxx von Intel war auch dabei.
Was danach passiert ist, kein Plan. War für meinen Spezialgebiet nie relevant.

Ich kann aber ganz klar auch zu heute sagen: Für eine GPU zu coden IST DIE HÖLLE, gegenüber einer CPU.
Das das nun alles auf OS Ebene laufen soll, kann ich mir beim besten Willen nicht vorstellen. Das schreit ja nur nach Problemen, bzw. unlösbaren Aufgaben.
Normal sollte da eine Art API aufseiten der Hardware und aufseiten der Software sein. Beide sprechen standardisiert miteinander.

Was die Software dann im VORFELD macht, ist natürlich OS Sache.
Aber genauso ist es dann Hardwaresache, was diese nach der Ankunft der Instruktionen mit diesen macht.

Es wäre ja absolut UNMÖGLICH für einen CPU Hersteller seine CPU zu testen / zu entwickeln, wenn das OS die neue Technik kennen müsste. Das wäre auch schon mit dem Hintergrund der Industriespionage absolut undenkbar.

Edit: Fix noch mal gegoogelt: Es gibt weiterhin Controller. Heute sogar noch eher integriert in den CPUs. Früher waren z.B. Memory Controller eher auf der North-Bridge des Boards verbaut. Heute werden vermehrt integrierte Controller benutzt. Ohne geht es (definitiv!) nicht.
 
Kannst dir ja die Benchmarks des 5800x3d anschauen wann er zieht und dann auf den 7900x3d übertragen?
Wenn er clever genug ist, rechnet er die Performance vom 5800x auf den 5800X3D in relativer Performance (×%) und rechnet diesen Wert auf die getesteten 7000er Modell oben drauf.

Beispiel:
5800x = 130fps
5800X3D = 144fps
= ~11% Steigerung

Der 7900x macht schon 140fps + 11%=
~ 150fps mit einem 7900X3D..zu erwartende Steigerung
....Natürlich nicht 100% zutreffend, aber gut geschätzt, natürlich brauch man als Testwerte die gleiche Grafikkarte z. B 4090 sonst klappt der Vergleich nicht.
 
Ja die Idee ist gut, nur bringt es bei 4k wieder nichts. Der 5800x3d ist nicht schneller als ein 5800x/5800x bei 4k und was bringen mir bei 1080P 50 mehr FPS wenn ich 1080P seit 2010 nicht mehr angerührt habe.




Wenn du 4k spielst null, bei 1080P schon und bei 1440P naja hast ein Paar FPS mehr.

Auch in 4K ist er schneller. Kommt halt auf das Spiel an
 
Ist denn bekannt, ob man die neuen X3D-Chips auch übertakten kann ?
Beim 5800X3D war das ja nicht bzw. kaum möglich.
Hab dazu ein Interview von PCWorld mit einem AMD Typen gefunden:

TL;DR:
Ja. Sie aktivieren Curve optimizer für die neuen X3D Parts.

Wenn er clever genug ist, rechnet er die Performance vom 5800x auf den 5800X3D in relativer Performance (×%) und rechnet diesen Wert auf die getesteten 7000er Modell oben drauf.
Ist der bessere Ansatz, ja.
Dann wird man (hoffentlich) nur positiv überrascht, weil AMD ja sagt, dass der Performancegain fast verdoppelt wurde.
Man sollte also mit Deiner Rechnung einen Minimalwert haben und dann irgendeinen Faktor als "Bonus" dazubekommen. Je nachdem, wie weit die AMD Marketingslides dieses Mal von der Realität weg sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh