AMD wird erste Details zu Zen 4 auf der CES verraten

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.755
zen4.jpg
Anfang Januar wird in Las Vegas die CES stattfinden – zumindest hält die CTA als Veranstalter noch daran fest, wenngleich viele große Firmen ihre Teilnahme bereits zurückgezogen haben und auch wir eine geplante Vorort-Berichterstattung absagen mussten. Unter anderem heiß erwartet werden Neuigkeiten von AMD, Intel und NVIDIA, die allesamt am 4. Januar entsprechende (nun rein virtuelle) Pressekonferenzen abhalten werden.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich frage mich wie sehr die rostoffknappheit die kommenden produkte beeinflusst. steuert amd dagegen indem sie mehr ressourcen für die kommenden produkte abzwacken? allsles sehr interessant.
 
Zuletzt bearbeitet:
Wobei es im Rahmen der aktuellen Gerüchte keine Informationen zum "Zen-3"-Refresh mit 3D V-Cache gibt, was es laut 3dcenter.org immer unwahrscheinlicher macht, dass die verbesserte Neuauflage bereits Thema zur kommenden CES sein wird.
 
Wobei es im Rahmen der aktuellen Gerüchte keine Informationen zum "Zen-3"-Refresh mit 3D V-Cache gibt, was es laut 3dcenter.org immer unwahrscheinlicher macht, dass die verbesserte Neuauflage bereits Thema zur kommenden CES sein wird.
Haha, ich habe 17 Minuten gezögert ob ich was schreibe, mir war irgendwie klar dass du da ein Kommentar bezüglich 3D hinterlässt.
Die kommen wenn sie kommen.
 
Im Thread-Titel leider auch. Ich schaue gleich mal.
 
Ich bin auf die CES gespannt, was bestimmte Firmen so an neue Entwicklungen in die Welt setzen. Mich würde es auch interessieren, was die Firmen bzgl. Chipknappheit und die generelle Verfügbarkeit an Erklärungen abgeben und welche Strategien sie fahren wollen, um das Massen-Scalping und eingesetzte Bots zu erschweren. Und wenn Medien mit den Äußerungen recht behalten, dass die Chip- und Komponentenknappheit uns in den nächsten 2-4 Jahren begleiten, dann finde ich Ankündigungen von neuen CPU/GPU's schon fast lächerlich. Aber wer weiß, vielleicht wird tatsächlich 2022 das Jahr der Verfügbarkeit (Achtung Ironie!) 🤪
 
vielleicht wird tatsächlich 2022 das Jahr der Verfügbarkeit (Achtung Ironie!)
Schau dir mal die aktuellen Grafikkarten und Co an, es gab noch nie derart viele Modelle zugleich, solange sie die Verfahren verschiedener Generation nutzen können scheint es kein Problem zu sein, CPUs werden auch massenhaft verkauft, mehr als benötigt wird ist vorhanden.

Ich habe die Hoffnung das durch die Knappheit mehr in richtung Nachhaltigkeit und Recycling getan wird.
Bei Hardware an sich ja ein riesen lohnendes Geschäft.

Ich erhoffe mir mehr Innovation, Technologien, reale Zahlen und Fakten für die kommenden Jahre.

Neue Akkus und elektrische Leitsysteme auf Graphenbasis, neue Spieleengines, etc. ggf. noch aktuelle Festplatten und CPU Refreshs.

Edit: Derzeit kosten 42 Fuss Container wohl auch wieder 3-5 Tausen Euro weniger und sind verfügbar, allerdings wird sich das bald nach Weihnachten wieder ändern, da in China 14 Tage Stillstand herrschen wird (chinesisches Neujahrsfest und landesweiter Jahresurlaub sowie teilweise Arbeitsverbote) und bekanntlich wird das bei guter Vorbereitung darauf 4-6 Wochen zu spüren sein, aktuell wohl deutlich länger.
 
Zuletzt bearbeitet:
...

Ich habe die Hoffnung das durch die Knappheit mehr in richtung Nachhaltigkeit und Recycling getan wird.
Bei Hardware an sich ja ein riesen lohnendes Geschäft.
das kommt ja sowieso, aber die eu macht da massiv druck mit gurkenverordnung, staubsaugermaximalverbrauch &co. (das war kein sarkasmus, das war mein ernst)

bei gebrauchtwagen das selbe. corona hilft da sparen, den rest kann ich per PM schreiben, da es hier doch OT wäre. (ja mods, ich motze nicht immer [ob das hier jetzt auch motzen ist?])
 
na dann erhoffe ich mir davon massiven Leistungssteigerung.Auch wenn das ja unbezahlbare CPUS sind,so erhofft man sich doch das es langfristig durch so was sich auch stärkere CPUs bzw Hardware auch nach unten gedrückt wird.Wäre ja echt schade wenn die Highend so massiv zulegen bzw davon ziehen und die Mittelklasse dreht sich im kreis.Selbst bei Corona kann man gewiss ne gewisse Steigerung auch erwarten,sonst lohnt es sich halt nicht mehr da was anzuschauen oder zu erwähnen.
 
Der i7 8700K, der Okt. 2017 kam, ist heute nach über 4 Jahren immer noch ein Spitzenmodell fürs Zocken.
Der im April 2017 gestartete R5 1600/X, war endlich mal wieder eine günstige und auch fürs Zocken gelungene CPU. Damals waren zwar i7 4970K und i5 7500 schneller, trotzdem war der R5 1600 günstiger, nur wenig langsamer, aber in Anwendungen überzeugend.
Der 8700K war aber ein hartes Brett von Intel. Auch heute ist der i7 8700K rund 30% besser als ein R5 1600 in Full HD und ein 12900K nur 37% besser als ein i7 8700K.
AMD hat von 04.2017 (R5 1600) bis 11.2020 (Ryzen 5600X) die Spieleleistung um rund 60% gesteigert.
Intel von 10.2017 (i7 8700K) bis 11.2021 (12600K) die Spieleleistung um rund 30%.
 
Ich bin letztlich froh den 1700 zu haben. Je nach Spiel kann der rendern und zocken gleichzeitig. In manchen Spielen habe ich allerdings dann niedrige FPS. Der 1600 ist aber zum reinen Zocken genauso gut und immer noch ein Preis/Leistungsknaller, da man den ab 60 € bekommt und er jedes aktuelle Spiel noch schafft. Vor allem aber läuft er auf AM4, wo man danach die Option hat auf Zen 2 oder 3 zu wechseln.

Der 8700K war bzw ist eine sehr gute CPU, insgesamt besser als AMD, allerdings war er damals schon teurer und läuft nur auf veralteten Mainboards. Was diese CPU ausmacht ist eine fette Singlethreadleistung und OC-Potenzial, dabei aber 6 Kerne, was das eigentliche Problem beim 7700K damals war. Denn anfangs stellte Intel den gegen Ryzen auf, der doppelt so viele Kerne und deutlich mehr Multithreading bot, dafür aber im Singlethread nur Haswellniveau bietet und bei spätestens 3,9 GHz dicht macht. Mittlerweile laufen die Spiele auf Zen 1 aber meist besser, weil die Kerne haben, es liegt nur an der Software die auch zu benutzen. Die Intels waren nie schneller, denn sie waren nur im Singlethread besser und im Multithread dafür unterlegen. Der 1600 spielt auf der Liga eines 5820K, der 1700 auf der eines 5960X. Das war damals ein richtiger Knaller. Ich habe selbst vom 5820K geupgradet, damals ein echter Geheimtipp, da genauso teuer wie ein 4790K aber um 50 % besser. Denn er bot dieselbe Singlethreadleistung mit zwei zusätzlichen Kernen und darüber hinaus noch DDR4 im Quadchannel, was den Kauf von teurem RAM unnötig machte. Ich habe mir damals ein 40 € Kit reingebaut (Die Rampreise um 2016 waren auch sehr gut verglichen mit 2017).

Was AMD da geliefert hat ist einfach unfassbar, Zen 1 hatte noch viele Mängel, doch mit Zen 2 und 3 haben sie endgültig aufgeräumt. Intel hat zwar auch inzwischen aufgeholt und bietet sogar schon DDR5, allerdings rechne ich mit einem harten Kampf und es könnte sein dass AMD wieder die Krone holt. Die Frage ist dann nur zu welchem Preis. Ich werde noch mindestens zwei Jahre auf DDR4 bleiben und mir dann irgendwann ein Pendant zu meinem B550-Board holen. Hauptsache bezahlbar und bugfrei. Ich habe einmal das Crosshair gekauft und es letztlich bereut, da das Board teuer war und Features hat die ich nicht brauche, letztlich ist B550 nun besser als X470 und das Crosshair bootet sogar langsamer als ein billiges B350-Board.
 
Die 37% Mehrleistung wird aber auch mit teuren Strom bezahlt.

8700K 95 TDP vs 12900k 125 TDP bzw bis zu 250 Watt.
 
In Singlethread kommt man aber nie auf diese 250 Watt. Das ist nur bei hoher Belastung mit Multithread (Cinebench R23 beispielsweise). Man darf ja auch nicht vergessen, dass der 12900k 10 mehr Kerne als ein 8700k hat.
 
Wenn ich zu AMD schiele geht das auch mit vielkerner. Da geht keiner auf 200 Watt.

Dafür ist Intel im Idle wieder besser ^^

Am ende muss man sich entscheiden was einen lieber ist 🤔
 
Du kannst ja auch einfach deine bevorzugte Wattzahl als Limit einstellen. Geht ganz einfach im BIOS. Die können sehr sparsam laufen und so viel Leistung fehlt da dann auch nicht. Ist ja meistens so, dass die letzten Prozentpunkte Leistung sehr viel mehr Verbrauch nach sich ziehen.
 
Die 37% Mehrleistung wird aber auch mit teuren Strom bezahlt.

8700K 95 TDP vs 12900k 125 TDP bzw bis zu 250 Watt.
Ja, das ist auch bei den Ryzens so. Die 1000er sind verdammt effizient wenn man sie nicht übertaktet. Im absoluten sweet spot sind auch die neuen deutlich besser. Hätte ich Zen 3 würde ich den auch nicht auf 5 GHz knallen, selbst 4,5 wären schon verdammt gut weil die IPC alleine schon höher ist. Ein ~4,5 GHz Zen 3 sollte mit einem 5 GHz Intel älterer Generation mithalten können. Das ist echt beachtlich, gerade da Intel viele Jahre überhaupt keine IPC-Verbesserungen gebracht hat, Steigerungen gab es immer nur per Brechstange. Und dabei konnte man selbst Sandy Bridge schon auf 5 GHz knallen, auch die 4790er machten in den meisten Fällen 4,6 - 4,8 GHz mit.
 
Die 37% Mehrleistung wird aber auch mit teuren Strom bezahlt.

8700K 95 TDP vs 12900k 125 TDP bzw bis zu 250 Watt.


In Spielen wird die TDP nicht erreicht und in MT Anwendungen liegt fast ein Faktor 3 bei der Leistung dazwischen. Der 8700K macht rund 10K Punkte in CB R23 bei OC auf 5 Ghz, der 12900K dagegen 27K. Selbst ein auf 95W gelockter 12900K dreht Kreise um den 8700K. 95W reichen dem 8700K voll ausgefahren auch nicht, davon mal abgesehen. Der zieht default bis zu 150W.
 
Die 37% Mehrleistung wird aber auch mit teuren Strom bezahlt.

8700K 95 TDP vs 12900k 125 TDP bzw bis zu 250 Watt.
Ich habe von einem 8700K gewechselt zu einem 12600K beide fast den gleichen verbrauch nur das der 12600K die Leistung eines 11900K bringt.
 
Jetzt wissen wir ja wie es bei Intel läuft und können wieder zurück zu AMD kommen, Danke!
 
AMD hat in 3 Jahren und 7 Monte +60% vom R5 1600X aus den R5 5600X gepackt.
Intel konnte in 4 Jahren nur 30% vom 8700K auf den 12600K draufpacken.

Zen4 wird einschlagen.
 
Zuletzt bearbeitet:
AMD hat in 3 Jahren und 7 Monte +60% vom R5 1600X aus den R5 5600X gepackt.
Intel konnte in 4 Jahren nur 30% vom 8700K auf den 12600K draufpacken.
Was ja auch nur daran liegt, dass der 1600x damals einfach zu langsam war und einem 8700k deutlich unterlegen war sowie immer noch ist. Aber ausgehend von dem 8700k, liefert der 5600x auch nur so 30% mehr an Leistung.

Warum unterschlägst du, dass der 12600k in Anwendungen gute 70% mehr Leistung liefert als ein 8700k, während der 5600x nur 35% draufpackt?
Weil das besser in deinen Bias passt?

Source: https://www.computerbase.de/thema/p...hlungen_die_schnellsten_cpus_fuer_anwendungen
 
Zuletzt bearbeitet:
Hoffentlich wirds keine ‘spicy’ Info sein, wie damals:
 
Warum unterschlägst du, dass der 12600k in Anwendungen gute 70% mehr Leistung liefert als ein 8700k
Unterschlagen? Geht es vielleicht auch eine Nummer kleiner? Oder warum unterschlägst du den Fakt der 10 Kerne 16 Threads des 12600K im Vergleich zu den 6 Kerne und 12 Threads des 8700K und des 1600X?
So langsam war der 1600X überhaupt nicht. Schließlich konnte dieser den i7 6800 in Multi-Anwendungen Paroli bieten.
Da es aber hier zu 90% um Spiele geht, habe ich Ergebnisse aus diesem Bereich genommen.

Klar kann ich auch schreiben, AMD hat vom 1600X bis zum 5950X (3,7 Jahre) in Anwendungen 247% draufgepackt, bei Spiele um 64%
Intel konnte vom 8700K bis zum 12900K (4,1 Jahre) in Anwendungen 161% draufpacken, bei Spiele um 37%.

Sieht jetzt auch nicht besser aus für den zig 100 Milliarden Dollar Konzern Intel, mit den Anspruch als Führer in der CPU Entwicklung. Die Garagenklitsche AMD hat gezeigt wie man dies macht.
 
Unterschlagen? Geht es vielleicht auch eine Nummer kleiner?
Nein, da es genau beschreibt, was du hier tust. Du hast absichtlich Informationen verheimlicht, aufgrund deiner persönlichen Abneigung gegen ein Unternehmen, dass du bei jeder gegebenen Möglichkeit versuchst in ein negatives Licht zu rücken.

Oder warum unterschlägst du den Fakt der 10 Kerne 16 Threads des 12600K im Vergleich zu den 6 Kerne und 12 Threads des 8700K und des 1600X?
Ich habe diesen Fakt nicht unterschlagen, da ich im Gegensatz zu dir eine Quelle angegeben habe und diese den anderen nicht vorenthalte. Der Quelle kann Jeder fehlende Informationen entnehmen, wie dass ein 12600k 6 P-Cores und 4 E-Cores besitzt.

So langsam war der 1600X überhaupt nicht. Schließlich konnte dieser den i7 6800 in Multi-Anwendungen Paroli bieten.
Ist ja schön, dass sich der 1600x mit der Vorgängergeneration messen konnte. Nur was genau ändert dies an der Tatsache, dass der 8700 ein gutes Stück schneller war und du mit zweierlei Maß misst?

AMD hatte so einen größeren Verbesserungsspielraum, in dem von dir gewähltem Zeitraum.

Da es aber hier zu 90% um Spiele geht, habe ich Ergebnisse aus diesem Bereich genommen.
Das ist aber eine Information, die du in dem von mir zitiertem Beitrag nicht erwähnt hast. Ich meine du wirfst mir ja auch vor, dass ich Informationen unterschlagen würde, obwohl ich auf einen Beitrag verweise, in dem sich diese Informationen befinden. Während du nicht auf deinen vorherigen Beitrag verweist, den ich beispielsweise garnicht erst gelesen hatte.

Klar kann ich auch schreiben, AMD hat vom 1600X bis zum 5950X (3,7 Jahre) in Anwendungen 247% draufgepackt, bei Spiele um 64%
Intel konnte vom 8700K bis zum 12900K (4,1 Jahre) in Anwendungen 161% draufpacken, bei Spiele um 37%.
Klar kannst du wieder unterschiedliche CPUs als Berechnungsgrundlage nehmen, doch was macht dies für einen Sinn, außer uns deinen Bias aufzuzeigen?

Wenn wir den 8700k als Basis nehmen, dann ergibt sich
5950x
Spiele +40%
Anwendungen (SC): +31%
Anwendungen (MC): +186%

12900k
Spiele +47%
Anwendungen (SC): +51%
Anwendungen (MC): +161%

Source: https://www.computerbase.de/thema/prozessor/rangliste/

Dann wirkt doch alles gleich ein wenig neutraler. Da kann man erkennen, dass die beiden Seiten den Fokus auf unterschiedliche Bereiche hatten. Bei AMD hat man mehr Wert auf Multi Core gelegt und bei Intel mehr auf Single Core. Aber das ist ja gar nicht in deinem Sinne neutral an die ganze Sache heranzugehen.

Sieht jetzt auch nicht besser aus für den zig 100 Milliarden Dollar Konzern Intel, mit den Anspruch als Führer in der CPU Entwicklung. Die Garagenklitsche AMD hat gezeigt wie man dies macht.
Es ist ja nicht so, dass beide Seiten mit physikalischen Grenzen zu kämpfen haben, die sich nicht einfach so mit Geld erschlagen lassen. Aber hiermit bestätigst du doch genau, was ich dir mit meiner Suggestivfrage zuvor unterstellt habe. Es geht einfach nur um deinen Bias. Du möchtest zwanghaft darstellen: AMD hui und Intel pfui.
 
Zuletzt bearbeitet:
Wenn wir den 8700k als Basis nehmen, dann ergibt sich
5950x
Spiele +40%
Anwendungen (SC): +31%
Anwendungen (MC): +186%

12900k
Spiele +47%
Anwendungen (SC): +51%
Anwendungen (MC): +161%

Yo, und wer mit ner 3080+ durch die Gegend juckelt wird wohl kaum auf 1080p zocken und wer ne kleinere GPU hat ist sofort im GPU-Limit. Wenn du schon auf einen Bias aufmerksam machen möchtest, dann doch bitte vollständig. Denn so dargestellt erweckst du den Eindruck, als wenn die Daten für den "Alltag" gelten würden. Die Testaufbauten sind ja deshalb auf Kante genäht, weil der "Alltagszocker" auf allen nicht high-end Karten/CPUs in einem Limit hängt, was von der anderen Seite verursacht wird.
AMD hui und Intel pfui.
Jetzt wo Intel mal wieder eine "ordentliche" CPU rausgebracht hat, wird wieder um jedes % in den Benchmarks erbittert bis aufs Blut argumentiert. Als AMD vorne lag, war das "nich so schlimm". Ich bin auch für mehr Neutralität und weniger Bias. Dann können die Leute mal etwas entspanner auf ihr System gucken, weil ihre "7% weniger in Spielen" für ihren Anwendungsfall gar nicht zutreffen und gemütlich n Kaffee trinken können. Das gilt für AMD als auch für Intel.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh