Core i9-12900K und Core i5-12600K: Hybrid-Desktop-CPUs Alder Lake im Test

AlderLake

In meinen Augen "ok".

Ryzen bietet die bessere Effizienz, Intel mehr FPS.

Das Spiel kennen wir von früher, es wiederholt sich. Intel schafft es nicht, 16C/32T mit ähnlicher Effizienz auf ein Package zu klöppeln und fährt daher big.LITTLE. Interessantes Konzept, aber am Ende zu wenig.

In 720p sieht man, was die Gaming-IPC leistet - aber niemand zockt in 720p mit dieser Hardware. In 1080p rücken die CPUs selbst mit einer RTX3080 so weit zusammen, dass man nicht von AM4 auf S1700 wechseln muss.

Schade, dass Intels Konzept so wenig Vorteile bietet. Und der Windows-Scheduler nicht absolut perfekt läuft.

Wenn AMD in den Ryzen6000 noch effizienter wird, mehr Gaming-IPC auffährt und die Kerne noch variabler werden lässt, kann AlderLake einpacken. In 2022 sind wir schlauer - an einen Ryzen5000 mit 3D-V-Cache glaube ich persönlich nicht mehr. Dafür ist Intels Gaming-Vorsprung zu gering.

Da kann AMD lieber ein paar Ryzen6000 mit 3D-Cache als Gaming-Kracher auffahren. Die Brot- und Butter-Modelle wie gehabt (5600X, 5800X, 5900X, 5950X) und die für Gamer interessanten Modelle dann mit ordentlich Stapel-Cache: 5600XT, 5800XT, 5900XT.

Die würden dann Intel richtig wehtun. Erinnerungen an Broadwell 5775C werden wach. Aber der Preis wird schmerzhaft für die Kunden. AMD wird sich diese Technologie fürstlich bezahlen lassen. 5600XT deutlich vor dem 5800X, aber 2C/4T weniger. Und kostet so viel wie der 5800X. Da hat man als Gamer die Qual der Wahl. Beim 5800XT und 5900XT das gleiche Spiel. Ich vermute, einen 5950XT wird es nicht geben. Zu groß, zu warm, zu teuer, zu geringer Absatz am Markt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die cpus rücken nicht zusammen. die graka deckelt von oben. die performance in 720p hast du in 1080, 1440p und 4k trotzdem. einfach settings runter

wenn jemand mit dem gpu limit unter dem cpu limit spielt dann ist das in individuelles "problem". es zwingt denjenigen niemand das zu tun. wenn er das so will soll er es tun.

ich spiele NIE im gpu limit sondern lasse durch anpassen der settings immer etwas luft. ich habe genug games, bei denen ich auch in 3440x1440 im cpu limit hänge und brauche dringend mehr cpu power
 
Was wollte ich?

-mehr ST Leistung
-mehr Effizienz
-bisle mehr MT Leistung

Alle 3 Dinge habe ich bekommen. Ob die das nun mit P only, P + E oder mit 5 verschiedenen Kernen erreichen ist mir ehrlich gesagt vollkommen egal. 🤷‍♂️
Ehhh komm doch nicht mit so unliebasamen Realworld Sichtweisen... Du hast doch gar keinen Plan was du hier willst :fresse:
Das Konzept mit den unterschiedlichen Kernen für schwache Auslastung vs starke Auslastung ist voll in die Hose gegangen!
Ich hätte mit von Intel das gewünscht, was sie eigentlich schon immer konnten und wofür ich die i3-i7(i9) Prozzis bisher favorisiert hatte, einen sau guten Idle Verbrauch!
Aber was ist nun damit???
Teste halt mal mit nem anständigen Board :fresse:

Aber anyway, was ist denn deiner Ansicht nach bei den Big/Little Core Prinzip hier in die Hose gegangen?
Vor allem, für wen ist in die Hose gegangen?
-> Für Intel ist/war das bist auf diese unnötige PL1=PL2 Geschichte doch ein voller Erfolg. Es funktioniert erstaunlich gut - ich hätte mit schlimmeren Komplikationen als paar DRM-Game Geschichten gerechnet. Die Leistung und der Verbrauch aus der Nummer hingegen passt. Das Konstrukt im Auge der aller ersten Umsetzung gesehen weckt auch den Eindruck, als ist es massiv ausbaufähig. Die Die Size Ersparung stimmt ja jetzt schon. Gerade auch im Vergleich zu AMD. AMDs 5600/5800X ruft 205mm² auf - der 8+8C Alder Lake kommt auf knapp 210mm² und hat noch ne IGP dabei.

Stell dir 8P + 16E Cores vor. Oder 24E Cores. Ab einen gewissen Punkt hast du auch mit deinem Ryzen das Problem, dass das Powerlimit einfach deckelt und die Leistung überhaupt nicht mehr gegeben ist, es sei denn du ballerst da Epyc like mit 225, 250, 280W drauf. Oder wie bei Igor - eben PBO und niedrige Temperaturen. Genau hier kommen die E-Cores ins Spiel. Die eben nicht unnötig Die Size verschwenden und dann nur mit starker Handbremse laufen dürfen, weil gar nicht genug Spielraum ist.
Selbst deine 200W Settings zeigen schon, wie extrem ineffizient das obenraus ist. Unter MT Belastungssicht - ja, du hast mehr Leistung als hier so ein 12900k - der Powergedeckelte Prozessor, egal ob AMD mit nem 5950X bei 142W bspw. oder eben hier so ein 12900er mit 125W nach 56sec TAU, rennt dir aber schon jetzt von der Effizienz und beim realen Verbrauch für die geleistete Arbeit, davon. Zukünftig wird das definitiv nicht besser.
Wenn du dann was mehr an Leistung willst - kannste immernoch auf drehen ;) Am Ende gewinnen wohl sogar noch die OCler. Denn wenn irgendwann genug E-Cores drin sind, dann kannste durch die niedrigen Taktraten auch wieder mehr durch OC raus holen ohne dass der Verbrauch so extrem explodiert, wie heute.
Ja, genau. Igot hat in Teil 2 den Intel bei PL1=241W und PL1=150/125W gebencht, den 5950x aber nur mit PBO auto (>142W). Da hätte ich mir gewünscht, das der 5950x auch mit 105W TDP/143W PPT getestet wird ;)
Naja, kannste dir ja relativ gut selbst ausrechnen.

Der 5950X verliert ungefähr ca. 15%+- bei 142W ggü. den PBO Werten. Viel mehr sollte es nicht sein. Denn weder boostet PBO deutlich über 4600MHz Allcore noch bist du bei 142W bei deutlich unter 4000MHz. -> das sind also ca. 15% Differenz bei 1:1 Taktskalierung. Das wären rechnerisch also ca. 261sec Benchdauer und in seiner Effizienztabelle dann 10,31 "Watt per Hour for the Job".

Schade ist, dass der Wert nicht drin ist - ja, aber ehrlich gesagt, am Ende ist das nach wie vor in der Thematik nicht vergleichbar. Meiner Meinung nach. Wenn man AMD vorn sehen will bei der Effzienzbetrachtung, wählt man entsprechend kurze Benchwerte -> dann stinkt das Intel Teil ganz klar ab in der Tabelle. Wenn man den Intel vorn sehen will, dann wählt man entsprechend lange Benchdauer. Was ist jetzt aber richtig? Eigentlich beides. Der Workload entscheidet. Nicht nur durch die variable Belastung, sondern auch durch variable Rechendauer. Wenn im Schnitt anstatt den von Igor gemessenen 137W auf die Benchdauer 129W stehen würde, dann ist der 12900er mit 125W Drossel nach der TAU auf den Punkt so effizient wie der Dauernuckelnde 142W 5950X.

Kannste dir dann grob selbst ausrechnen wie viel länger der Run dauern müsste, bis der 125W nach TAU Anteil so hoch ist, dass der Schnitt um 8W fällt ;)
Egal wie man es dreht, auf Dauer ist der 5950X eh immer schneller in diesem Szenario. Aber auf Dauer gewinnt der Alder Lake definitiv irgendwann die Effizienzkrone. - Auch gegen einen 142W Sockel-limitierten 5950X :wink:

Was halt immer wieder beeindruckend ist - Powergedrosselt zieht der 5950X seeehr weit in der Effizienz davon. 30, 40, 50% mehr Powerbedarf für die geleistete Arbeit ist bei AMD genau so kein Problem wie bei Intel schon lange auch.
Ich hab absolut keinen blassen Schimmer, warum Intel hier unbedingt PL1=PL2 haben wollte - vor allem wo dann teils die Boards eh wieder den Weichmacher bringen. Nach dem Wähle Kühler, bekommen anderes Limit, Motto.
 
Verfügbarkeit scheint ja recht gut zu sein. Nur beim DDR5 Speicher hätte sich das Scalpen gelohnt.
 
Was wollte ich?

-mehr ST Leistung
-mehr Effizienz
-bisle mehr MT Leistung

Alle 3 Dinge habe ich bekommen. Ob die das nun mit P only, P + E oder mit 5 verschiedenen Kernen erreichen ist mir ehrlich gesagt vollkommen egal. 🤷‍♂️
Eben und daher verstehe ich auch nicht, wieso manche immer noch ein Problem mit Big-Little haben. Die eine oder andere SW wie das DRM bestimmter Spiele und auch der eine oder andere Task Scheduler eines OS muss dafür vielleicht noch (besser) optimiert werden und man hat kein AVX-512, wenn die kleinen Kerne aktiv ist. Aber gibt es sonst wirklich daran auszusetzen?

Die Vorteile sind dagegen groß, die P-Kerne sorgen für eine hohe ST Performance sowie eine hohe per-core Performance für alle Fälle in denen nur wenige Kerne stark oder voll ausgelastet werden, wie es bei Games typischerweise der Fall ist und da dürfte bei entsprechender Optimierung der SW noch mehr drin sein, wenn solche Threads dann auch wirklich immer auf den P-Kernen landen. Die kleinen e-Kerne boosten dagegen die MT Performance für alle Anwendungen die viele Kerne gut auslasten können, brauchen nur ein Viertel des Diesize eines P-Kerns und auch wenn sie nur halb so schnell sind, schaffen vier von ihnen, die ja nur den Platz eines P-Kern belegen, zusammen bei etwa gleicher Leistungsaufnahme die doppelte Leistung eines P-Kerns. Das die kleinen Kerne einzeln langsamer sind, ist doch bei den wenigsten Anwendungen die wirklich viele Kerne auslasten, ein Problem und wenn man viele Kerne hat, wird der Takt sowieso immer geringer je mehr der Kerne man auslastet, oder die Leistungsaufnahme geht durch die Decke.

Eben weil das Konzept ja überzeugend ist, soll AMD gerüchteweise ja auch daran arbeiten und sogar ein Patent in dem Bereich und wäre AMD vor Intel damit rausgekommen, würden alle die es jetzt hier verteufeln, dies vermutlich als genial feiern. Wir sollten uns merken wer es jetzt als Fail ablehnt und was die dann schreiben, wenn AMD seine ersten Big-Little CPUs auf den Markt bringt!

Bei Intel scheint der Weg jedenfalls klar in diese Richtung weiterzugehen, nachdem schon die mobilen Alder Lake CPUs mit mehr e- als P-Kernen kommen werden, soll dies gerüchteweise auch bei Raptor Lake der Fall sein und der 13900K mit 8+16 Kernen kommen. Für alle die viele P-Kerne only wollen, blieben dann die Sapphire Rapids HEDT CPUs die im nächsten Jahr kommen und dies haben dann eben die neue Zielgruppe der Big-Little-Phoben.
 
Hochinteressante CPU, so viel zum austesten. Fühle mich leicht erschlagen von den Optionen :d

Früher hatte ich ja immer alle Cores gesynct, aber es scheint mir jetzt sinnvoller zu sein, nur die Spannungs und Boost Limits anpassen und die CPU dann einfach machen zu lassen - wie es bei GPUs quasi schon länger ist.

Äußerst bemerkenswert finde ich aber, dass er im Idle sämtliche E-Cores schlafen legt und die Tasks zwischen P-Cores hin und her schiebt (unter Windows 11, Energiesparmodus Balanced). Ich hatte irgendwie erwartet, dass es andersherum wäre. Insbesondere mit Blick auf den kommenden Einsatz in Notebooks.

Es überrascht mich auch, dass die E-Cores in Spielen selbst dann Last zugeteilt bekommen, wenn die P-Cores noch längst nicht bei 100% sind. Ich weiß nicht, ob das so alles schon der Weisheit letzter Schluss ist. So wie es jetzt läuft, wird man die E-Cores beim OC jedenfalls nicht einfach ignorieren können.
 
im Idle sämtliche E-Cores schlafen legt und die Tasks zwischen P-Cores hin und her schiebt (unter Windows 11, Energiesparmodus Balanced). Ich hatte irgendwie erwartet, dass es andersherum wäre.
Offenbar wird mindestens ein P-Kern benötigt, da man ja nicht alle von ihnen deaktivieren kann, wohl aber alle e-Kerne. Wenn im Idle wenig zu tun ist, dann reicht es ja auch diesen einen P-Kern auf den man offenbar sowieso nicht verzichten kann, mit wenig Takt laufen zu lassen um die Aufgaben zu erfüllen. Dies ist dann sparsamer als zusätzlich noch einen e-Kern zu wecken.
Es überrascht mich auch, dass die E-Cores in Spielen selbst dann Last zugeteilt bekommen, wenn die P-Cores noch längst nicht bei 100% sind. Ich weiß nicht, ob das so alles schon der Weisheit letzter Schluss ist.
Es gibt bei Windows schon länger eine QoS API mit der ein Entwickler dem Task Manager mehr Informationen über die SW Tasks geben kann und diese spielt dann auch eine Rolle. Es macht ja durchaus Sinn Tasks die nicht performancekritisch sind auf die e-Kerne zu legen damit kritischere Tasks die P-Kerne für sich alleine haben und nicht darauf warten müssen bis die anderen von dort auf einen e-Kern verschoben wurden. Auch hier sind natürlich die SW Entwickler gefragt sowas sinnvoll zu nutzen und werden nun mit Big-Little wohl nicht nur einiges dazulernen, sondern dies wohl auch müssen.
 
Ah ok, ich wusste nicht dass ein P-Core immer aktiv sein muss. Bei Intel sind die E-Cores also scheinbar eher "Bedarfskerne" für passende Aufgaben statt "Grundlastkerne" wie im ARM Bereich. Ist schon spannend, mal sehen ob sich da mit späteren Generation noch was ändert.
 
Das könnte sich vielleicht mal ändern, aber ich glaube nicht das dies so schnell sein wird, da ja die große Architektur (also demnächst dann Sapphire Rapids) nur diese großen Golden Cove P-Kerne bekommen wird. Es dürfte also mehr Sinn für Intel machen bei der Entwicklung davon auszugehen, dass es immer einen Golden Cove Kern gibt, als davon das immer mindestens ein Gracemont e-Kern vorhanden ist, zumal letzteres auch bedeuten würde, dass man AVX-512 (welches Golden Cove ja unterstützt) nie aktivieren könnte. Außerdem braucht so ein Golden Cove Kern bei Idle Takt ja auch nicht so viel Energie, zumal wenn man es mit der Leistungsaufnahme des Gesamtsystems oder wohl auch der eines Gracemont Kerns vergleicht. Laut dem Review hier bei HL ist die Idle Package Power bei Alder Lake zwar schlechter als die des 10900K, aber besser als bei jeder Rocket Lake CPU, von den RYZEN CPUs ganz zu schweigen.
 
Hab noch n 18Kern Skylake X Prozessor im Einsatz - 10980XE - gibts für mich n effektiven Grund zu wechseln? (Finde keine Vergleiche zu den neuen CPUs)
 
Die Efizienz ist zwar nicht gleich durch die Decke gegangen, aber es war ein solider Schritt in die richtige Richtung. Zu sagen das big.LITTLE Konzept hätte sich nicht ausgezahlt oder wäre unerwünscht ist daher doch Unsinn.
Dass es auch mit älteren Anwendungen ohne Recompile genau so performt zeigt dass es auch keine Nachteile mit sich bringt (ausser etwas finanziell für Intel selbst weil MS die notwendigen Anpassungen des Schedulers wahrscheinlich nicht umsonst gemacht hat).
 
Laut dem Review hier bei HL ist die Idle Package Power bei Alder Lake zwar schlechter als die des 10900K, aber besser als bei jeder Rocket Lake CPU, von den RYZEN CPUs ganz zu schweigen.

Weiß nicht was bei HWL Idle bedeutet aber der 11700K kommt auch unter 10W im Idle.

Unbenannt.PNG
 
Wie viele Spiele/Games sind es noch einmal, die mit dieser INTEL CPU Generation nicht laufen bzw. enorme Probleme haben?
 
Laut dem Review hier bei HL ist die Idle Package Power bei Alder Lake zwar schlechter als die des 10900K, aber besser als bei jeder Rocket Lake CPU
11600k@Z590M ITX|ax, 500GB NVMe, 2x 8GB DDR4@3000 mit einem antiken be quiet! S7 300W aus 2015 und eine boxed Möhre
Verbrauch gesamtes System aus der Steckdose ~8.0W
Z590M_ITX_idle 8.0W.JPG
11600k_Package_power.png


und mein 9700k im Office PC mit z390i Aorus Pro Wifi auch unter 10W das gesamte System mit 2NVMe
1636193485392.png
 
Zuletzt bearbeitet:
Eben und daher verstehe ich auch nicht, wieso manche immer noch ein Problem mit Big-Little haben. Die eine oder andere SW wie das DRM bestimmter Spiele und auch der eine oder andere Task Scheduler eines OS muss dafür vielleicht noch (besser) optimiert werden und man hat kein AVX-512, wenn die kleinen Kerne aktiv ist. Aber gibt es sonst wirklich daran auszusetzen?

Die Vorteile sind dagegen groß, die P-Kerne sorgen für eine hohe ST Performance sowie eine hohe per-core Performance für alle Fälle in denen nur wenige Kerne stark oder voll ausgelastet werden, wie es bei Games typischerweise der Fall ist und da dürfte bei entsprechender Optimierung der SW noch mehr drin sein, wenn solche Threads dann auch wirklich immer auf den P-Kernen landen. Die kleinen e-Kerne boosten dagegen die MT Performance für alle Anwendungen die viele Kerne gut auslasten können, brauchen nur ein Viertel des Diesize eines P-Kerns und auch wenn sie nur halb so schnell sind, schaffen vier von ihnen, die ja nur den Platz eines P-Kern belegen, zusammen bei etwa gleicher Leistungsaufnahme die doppelte Leistung eines P-Kerns. Das die kleinen Kerne einzeln langsamer sind, ist doch bei den wenigsten Anwendungen die wirklich viele Kerne auslasten, ein Problem und wenn man viele Kerne hat, wird der Takt sowieso immer geringer je mehr der Kerne man auslastet, oder die Leistungsaufnahme geht durch die Decke.

Eben weil das Konzept ja überzeugend ist, soll AMD gerüchteweise ja auch daran arbeiten und sogar ein Patent in dem Bereich und wäre AMD vor Intel damit rausgekommen, würden alle die es jetzt hier verteufeln, dies vermutlich als genial feiern. Wir sollten uns merken wer es jetzt als Fail ablehnt und was die dann schreiben, wenn AMD seine ersten Big-Little CPUs auf den Markt bringt!

Bei Intel scheint der Weg jedenfalls klar in diese Richtung weiterzugehen, nachdem schon die mobilen Alder Lake CPUs mit mehr e- als P-Kernen kommen werden, soll dies gerüchteweise auch bei Raptor Lake der Fall sein und der 13900K mit 8+16 Kernen kommen. Für alle die viele P-Kerne only wollen, blieben dann die Sapphire Rapids HEDT CPUs die im nächsten Jahr kommen und dies haben dann eben die neue Zielgruppe der Big-Little-Phoben.
Ich sehe das sehr ähnlich wie du - ich finde das Hybrid-Design äußerst interessant. Ich meine klar, 16 Performance-Kerne eines eines 5950X sind 16 Performance-Kerne. Aber mal im Ernst, die meisten Leute brauchen doch eigentlich gar nicht so viele Performance-Kerne, weil sie diese bei ihrer Nutzung sowieso nicht auslasten können. Darum macht ein solches Hybrid-Konzept absolut Sinn. Die kleinen Kerne übernehmen Anwendungen niedriger Priorität, sodass für die wichtigen Anwendungen (bspw. Spiele) die volle Leistung des Performance-Kerns zur Verfügung steht.

Darüber hinaus gibt es außerhalb von Rendersoftware gar nicht viele Anwendungen, bei denen man aktuell von noch mehr Kernen profitiert. Beim Rendern ist eine GPU sowieso allemal schneller. Dementsprechend hat man mit den 8 Performance-Kernen genügend Leistung für sämtliche Spiele als auch einen Großteil professioneller Software zur Verfügung. Das ist für mich ein effizientes Design, man nutzt die Ressourcen, die man hat, umso besser. Was nutzen einem Standard-User immer mehr Performance-Kerne, wenn die meiste Software ohnehin nicht damit skaliert. Finde diese big little Ansätze im x86 Bereich daher sehr spannend.
 
die cpus rücken nicht zusammen. die graka deckelt von oben. die performance in 720p hast du in 1080, 1440p und 4k trotzdem. einfach settings runter

wenn jemand mit dem gpu limit unter dem cpu limit spielt dann ist das in individuelles "problem". es zwingt denjenigen niemand das zu tun. wenn er das so will soll er es tun
Scheinbar liest du die falschen Tests.

CB hat absichtlich etwas ältere Games getestet, um die Vergleichbarkeit zu viiiiielen älteren CPUs herzustellen. So weiß, man, ob sich das Upgrade lohnt.

Die RTX3080 befand sich in 1080p zu keiner Zeit im Limit. Das erkennt man wunderbar am 8700K vs. 12900K. Fast 30% Plus sind da eindeutig.

Es ist EXAKT so, wie ich sagte:

In 720p ist ein Abstand erkennbar, in 1080p rücken die CPUs aber EGAL MIT WELCHER GPU so weit zusammen, dass ein Wechsel NICHT lohnt.

Für Neuanschaffung vllt. interessant. Wobei ich dann eher auf Ryzen6000 warten würde.

 
ich weis nicht worauf du hinaus willst

der 12900k mit optimiertem ddr4 ram pumpt in fc6 50% mehr fps aus als mein 9900k. das ist unabhängig der auflösung

ob ich da jetzt in 1080p oder in 3440x1440 spiele spielt keine rolle. mein ziel sind 118fps (120hz gsync panel) und da brauch ich eine neue cpu+schnelleren ram
 
Richtig auch MinFPS schaut sich irgendwie nie jemand an in dem Vergleich und auch wenn man es immer wieder wiederholt, die meisten Tests haben keine oder nur wenige Spiele wie zB Strategiespiele die massiv nach Singlecoreperformance schreien.
 
ich weis nicht worauf du hinaus willst

der 12900k mit optimiertem ddr4 ram pumpt in fc6 50% mehr fps aus als mein 9900k. das ist unabhängig der auflösung

ob ich da jetzt in 1080p oder in 3440x1440 spiele spielt keine rolle. mein ziel sind 118fps (120hz gsync panel) und da brauch ich eine neue cpu+schnelleren ram
mit welcher CPU?
 
Warum bitte holst mich sowas.
Frisst mehr Strom als AMD. Wird heisser und ist im Multicore klar unterlegen. Dazu noch diese teuren Boards.
 
Warum bitte holst mich sowas.
Frisst mehr Strom als AMD. Wird heisser und ist im Multicore klar unterlegen. Dazu noch diese teuren Boards.
Klar wenn man nicht differenzieren kann ist das schon schwierig :coffee2:
 
Es ist EXAKT so, wie ich sagte:

In 720p ist ein Abstand erkennbar, in 1080p rücken die CPUs aber EGAL MIT WELCHER GPU so weit zusammen, dass ein Wechsel NICHT lohnt.
~5 % höhere Min-FPS bei WQHD und durchgehend ~ 10 % mehr Min-FPS bei 1080p und 720p sind also weit beisammen ?
Okay...
Für mich ist da höchstens der 300 € teure 12600K(F) und der ~ 700 € teure 5950X "beisammen".

Selbst bei CB haben die ADL-S CPUs einen 2-5 Prozent Vorsprung in den UHD! Frametimes.
 
Kauft ihr man schön.
Schlecht sind die Teile nicht, trotz allem würde ich nie wechseln, auch nicht von einem 9900K z.B.
 
...

Keine Frage, Intel hat seinen Job gemacht. Hut ab.

Das wird am Ende dazu führen, dass AMD einerseits gefordert sein wird und in kurzer Zeit deren CPU Preise sinken werden.

Gut für uns.

...

Nebenbei hat Intel ja nach deren Aussage, dass für Spiele 8 Kerne ausreichen, dies mit der Architektur nun auch für sich optimal nutzen können / verwertet. Das ist nicht von der Hand zu weisen. Good Joooob.

...

AMD wird es aber nicht leicht haben, da sie ja auf dem Mehr-Kerne Trip aufbauen. Der Ansatz Intels mit den kleinen Cores ist eigentlich superb.

...
 
Zuletzt bearbeitet:
Immer dieses Märchen, dass Konkurrenz gut für den Kunden ist / Preise sinken. Nein, die Preise werden an die des Konkurrenten angepasst / angehoben :wall:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh