Core i9-12900K und Core i5-12600K: Hybrid-Desktop-CPUs Alder Lake im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
edit: Igors Teil2... es bestätigt meine obige Aussage: Immer wenn schwacher CPU Workload oder 1-Core-Last, dann hat Intel einen messbaren, Software bedingt auch teilweise großen Vorsprung.

aber zur Effizienz, wenn alle Kerne belastet werden: 6,4kJ 5950X vs 10,2kJ i9... , der i9 braucht also für die gleiche Berechnung 3,8kJ mehr Energie, macht 59% schlechtere Effizienz.
 
Zuletzt bearbeitet:
Hier findet ihr eine Liste aller Spiele mit DRM (meist oder ausschließlich Denuvo), die aktuell noch Probleme unter Windows 10 und Windows 11 haben: https://www.intel.com/content/www/us/en/support/articles/000088261/processors.html

Windows 11:
  • Anthem*
  • Bravely Default 2*
  • Fishing Sim World*
  • Football Manager 2019*
  • Football Manager Touch 2019*
  • Football Manager 2020*
  • Football Manager Touch 2020*
  • Legend of Mana*
  • Mortal Kombat 11*
  • Tony Hawks Pro Skater 1 and 2*
  • Warhammer I*
  • Assassin’s Creed: Valhalla*
  • Far Cry Primal*
  • Fernbus Simulator*
  • For Honor*
  • Lost in Random*
  • Madden 22*
  • Maneater*
  • Need for Speed – Hot Pursuit Remastered*
  • Sea of Solitude*
  • Star Wars Jedi Fallen Order*
  • Tourist Bus Simulator*
  • Maneater*
Windows 10:
  • Ace Combat 7*
  • Assassins Creed Odyssey*
  • Assassins Creed Origins*
  • Code Vein*
  • eFootball 2021*
  • F1 2019*
  • Far Cry New Dawn*
  • FIFA 19*
  • FIFA 20*
  • Football Manager 2021*
  • Football Manager Touch 2021*
  • Ghost Recon Breakpoint*
  • Ghost Recon Wildlands*
  • Immortals Fenyx Rising*
  • Just Cause 4*
  • Life is Strange 2*
  • Madden 21*
  • Monopoly Plus*
  • Need For Speed Heat*
  • Scott Pilgrim vs The World*
  • Shadow of the Tomb Raider*
  • Shinobi Striker*
  • Soulcalibur VI*
  • Starlink*
  • Team Sonic Racing*
  • Total War Saga - Three Kingdoms*
  • Train Sim World*
  • Train Sim World 2*
  • Wolfenstein Youngblood*
 

Shihatsu

unter Deinem Link versteckt sich auch dieser Link AMD Ryzen 9 5950X vs. Core i9 12900K. Ich finde diese Gegenüberstellung durchaus hilfreich um zu sehen, welche Programme / Anwendungen ggf unter Alder Lake profitieren. Top!! Danke!!
 
Also mich überzeugt Alder Lake nicht so recht. Man kauft einen sehr leistungsstarken 8 Core CPU, der noch 8 Krüppel an die Hand bekommt, damit in synthetischen Benchmarks die Punktezahl stimmt.

Die Realität ist, dass Apps und Spiele bis zu 8 Cores hervorragend laufen und ebenfalls Anwendungen, die n-core Skalierung ohne Latenzempfindlichkeit bieten. Sobald aber z.B. in Spielen die kleinen Kerne zu viel im Einsatz sind, sinkt die Performance schon sehr. Wenn die kommenden Ryzen mit 3D Cache pro Kern fast gleichauf sind, dafür aber 12 und 16 vollwertige Kerne ohne Scheduler Abhängigkeit bieten, dann ist mir das irgendwie lieber. Mir wären auch 10 P-Cores ohne E-Cores lieber.

Und die Preise für Mainboards und DDR5 sind nur das Sahnehäubchen.
 
Sobald aber z.B. in Spielen die kleinen Kerne zu viel im Einsatz sind, sinkt die Performance schon sehr.
Allerdings muss man auch so fair sein und feststellen, das die wenigsten Spiele überhaupt >8 Kerne nutzen. Beim 12600K würde das viel mehr ins Gewicht fallen, weil der nur 6 P-Kerne hat. Braucht ein Spiel Dampf auf 8 Kernen, so wird der 12600 abgehängt.
 
Und die Preise für Mainboards und DDR5 sind nur das Sahnehäubchen.

Nicht nur das. Die 8 Kern CPU ist 100€ teurer als Rocket Lake (11700K-12700K). Plus der Mainboard Preis wo die ROG Boards Mal satte 200€ über den Z590 liegen, MSI ebenso, zumindest ähnlich, sind 300€ mehr als noch RKL. Plus DDR5 dazu. Ich denke das allein die Mainboardpreise das ganze für den Mainstream so uninteressant macht. Ich sehe schwarz für Intel. Zumindest die CPU Preise habe ich so erwartet, aber die Boardpreise schießen echt den Bock ab. Asus Prime 250€ gestern, 300€ heute, ROG Boards 480€, MSI Tomahawk 400€.... Da sind ja Grafikkarten noch ein Schnäppchen
 
Joar, aktuell bist du mit ca. 400,-€ für die Performance-Variante der aktuellsten Gen bei AMD mit 5600X + MSI A-Pro für 400,-€ dabei, während du bei Intel für die DDR4-Variante mit 12600KF bei 490,-€ liegst. Macht 22% Aufpreis für das Leistungsplus bei Intel. Gerade die DDR4-Boards müssten zwingend günstiger werden, damit sich der Kauf lohnt und man in Sachen Preis/Leistung besser wird....
 
Ich verstehe noch nicht so ganz wofür man 8 schnelle und 8 langsame Kerne braucht?

Die Performance scheint ja durch die 8 schnellen Kerne zu kommen, dafür braucht man die 8 langsamen also nicht.
Wenn die 8 langsamen aber schon Skylake-like sind, sparen die dann wenigstens Strom? Also schalten sich die schnellen dann ganz ab, wenn man die Leistung eh nicht braucht und brauchen die kleinen dann auch wirklich weniger Strom... also sehr viel weniger Strom, so das sich das auch irgendwie rechnet?

Also die asymmetrische Idee ist ja nicht schlecht, WENN die langsamen Kerne denn entsprechend Strom sparen, aber dahingehend hab ich noch nichts gefunden. Es lächzen irgendwie alle nur nach Topleistung, aber genau dafür scheint das ja absolut nix zu bringen, ausser das man halt im Zweifel doch 16 Kerne hat. Aber warum das jetzt asymmetrisch sein soll, oder wo gerade der Vorteil darin liegen soll, sehe ich gerade nicht.

Das 8 schnelle + 8 langsame auch taugen, wundert mich nicht. Gerade bei Spielen. Ich kenne kein Spiel das auch nur ansatzweise 16 Kerne simultan voll auslastet. Dagegen heißt es, die CPU erkauft sich die Mehrleistung mit hohem Stromverbrauch. Ist irgendwie widersprüchlich, bzw. dann erst recht unverständlich, was das 8+8 bringen soll.

Oder umgekehrt, wenn die Software wirklich 16 Kerne unabhängig nutzen kann, dann kackt der Intel gegenüber den Ryzens doch wieder ab, weil 8 von seinen 16 Kernen doch langsamer sind?
Also eigentlich ist nur die Single-Core-Performance der schnellen 8 Kerne höher?

du gehst davon aus, dass alle kerne immer gleich stark ausgelastet sind. siehs mal so: das spiel belastet bis zu 8 kerne voll, die E-kerne fangen nur die störenden nebenprozesse wie hintergrunddienste oder teamspeak/discord und co ab und brauchen dafür nicht die brachiale leistung der P-kerne, können also entsprechend sparsam agieren.

aber natürlich zahlt sich das nicht in allen szenarien aus. deshalb gewinnt AMD in anwendungen, die 16 kerne voll auslasten können. die frage ist, was für die praxisrelevanter ist. die meisten leute sind halt gamer und da reicht stand heute ein achtkerner. auf lange sicht könnte es durchaus sein, dass der 5950X auch in spielen stärker wird gegenüber dem 12900k, aber bis dahin sind beide cpus längst total veraltet ;)
 
och mensch

nicht böse nehmen aber das ist käse. wie kann man das immer noch nicht begreifen. natürlich ist in diesem test der fps balken auf gleicher höhe. weil die gpu dicht macht. aber es kommen neue gpus die mehr fps bringen oder man reduziert für mehr fps eben die settings und dann ist das cpu limit ganz schnell erreicht

außerdem siehst du doch an den tests bereits das ergbnis "für 4k" die cpu bringt in 4k quasi diesselben fps wie in allen anderen auflösungegn. ergo brauchst du gar nicht nach 4k tests zu suchen weil du es doch schon siehst

3440x1440 cpu limit

FC6
Anhang anzeigen 687836

ANNO1800
Anhang anzeigen 687838
Das mir schon klar.
Es limitiert immer irgendwas
Aber man kann sagen je höher die Auflösung desto uninteressanter die CPU
 
nein :d

wenn deine graka limitiert ist das problem die graka nicht die cpu.

wenn ich in 144fps erreichen will muss das die cpu ja auch schaffen. die auflösung ist völlig irrlevant. wenn du in 4k spielen willst dann tu das. das hat mit der cpu aber nix zu tun. :) das ist dann quasi dein bier und wenn die graka oben hin abdeckelt ist dasquasi dein problem bzw einfach pech dass die gpu nicht mehr schafft.

und crossbone zeigt hier klar dass ein 12900k einen 9900k (an sich ja keine allzu schlechte cpu) auseinandernimmt.
 
Zuletzt bearbeitet:
Das Konzept mit den unterschiedlichen Kernen für schwache Auslastung vs starke Auslastung ist voll in die Hose gegangen!
Ich hätte mit von Intel das gewünscht, was sie eigentlich schon immer konnten und wofür ich die i3-i7(i9) Prozzis bisher favorisiert hatte, einen sau guten Idle Verbrauch!
Aber was ist nun damit???
55W idle beim i9 vs 54W beim 5950x???
Hä ?
der i9 hat laut CB 54W, der 5950X 56W:
Note, das ist Windows 10. Das hat laut nem Intel Ing. nen Early Scheduler von Win 11 an Board. Kann also gut sein, das es mit Win 11 weiter runter geht.
 
Blöde Frage, habe es wohl überlesen, aber wieso habt ihr eig. keinen 12700K?
 
@Mr.Mito : weil intel nur den 12900k und den 12600k an die redaktionen verteilt hat. diejenigen, die auch einen 12700k im test haben, haben sich den von woanders selbst besorgt.
 
edit: Igors Teil2... es bestätigt meine obige Aussage: Immer wenn schwacher CPU Workload oder 1-Core-Last, dann hat Intel einen messbaren, Software bedingt auch teilweise großen Vorsprung.
aber zur Effizienz, wenn alle Kerne belastet werden: 6,4kJ 5950X vs 10,2kJ i9... , der i9 braucht also für die gleiche Berechnung 3,8kJ mehr Energie, macht 59% schlechtere Effizienz.
Aber wahrscheinlich auch nur, weil der i9 PL1 auf 241W sitzen hat. Mit 125W ist er deutlich effizienter. Was den zweiten Teil von @Igor THG angeht, da hätte ich mir beim 5900x und 5950x auch Benchmarks ohne PBO gewünscht. Beim Rendern liegen die Cpus ja leider >200W, statt auf 140W gedeckelt, was die Effizienz heben sollte. Schade.
 
Legalev

bei Windows 10 ist es auch vorhanden.
Weiß nicht, warum man sich so teure Teile holt. Boards finde ich schon frech vom Preis.
 
in sachen effizienz auf die architektur bezogen macht es eigentlich nur sinn zu vergleichen, wenn beide CPUs mit gleichem takt laufen oder alternativ, wenn beide cpus eine identische rechenleistung abliefern, ohne dass eine davon am limit läuft.

wenn man die effizienz von zwei konkreten modellen (z. b. 12900k vs. 5950X) vergleichen will, verbietet es sich natürlich von den dafault-einstellungen der cpus abzuweichen. dann muss der 12900k auch mit dem von intel vorgesehenen powertarget von 241 watt betrieben werden. alles andere wäre unsinn. einen 5950X kann man auch sparsamer machen. ich untervolte schon seit jahren meine cpus und da ist jedes mal viel einzusparen.
 
Igor hat das doch mit dem FPS Pro Watt gemacht beim Ganing Vergleich.
 
dann muss der 12900k auch mit dem von intel vorgesehenen powertarget von 241 watt betrieben werden.
Ja, genau. Igot hat in Teil 2 den Intel bei PL1=241W und PL1=150/125W gebencht, den 5950x aber nur mit PBO auto (>142W). Da hätte ich mir gewünscht, das der 5950x auch mit 105W TDP/143W PPT getestet wird ;)

Igor hat das doch mit dem FPS Pro Watt gemacht beim Ganing Vergleich.
Im Gaming ist das Powerlimit Hupe, weil die Cpus meist bei <120W liegen.
 
ich bezog mich auf die user, die die hohen spitzenwerte mit einstelloptionen relativieren wollen. wenn otto-normaluser einen 12900k kauft und für multicore nutzt, dann verbrät der deutlich mehr strom als ein 5950X. punkt.
das ist aber eine aussage auf das cpu-modell bezogen, nicht auf die architektur. und nicht nur AL geht sparsamer, auch Zen3 kann man effizienter einstellen, als die einzelnen modelle es ab werk tun.
btw: auch die RL-architektur ist durchaus energieeffizient. nur eben nicht wenn die cpus an der kotzgrenze rennen müssen um mit zen3 mitzuhalten. aber ein 11400 steht zen3 da nicht nach.
 
  • Danke
Reaktionen: Tzk
du gehst davon aus, dass alle kerne immer gleich stark ausgelastet sind. siehs mal so: das spiel belastet bis zu 8 kerne voll, die E-kerne fangen nur die störenden nebenprozesse wie hintergrunddienste oder teamspeak/discord und co ab und brauchen dafür nicht die brachiale leistung der P-kerne, können also entsprechend sparsam agieren.
Nein, davon gehe ich nicht aus.
Ein P-Core kann sich auch runtertakten und damit sparen, wenn er nur geringen Workload hat. Die Frage ist jetzt: Brauchen die E-Cores denn auch bei geringer Last WIRKLICH weniger Strom als ein entsprechend gedrosselter P-Core?

Und ich gehe nicht nur nicht davon aus, sondern ich gehe sogar genau vom Gegenteil aus: Das die Last extrem ungleich verteilt ist und die CPU gar nichts zu tun hat. Und da war meine Frage, eben ob die P-Cores dann z.B. komplett abgeschaltet werden können und die E-Cores wirklich sparsamer sind als ein runtergetakter P-Core?

aber natürlich zahlt sich das nicht in allen szenarien aus. deshalb gewinnt AMD in anwendungen, die 16 kerne voll auslasten können. die frage ist, was für die praxisrelevanter ist. die meisten leute sind halt gamer und da reicht stand heute ein achtkerner.
Ich habe aber nicht wie die meisten sabbernden Gamer hier nach der Spitzenleistung gefragt, sondern ich habe nach dem Stromverbrauch gefragt und auch vielen Gamern ist es so, das die CPU die meiste Zeit wenig bis nix tut, weil der PC halt einfach nur läuft. Wie siehts da aus? Kann der Intel auch Strom sparen?

@Paddy92 das mit der Flächeneffizienz macht irgendwie Sinn.... ist aber etwas, das mir relativ egal ist. Eine iGPU brauche ich nicht wirklich und noch mehr als 16 Kerne brauche ich aktuell auch nicht. Das wird sich dann erst rechnen, wenn Multicore besser geht, denn die 4 E-Cores auf der Fläche eines P-Cores haben ja mehr Rechenleistung als der P-Core (sonst wären sie nicht effizienter).
Da würde mich dann aber technisch interessieren, wo die Leistungsdifferenz herkommt. Wieso sind die P-Cores dann so riesig? Ich nehme mal an, das eher die P-Cores riesig sind, als die E-Cores winzig? Wie groß ist dagegen ein Zen3 Kern?
 
Die spanndere Frage für mich ist Grade eher:
Reichen die E-kerne um Video-Streams zu kodieren?
Ist für Streamer ein 12600k eine valide Alternative zum 10850k oder 3900x/5900x?
Wenn ja müsste ich meine Beispielkonfigs in der Kaufberatung evtl überarbeiten und überdenken...
 
Ein P-Core kann sich auch runtertakten und damit sparen, wenn er nur geringen Workload hat. Die Frage ist jetzt: Brauchen die E-Cores denn auch bei geringer Last WIRKLICH weniger Strom als ein entsprechend gedrosselter P-Core?
Ich denke das wird sich nicht viel tun... Letztendlich sind die E-Cores vor allem zum Sparen von Silizium gedacht. CB hat das ja durchgetestet und den absoluten Energieverbrauch (in Wattsekunden bzw. Joule) aufgeschlüsselt. Wie man in der Tabelle sieht ist der absolute Verbrauch von 8+8 bis 8+1 und 8+8 bis 1+8 ziemlich ähnlich. Nur 8+0 sticht hervor, was aber an AVX-512 liegen könnte, was beim Abschalten der E-Kerne aktiv ist. Interessant ist der Vergleich zwischen 8+8, 6+8 und 1+8. Letzteres ist mit Abstand am effizientesten, aber natürlich auch am langsamsten. 6+8 dagegen stellt einen guten Kompromiss dar.

Natürlich ist das keine 100% Antwort auf deine Frage, weil man bei der 8+x Konfig eigentlich das Power Target noch senken müsste, um den Takt der P-Kerne zu senken. Das sollte sie deutlich effizienter machen.

1636104546179.png

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh