Dino-Intel doch noch nicht ausgestorben: Core i9-13900K und Core i5-13600K im Test

Danke für den Test. Sehr interessant zu lesen.

Aber warum zeigt ihr auf den Bildern zum Raptor Lake immer ein Schleich T-Rex?
Gans keinen Velociraptor mehr?
:-)
Einfach mal den ganzen Thread lesen, dann findest du die Antwort von ganz alleine 😉

Ich bleib erstmal bei meinem 5900X. Die Leistung ist vollkommen ausreichend und meistens limitiert eh die GPU (5120x1440 Auflösung). Zudem sind mir die Preise viel zu hoch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Angeblich ist nach Raptor mit Sockel 1700 Schluss... yey :(
Wie immer bei Intel. Alle 2 Generationen wird künstlich 1 Pin vertauscht. Der Sockel s1700 ist der erste neue Sockel seit 10 Jahren. Alle davor waren identisch und nur künstlich verändert.
 
Wer sich vor dem Launch der 7000x3d CPUs diese Stromfresser fürs Gaming kauft, ist selber Schuld. Intel wird sich zwischen den Launchs der Ryzen CPUs immer die Leistungskrone sichern... für irrsinnigen Mehrverbrauch. Das können nur Hardcorefans sein, die Vernunft ausblenden, die sich sowas kaufen.
Ich habe hier selbst ein Ryzen und werde auch wechseln, weil die Leistungsaufnahme im Idle einfach zu hoch ist, dass die das diese Generation nicht gebacken bekommen haben, war ein K.O Kriterium für mich. Aber ja, unter Volllast ist AMD sehr effizient
 
Der Sockel s1700 ist der erste neue Sockel seit 10 Jahren. Alle davor waren identisch und nur künstlich verändert.
nein, denn eine plattform ist mehr als nur der Sockel, da gehören auch andere Dinge wie z.B. die Spannungsversorgung dazu und da hat Intel mit Haswell die Fully Integrated Voltage Regulators (FIVR) eingeführt und bei Skylake dann wieder entfernt. Die wären also selbst bei identischem Sockel nie miteinander kompatibel gewesen.
 
Kann denn jetzt als bestätigt angesehen werden, dass die aktuellen Leistungsprobleme auf Asus beschränkt sind?
 
nein, denn eine plattform ist mehr als nur der Sockel, da gehören auch andere Dinge wie z.B. die Spannungsversorgung dazu und da hat Intel mit Haswell die Fully Integrated Voltage Regulators (FIVR) eingeführt und bei Skylake dann wieder entfernt. Die wären also selbst bei identischem Sockel nie miteinander kompatibel gewesen.
Ohne Not verändert. Sockelkompatibilität hätte über 10 Jahre nur ins Lastenheft gemusst und es wäre gegangen. Es war eine bewusste Designentscheidung das Gegenteil zu tun. Das ist der Punkt.
Kannst du verstehen, musst du aber nicht.
 
Zuletzt bearbeitet:
Ich habe hier selbst ein Ryzen und werde auch wechseln, weil die Leistungsaufnahme im Idle einfach zu hoch ist, dass die das diese Generation nicht gebacken bekommen haben, war ein K.O Kriterium für mich. Aber ja, unter Volllast ist AMD sehr effizient
Für mich auch ein wichtiger Punkt gewesen. Der 13600KF geht laut Throttlestop mit Grafikkarte in den C3 und runter bis auf 1,7 W. Steckdose zeigt 42W Idle mit ner RX 6800. Alles default nur Speicher auf XMP.
Das AMD System mit nem 5800X kam nicht unter 70 Watt. Allerdings: Der 5600G mit ner RX 6800 hatte ca. 55 Watt, der ist aber auch nicht so schnell.
 
Für mich auch ein wichtiger Punkt gewesen. Der 13600KF geht laut Throttlestop mit Grafikkarte in den C3 und runter bis auf 1,7 W. Steckdose zeigt 42W Idle mit ner RX 6800. Alles default nur Speicher auf XMP.
Das AMD System mit nem 5800X kam nicht unter 70 Watt. Allerdings: Der 5600G mit ner RX 6800 hatte ca. 55 Watt, der ist aber auch nicht so schnell.
Ich hab grade mal nachgeschaut aus Neugierde.
System siehe Sysinfo, Sleepstates auf dem 3600er komplett deaktiviert, dafür hart untervoltet. (mit sleepstates UND hartem untervolting wird er instabil)
Die 3060ti ist ebenfalls untervolted.

Die 3060ti gönnt sich am 4k/60 Monitor 18W idle, der R5 3600 gönnt sich 24W idle (aber halt voller Takt, da keine Sleepstates).

Spannend wirds bei dem System unter Last, da ist die 3060ti bei 150W und der Ryzen bei unter 30W.
Irgendwie fehlt mir der 5800X3D in den Spiele Benchmarks....
Schau im Test von LTT. Da ist er dabei.
Wichtig: Schau dir einen 5800x3d an um zu wissen bei welchen Spielen der L3 cache rockt und wo er verpufft.
 
Ich hab grade mal nachgeschaut aus Neugierde.
System siehe Sysinfo, Sleepstates auf dem 3600er komplett deaktiviert, dafür hart untervoltet. (mit sleepstates UND hartem untervolting wird er instabil)
Die 3060ti ist ebenfalls untervolted.

Die 3060ti gönnt sich am 4k/60 Monitor 18W idle, der R5 3600 gönnt sich 24W idle (aber halt voller Takt, da keine Sleepstates).

Spannend wirds bei dem System unter Last, da ist die 3060ti bei 150W und der Ryzen bei unter 30W.

Bzgl. Last Effizienz sind die Ryzens klasse, aber die Idle Werte des Gesamtsystems an der Steckdose sind komischerweise immer recht hoch. Da ich meinen Rechner gerne anlasse, ist das für mich schon wichtig.
 
Raptor Lake ist für mich das, was Alder Lake schon liefern sollte. Die Kritik am zu wenigen Effizienzkernen wurde gehört. Intel liefert damit in meinen Augen einen Alder Lake ohne seine Schwächen ab, vor allem im Bereich Kerne.

Was Strombedarf und Temperatur angeht, sry, falsche Richtung.

Hätte Intel die CPUs auf 95W TDP begrenzt und es den Usern überlassen, den TDP Deckel für OC aufzumachen, wäre es auch gut gewesen. Hohe Effizienz und für OC wäre noch was nach oben gegangen. Aber nein, so muss der User im Bios den Stromverbrauch zämen um einen vernünftigen Rechenknecht zu bekommen.

Bin gespannt, wie lange Intel noch die kleinen Luftquirle den CPUs beilegen kann, bei solchen Verbrauchswerten.
 
Was Strombedarf und Temperatur angeht, sry, falsche Richtung.

Hätte Intel die CPUs auf 95W TDP begrenzt und es den Usern überlassen, den TDP Deckel für OC aufzumachen, wäre es auch gut gewesen.
Erstens verwechselst du TDP mit dem Power Limit, vor allem PL1, denn während die TDP nur auf dem Papier steht, die CPU selbst kennt ihre TDP gar nicht, sind es die Power Limit (PL1, PL2 und Tau) die deren Leistungsaufnahme begrenzen und da leget der Mainboardhersteller die Defaultwerte fest, nicht Intel! Offenbar kann Intel die Mainboardhersteller auch nicht dazu zwingen dort Intels Vorgaben für die CPU als Default zu verwenden. Die Mainboardhersteller haben ja ein Interesse daran in den Mainboardreviews bei der CPU Performance vorne zu sein, denn vielen Usern scheint noch immer nicht klar zu sein, dass die Mainboards praktisch keinen Einfluss auf die CPU Performance haben, außer sie machen einen groben Fehler und der längere Balken im Review nur durch mehr OC in der Defaulteinstellung des BIOS zustande kommt.

Die meisten Kunden solcher CPUs und der Z Boards wollen ja auch die Höchstleistung und wer mehr Effizienz haben will, der muss eben selbst sinnvollere Power Limits im BIOS einstellen, so schwer ist das ja nun auch nicht.
Bin gespannt, wie lange Intel noch die kleinen Luftquirle den CPUs beilegen kann, bei solchen Verbrauchswerten.
Die K CPUs werden doch schon seit Skylake nur noch ohne Kühler verkauft.
 
Für mich auch ein wichtiger Punkt gewesen. Der 13600KF geht laut Throttlestop mit Grafikkarte in den C3 und runter bis auf 1,7 W. Steckdose zeigt 42W Idle mit ner RX 6800. Alles default nur Speicher auf XMP.
Das AMD System mit nem 5800X kam nicht unter 70 Watt. Allerdings: Der 5600G mit ner RX 6800 hatte ca. 55 Watt, der ist aber auch nicht so schnell.
Der 5600G ist halt kein Chiplet-Die. Bei mir genehmigt sich die 6800XT nicht viel, aber der 3950X ist schon auf etwa 35-40W, wenn ich es auf dem normalen Powerplan lasse. Wenn ich da einen anderen Powerplan nehme, geht er auf 25W (CPU Only) runter, aber die Performance unter Windows fühlt sich etwas ruckelig und langsamer an. Da ich oft im Idle bin, ist damit Ryzen bei mir raus.. Der i5 sieht da echt verlockend aus.
 
Kann denn jetzt als bestätigt angesehen werden, dass die aktuellen Leistungsprobleme auf Asus beschränkt sind?
Werde ich dir spätestens morgen Abend beantworten können. Da wandert der 13900KF auf mein Gigabyte Z690M Elite DDR4 Board
 
Der i5 sieht da echt verlockend aus.
Für mich der Preis Leistungs König zur Zeit und im Vergleich zum 7600X (ungefähr gleicher Preis) durch die zusätzlichen 8 E-Cores auch noch ein Multicore Monster.
 
Naja, dafür ziehen die AMD CPUs gerade im Idle/Desktop deutlich mehr sobald man den RAM mit höherem Takt betreibt, was ich besonders bei Tests kritisch sehe sobald sowas nicht mehr explizit da steht.
Wie oft ist deine System im Idle? Idle bedeutet nämlich es läuft nur das OS und kein anderes Programm.
Interessant ist eher der Verbrauch z.b. beim surfen o.ä. Also Szenarien mit geringer Last.
 
Leider ist Sockel 1700 mit Raptor Lake halt auch schon wieder tot. Weitere CPU Generationen wird es dafür nicht geben und das nächste Upgrade wird mit neuem notwendigen Mainboard direkt wieder richtig teuer.

Andererseits wie lang nutzt du eine CPU? 4 Jahre (so mein Upgradezyklus wenn er wirklich kurz ist)? 5 oder mehr? Da ist ja spätestens sowieso ein neuer Unterbau nötig schon allein wegen der veralteten Plattform Ausstattung unabhängig davon ob die CPU drauf passen würde oder nicht. Klar wenn du alle 2 Jahre CPU wechselst (warum auch immer - wirklich Mehrleistung kriegst du in dem Zeitraum ja nicht) dann ists bitter...
 
Wie oft ist deine System im Idle? Idle bedeutet nämlich es läuft nur das OS und kein anderes Programm.
Interessant ist eher der Verbrauch z.b. beim surfen o.ä. Also Szenarien mit geringer Last.
Da knallt es doch auch auf die Decke, die Dinger sind einfach nur bei Vollast effizient und unter Idle/Teillast einfach nicht effizient. Lass mal ein Video bei einer Radeon 6000 laufen, da geht der VRAM Takt genauso an die Decke und die Leistungsaufnahme für ein Video beträgt dann (nur von der GPU) 35-40W. AMD hat große Probleme damit und wie es aussieht, bekommen Sie es nicht in den Griff. Du kannst mir glauben, dass da AMD echt komische Probleme hat, meistens findest du solche Sachen nicht in den Tests, aber wenn du es mal selber nutzt, merkst du es.
 
die CPU selbst kennt ihre TDP gar nicht, sind es die Power Limit (PL1, PL2 und Tau) die deren Leistungsaufnahme begrenzen und da leget der Mainboardhersteller die Defaultwerte fest, nicht Intel!
Das möchte ich jetzt gerne mal bezweifeln, Intel liefert die ME Firmware, wenn die Murks ist, geht gar nix. Da kannst auch mit Brecheisen und 4095W Limits (bzw. Außerkraftsetzen solcher Limits im BIOS) im Mainboard nix dran ändern. Siehe die Problematik einiger User und mir in diesem Thread: https://www.hardwareluxx.de/community/threads/die-dinos-sind-da-die-raptor-lake-prozessoren-sind-
eingetroffen.1324429/
Alte ME Firmware -> kein höherer Multi möglich trotz K-CPU, Powerlimit war bei ~250-260W
Neue ME Firmware -> keine Einschränkungen mehr

Auch lässt sich eine Kommunikation zwischen CPU Voltage Controller, und VRM-Voltage Controller im BIOS unterbinden, warum gibt es die Option, wenn sowieso das Board alles bestimmt ?
 
Was Strombedarf und Temperatur angeht, sry, falsche Richtung.

Hätte Intel die CPUs auf 95W TDP begrenzt und es den Usern überlassen, den TDP Deckel für OC aufzumachen, wäre es auch gut gewesen. Hohe Effizienz und für OC wäre noch was nach oben gegangen. Aber nein, so muss der User im Bios den Stromverbrauch zämen um einen vernünftigen Rechenknecht zu bekommen.
das gleiche hat AMD mit zen4 aber auch verbrochen. nachvollziehen kann ichs bei beiden nicht. sowohl RL als auch zen4 liefern unter 100 watt fast schon die gleiche leistung ab wie weit jenseits von 200 watt und wer ans limit will ohne rücksicht auf verbrauch, abwärme, etc. der greift meist sowieso zu oc.
nach dem 5800X3D hatte ich die hoffnung, dass zumindest AMD das kapiert hätte. aber pustekuchen, der 5800X3D bleibt eine eintagsfliege.
 
So ist es, danke für die sehr reflektierte Einschätzung.
So ganz reflektiert ist meine Meinung nicht gewesen.

Ein 12600K kostet 324€ und wird bei Spiele um 13% vom 7600X geschlagen. Bei Multi-Anwendungen sind beide gleich auf. Aktuell liegt der Preis für den 7600X bei 350€. Insofern müsste der 7600X um ~30€ fallen um letztlich sogar einen P/L Sieg erringen zu können.

In Multi-Anwendungen und bei Spiele wird der 12700K vom 13600K geschlagen, trotzdem ist der 12700K auch noch teurer als der 13600K. Intel hat ganz klar eine Preisschlacht losgetreten mit der Folge, dass Intel eigene CPUs der 12. Reihe deutlich zu teuer sind.

Ich meine, ein 13600K ist ~19% teurer als ein 12600K, schlägt aber den 12600K bei Spiele um 33% und in Anwendungen (Multi) um 41%. Insofern müsste der 7600X nur auf 320€ fallen, um gegenüber beiden CPUs gute Konkurrenz bieten zu können.

Letztlich werden auch bei Intel viele CPUs im Lager liegen bleiben. Hier wird sich nach meiner Einschätzung wieder mal zeigen, dass Konkurrenz mehrheitlich nichts positives ist, sondern eine reine Ressourcenvernichtung ist.
 
Der 5600G ist halt kein Chiplet-Die. Bei mir genehmigt sich die 6800XT nicht viel, aber der 3950X ist schon auf etwa 35-40W, wenn ich es auf dem normalen Powerplan lasse. Wenn ich da einen anderen Powerplan nehme, geht er auf 25W (CPU Only) runter, aber die Performance unter Windows fühlt sich etwas ruckelig und langsamer an. Da ich oft im Idle bin, ist damit Ryzen bei mir raus.. Der i5 sieht da echt verlockend aus.
Sind die 5000er G-Modelle nicht umgelabelte mobile APUs der Vorgängergeneration? Irgendwas war doch da... Jedenfalls können die G-Modelle schon sehr sparsam sein im idle, hatte schließlich selbst einen 5600G (und 5800H im Notebeook).

Bei den anderen Sachen muss man aber zustimmen. Sparsam im idle kann nur Intel wirklich gut und das dank SpeedShift und SpeedStep. Merke ich auch jetzt im direkten Vergleich mit dem i7-12700H. AMD hat solche Features leider nicht. Hier muss man manuell den Windows Energiesparmodus aktivieren, damit die CPU deutlich den Verbrauch reduziert (Vergleichstest), allerdings steht dann nicht die volle Leistung zur Verfügung, wenn man sie dann kurzfristig braucht.
 
nur mal doof gefragt: wäre es nicht sinnvoller gewesen DDR4 3200 zu nehmen, weil das wohl der verbreitetste DDR4 ist? geht dabei ja um aufrüster, die ihren alten ram noch behalten wollen und daher nicht auf DDR5 setzen, richtig?
 
Desweiteren muss man bei 4600 schon Gear 2 wählen sonst ist es nicht stabil, wenn es überhaupt startet.
 
Entnehm doch einfach die Werte ausm alder.lake test.
Warum nimmt man die nicht einfach von Redaktionsseite mit rein? Ist ja wohl klar, dass es die Leute mehr interessiert als ein 3900X.
 
Für mich auch ein wichtiger Punkt gewesen. Der 13600KF geht laut Throttlestop mit Grafikkarte in den C3 und runter bis auf 1,7 W. Steckdose zeigt 42W Idle mit ner RX 6800. Alles default nur Speicher auf XMP.
Das AMD System mit nem 5800X kam nicht unter 70 Watt. Allerdings: Der 5600G mit ner RX 6800 hatte ca. 55 Watt, der ist aber auch nicht so schnell.

Das ist auch der Grund wieso ich nach RL wechseln werde. 30W weniger IDLE bei einem 24/7 Rechner ist schon enorm. Die TDP muss man dann aber auch auf 105W setzen. Dann hat man ein super kühles und Stromspar System. Und trotzdem bei Gaming schneller als Zen4.
Beitrag automatisch zusammengeführt:

Entnehm doch einfach die Werte ausm alder.lake test.
Es ist Ratsam alle Benches neu zu machen.
Während AMD durch Bios Updates und Treiber im laufe der Zeit immer langsamer wird. Wird Intel durch Bios Updates und Treiber schneller. Das ist schon mehrfach aufgefallen und zum RL Test muss man einfach alles neu Benchen mit aktuellen BIOSen(UEFIS)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh