Intel Core i9-14900KS: Weitere Hinweise auf das Spitzenmodell

In Starfield auch. Mit dlss sogar noch krasser da dies ja auf einer niedrigen Auflösung skaliert

Ich könnte mir vorstellen, dass ein andrer 14900K 10w mehr oder weniger verbraucht, da jede CPU ihre eigene VID und V/F Points hat.
Aber klar, der Unterschied zum AMD ist groß, wenn du darauf hinaus willst.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie jetzt? Ich dachte Intel säuft nur in Cinebench so viel. Und wer spielt das schon den ganzen Tag lang? Und und überhaupt , das ist doch sowieso nur wegen der Bi0S EiNstELluNgeN!!! In Real Life ist Intel nämlich brutal effizient. Muss man wissen!!1elf

Hab ich hier im Forum von unserem Holt gelernt.
 
Wie jetzt? Ich dachte Intel säuft nur in Cinebench so viel. Und wer spielt das schon den ganzen Tag lang? Und und überhaupt , das ist doch sowieso nur wegen der Bi0S EiNstELluNgeN!!! In Real Life ist Intel nämlich brutal effizient. Muss man wissen!!1elf

Hab ich hier im Forum von unserem Holt gelernt.
Ich auch:) holt und ich sind ein gutes Aufklärungsteam.
 
Hab ich hier im Forum von unserem Holt gelernt.

Er hat aber schon nicht ganz unrecht, der Verbrauch der CPUs wird durch die Einstellungen im Bios bestimmt.
Leider wird auch selten nach der Vorgabe von Intel getestet, weil die Boardhersteller schon im Default die Vorgaben nicht einhalten.
 
Mit Vorgabe von Intel sind die Dinger halt auch signifikant langsamer. Das fällt bei dieser Argumentation immer geflissentlich unter den Tisch. Uppppps. 🤷
 
Aufklärungsteam? Du meinst eher das „auf Krampf Intel Verteidigungsteam“. :fresse:
Bin im anderen Aufklärungsteam :) Ich zeige hier ja die Tatsachen das alle weltweiten Reviews belegen und das zeigt kein gutes Licht für die gens 10-11-12-13-14 was den immer höheren Verbrauch angeht.
 
Er hat aber schon nicht ganz unrecht, der Verbrauch der CPUs wird durch die Einstellungen im Bios bestimmt.
Leider wird auch selten nach der Vorgabe von Intel getestet, weil die Boardhersteller schon im Default die Vorgaben nicht einhalten.

Wow da muss ich mal dazwischen greifen.
Hwluxx hat bei Alderlake und erster Raptorlake Gen. nach Intel Vorgaben getestet. Auch Igorslab hat das getan. Bei den anderen weiß ich jetzt nicht , aber ja wurde auch schon mit Intel specs getestet.
Nur viele wollen auch sehen was offen geht.
 
Bin im anderen Aufklärungsteam :) Ich zeige hier ja die Tatsachen das alle weltweiten Reviews belegen und das zeigt kein gutes Licht für die gens 10-11-12-13-14 was den immer höheren Verbrauch angeht.

Alderlake war doch top seiner Zeit .
Lese mal die Reviews darüber.

Selbst die 13. Gen ist anfangs garnicht so schlecht weg gekommen in den Reviews wo auch mit Intel specs getestet wurde. Dann kam der X3D und das Blatt hat sich gewendet. Ganz einfache Sache. In Bezug jetzt auf effizient.
 
Hwluxx hat bei Alderlake und erster Raptorlake Gen. nach Intel Vorgaben getestet. Auch Igorslab hat das getan.
Eben und Igorlab ermittelt auch die Leistungsaufnahme bei Spielen und gerade bei höheren Auflösungen ist diese dann eigentlich immer unter dem was Intel als TDP angibt und als Einstellung für das PL1 Power Limit empfiehlt.
Nur viele wollen auch sehen was offen geht.
Klar, aber die pfeifen dann auch auf die Leistungsaufnahme und Effizienz, was Nuestrass aber eben nicht einzieht und ihnen weiterhin predigt. Gerade die Käufer von den K CPUs wollen eben meist die Höchstleistung rausholen und die eines KS erst recht. Denen was von hoher Leistungsaufnahme zu erzählen, interessiert sie nur in soweit wie deren Kühllösung das hinbekommt oder ob sie da auch aufrüsten müssen und was von schlechter Effizienz zu predigen, ist total vergebene Mühe. Aber ein Fleißbienchen bekommt Nuestrass dafür sicher, auch wenn er deswegen keine Zeit hat seine sicher vorhandene (er gibt ja gar nicht an welche CPU er hat) super effiziente X3D CPU zum Spielen zu nutzen und beim Surfen, also mehr oder weniger nur Idle, die Dinger leider keine konkurrenzfähige Leistungsaufnahme, sondern eher 20W als die 2W die mein 13900K braucht und wenn ich noch C7 aktivieren, dürfte es noch weniger werden.
Dann kam der X3D und das Blatt hat sich gewendet.
Aber auch nur was Gaming und die Leistungsaufnahme dabei angeht.
 
Glaube in Anwendungen war aber der 7950X3D effizienter als der 13900k , wenn ich das richtig in Erinnerung habe.
Dann gibt es auch die non X3D die höher Takten und besser in Anwendungen sind.
Müsste ich jetzt nachschauen tatsächlich.

Allgemein wie du auch sagst ist Idle sowohl die AMD CPUs wie auch die X670E chipsätze nicht so sparsam. Das sollte man auch nicht vergessen. Je nachdem was man mit dem System macht sollte am Ende in der Rechnung beim Strom der unterschied marginal ausfallen.
 
Zuletzt bearbeitet:
Glaube in Anwendungen war aber der 7950X3D effizienter als der 13900k , wenn ich das richtig in Erinnerung habe.
Da muss man aber dann genau hinsehen, denn wenn der 13900K natürlich an die Kotzgrenze übertakt betrieben wird, dann ist die Effizienz natürlich mies, viel schlechter als wenn man dessen PL1 vernünftig setzt und dann gibt es da noch das Thema der PPT bei AMD, die TDP bzw. eben der Eco Modus bei denen bezieht sich nur auf die Leistungsaufnahme der Kerne selbst, nicht wie bei Intel auf die Package Power und letztere ist bei AMD dann mehr als 20W höher als die der Kerne.

Lies man wirklich diesen Beitrag hier:

Da hatte ich das mal durchgekaut und selbst Anandtech hat damals beim Vergleich der des 7950X und des 13900K bei verschiedenen Power Limits/Eco Modes Äpfel mit Birnen vergleichen und bei AMD nur die Leistungsaufnahme der Kerne statt der des ganzen Packages genommen. Wenn man aber statt 65W aber in Wahrheit eine Package Power von 88W oder 90W hat, dann ist dies eben kein sinnvoller Vergleich zu einer CPU die wirklich nur 65W Package Power zieht.

Aber ja, im oberen Power Bereich ist der 7950X effizienter, aber im unteren und damit insgesamt ist es der 13900K, denn da verhagelt dem 7950X dessen hohe Idle Leistungsaufnahme die Effizienz. Aber so wirklich verwunderlich ist das nicht, der 13900K ist in Intel 7 gefertigt, den Prozess hat Intel ja extra so genannt, weil er eben mit den N7 Prozessen von TSMC vergleichbar ist und die CPU Chiplets der RYZEN 7 sind in einem N5 Prozess gefertigt, also eine Generation moderner. Aber mit Arrow Lake wird sich das umdrehen, überspringt Intel die Intel 4 und Intel 3 Fertigung um direkt auf Intel 20A zu gehen, während AMD nur von N5 auf N4 geht, was ein halbe Generation ist, eher ein optimierter N5 als eine neue Fertigungsgeneration.
 
Eben und Igorlab ermittelt auch die Leistungsaufnahme bei Spielen und gerade bei höheren Auflösungen ist diese dann eigentlich immer unter dem was Intel als TDP angibt und als Einstellung für das PL1 Power Limit empfiehlt.
Also im GPU Limit: Dann wenn die CPU sowieso nur schläft verbraucht sie nicht mehr als die Herstellerangaben. Ich weiss ja nicht ob ich das als etwas positives hervorheben würde.
 
Leider wird auch selten nach der Vorgabe von Intel getestet, weil die Boardhersteller schon im Default die Vorgaben nicht einhalten.
Erzähl keine Unwahrheiten.

HWL
Vorweg: Wir testen die Prozessoren immer unter den TDP-Vorgaben der Hersteller. Für die Raptor-Lake-Refresh-Prozessoren bedeutet dies, dass wir das PL1 von 125 W und PL2 von 253 W für den Core i7-14700K und Core i9-14900K manuell im BIOS festgelegt haben. Für den Core i5-14600K haben wir die Werte auf 125 / 181 W eingestellt. Allesamt haben die Prozessoren den Parcours aber auch unlimitiert durchlaufen.

Und auch CB gibt Werte mit 253W und offen an.

Mit Vorgabe von Intel sind die Dinger halt auch signifikant langsamer.
Also signifikant ist einfach übertrieben, weil es zu pauschal ist.
Echt, auch in Spielen?
Es gibt auf HWL die Möglichkeit sich zu informieren. Insofern zeige ich nur ein krasses Beispiel, dann bleibt dies bei dir hängen, weil du eh nicht die anderen Benches anschauen wirst.

Bei den Frametimes sind es 20%
1708156110084.png


Bei der Leistungsaufnahme in Starfield sind es rund 90W mehr auf 226W
1708156413006.png


Wichtig ist nur, immer schön den Hersteller loben, der gerne Benches manipuliert und Hauptsache Idle.

Optimierte Benchmarks: SPEC erklärt über 2.500 Resultate mit Intel-CPUs für ungültig
 
Zuletzt bearbeitet:
Leider wird auch selten nach der Vorgabe von Intel getestet, weil die Boardhersteller schon im Default die Vorgaben nicht einhalten.
Wir testen stets nach den Intel-Vorgaben. Ausgenommen sind bei meinen Mainboard-Tests die Werte zur Leistungsaufnahme. Und dort lässt sich festhalten, dass die Mainboards per default mit offenen Limits arbeiten.
 
Ausgenommen sind bei meinen Mainboard-Tests die Werte zur Leistungsaufnahme.
Warum macht ihr das nicht auch mit beiden Einstellungen? Außerdem muss man natürlich bei den Einstellungen nach Intel Vorgaben beachten, dass die Leistungsaufnahme der CPU (Package Power) für Tau eben PL2 betragen kann und danach dann auf PL1 fällt. Innerhalb der ersten 56s bekommt man also eine höhere Leistungsaufnahme als danach.
 
Jetzt schon die Single Core Performance von Zen5 bekommen, dafür Strom zahlen. 🤷‍♂️
 
Zuletzt bearbeitet:
Strompreise sinken ja wieder, geht klar. :d
 
Jetzt schon die Single Core Performance von Zen5 bekommen, dafür Strom zahlen. 🤷‍♂️
Kann man auch anders sehen: Mit Zen5 wird es die erhöhte Single-Core-Performance zu einer (vermutlich) besseren Effizienz geben.
 
Mit Zen5 wird es die erhöhte Single-Core-Performance zu einer (vermutlich) besseren Effizienz geben.
Mit Arrow Lake ebenso, aber erst in mindestens einem halben Jahr und wer nicht warten will, der kann es eben nur mit dem 14900KS schon vorher bekommen. Das die Nachfolger schneller als ihre Vorgänger sein müssen, ist praktisch Gesetz, denn wer will sie sonst kaufen? Kommen die Nachfolger auch noch aus einer neuen, moderneren Fertigung, dann gewinnt man auch bei der Effizienz und da sollte Intel mit dem Sprung von Intel 7 auf Intel 20A gewaltig Potential haben.

Vergesst nicht, das AMD derzeit den Vorteil bzgl. der Fertigung hat, die CPU Chiplets der RYZEN 7000 sind in N5HPC gefertigt und Intels Raptor Lake in Intel 7, also einem Prozess der eher mit TSMCs N7 Prozessen vergleichbar ist. Bei den RYZEN 9000 dürfte es entweder N4X oder N3P werden, N3X für High Performance Chips soll erst 2025 in die Massenfertigung gehen, also zu spät wenn die CPU noch dieses Jahr auf den Markt kommen sollen. N3X und N4X erlauben im Vergleich zu N3P und N4P mehr Spannung und damit eben mehr Takt, aber auf Kosten der Leckstöme und damit Effizienz.

Vielleicht hat AMD die IPC ja deshalb mit mehr Einheiten pro CPU so massiv gesteigert, dass sie auch mit den Taktraten auskommen die N3P erlaubt und die CPUs trotzdem schneller sind und trotz der zusätzlichen Transistoren für diese Einheiten auch effizienter. Dagegen wird Intel 20A schon mit RibbonFET (Gate-All-Around) und PowerVias (backside power delivery) kommen, Features die TSMC erst mit N2P bringen wird, dessen Massenfertigung erst für 2026 geplant ist, während Intel die Massenfertigung in Intel 18A von 2025 auf das zweite Halbjahr 2024 vorgezogen hat.
Von der Fertigung her, wird Intel mit Intel 20A also wieder vorne liegen und dies sollte Intel ermöglichen auch bzgl. der Effizienz mit Arrow Lake vorne zu liegen. Die Fertigung ist eben der Schlüssel zur Effizienz und natürlich muss man seine Transistoren, die man bzgl. Platz und Leistungsaufnahme dann unterbringen kann, halt auch vernünftig verwenden um die Performance zu steigern. Hier ist meine Sorge Intel könnte sich da zu viel auf AI konzentrieren und zu wenig auf die normale CPU Performance und ich weiß nicht wo mir diese AI Erweiterungen im Alltag Vorteile bringen werden.
 
Bleibt die TDP für den 14900Ks etwa doch bei 125Watt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh