Core i9-13900K unlimitiert bis 5,8 GHz: 40.000 Punkte bei 345 Watt in Cinebench R23 geknackt

Wurde ja schon genug geschrieben über dem Stromverbrauch, aber möchte das auch nochmal bekräftigen.
Das wird ja immer schlimmer, GPU , CPU.
Irgendwie produzieren die am Markt vorbei.
Wer kauft sich sowas, klar Reiche denne es egal ist, das dürfte aber nicht die Masse, zu der ich mich zähle, sein.
Ich undervolte schon meine 6900XT da ich ab 200W, nur GPU Verbrauch, Augenkrebs bekomme.
Dann noch die CPU, nen bissel sonstiges und der Monitor - ich denke habe 400 - 500 Watt (bei gedrosselten CPU und GPU).
Und ist eigentlich totaler Schwachsinn, sich was schnelles zu kaufen und dann zu undervolten.
Viel schlimmer ist es bei Nvidia- klar sind die teilweise schneller, das kommt aber nur daher , mehr Strom mehr Power.
Ich kaufe den Müll nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wurde ja schon genug geschrieben über dem Stromverbrauch, aber möchte das auch nochmal bekräftigen.
Das wird ja immer schlimmer, GPU , CPU.
Irgendwie produzieren die am Markt vorbei.
Wer kauft sich sowas, klar Reiche denne es egal ist, das dürfte aber nicht die Masse, zu der ich mich zähle, sein.
Ich undervolte schon meine 6900XT da ich ab 200W, nur GPU Verbrauch, Augenkrebs bekomme.
Dann noch die CPU, nen bissel sonstiges und der Monitor - ich denke habe 400 - 500 Watt (bei gedrosselten CPU und GPU).
Und ist eigentlich totaler Schwachsinn, sich was schnelles zu kaufen und dann zu undervolten.
Viel schlimmer ist es bei Nvidia- klar sind die teilweise schneller, das kommt aber nur daher , mehr Strom mehr Power.
Ich kaufe den Müll nicht.
Ja lieber nur sparen sparen sparen und sich das Geld mit ins Grab nehmen.
Leider leben viele so und geizen ihr, leben lang.
Einfach raushauen und genießen und nicht nur an die Zukunft denken, denn wenn man Pech hat, gehst morgen "drauf" ✝️ und dann hat sichs nicht gelohnt zu geizen :d
 
Ich hätte den 12900K gerne mit 10-12 P Kernen gesehen. Aber vermutlich sind 10 nm dafür noch zu "groß".
8 P Kerne und das E-Gelumpe will doch keiner.
Was ist an dem "E-Gelumpe" so schlecht ? Das sind von der Leistung/IPC quasi Skylake-Kerne, also sind die Intel CPU Reihen der 6.Gen bis zur 10.Gen jetzt "Gelumpe" ?
 
Bei allem Respekt für diese leistung von Intel aber 50% schneller als ein 5950X bei 2x Energieverbrauch das doch nicht euer ernst?
 
Was ist an dem "E-Gelumpe" so schlecht ? Das sind von der Leistung/IPC quasi Skylake-Kerne, also sind die Intel CPU Reihen der 6.Gen bis zur 10.Gen jetzt "Gelumpe" ?
Naja, im zeitlichen Zusammenhang gesehen? Ja, würde ich klar sagen ist es "nur" noch Gelumpe.
IPC ist das eine - mit unter 4GHz ist das halt auch einfach mal 25% und mehr unterhalb dessen was die anderen Kerne können.

Muss man halt in Relation sehen. Die 8 E-Cores des aktuellen Alder Lake sind langsamer als ein auf durchaus nicht unübliche 4,5GHz übertakteter Haswell-E aus 2014. Ruft einen das in 2022 hinterm Ofen vor? mMn nicht.
Der Schuh wird aber deswegen Rund, wenn man nicht mit Allcore OC und ner fetten custom Wakü davon ausgeht, dass so ne CPU auch mit 10 oder 12 Kernen bei 5GHz Volllast laufen wird. Was sie eben nicht schafft.
In Stock Settings sinkt der Takt so starkt, dass die E-Cores in mehr Leistung resultieren werden. Denn 4 E-Cores machen ca. die Fläche von einem P-Core, sind aber in MT schneller. Man benötigt halt mehr Threads um diese auszulasten und bekommt kein AVX512.

Am Ende ist die Frage nur, wo ist der beste Cut. Bei 8C? Bei 10C? Bei 12C? Oder hätten auch 4 oder 6C gereicht? -> mMn sind das nur persönliche Vorlieben. Man wird immer wen finden, der meckert.
Bei allem Respekt für diese leistung von Intel aber 50% schneller als ein 5950X bei 2x Energieverbrauch das doch nicht euer ernst?
Ist halt ein unfairer Vergleich. 250W kann ein 5950X auch - der gewinnt dann vllt 15%, lass es 20% sein im besten Fall. Und 140W wird ein 13900er auch können - er wird weit weniger wie seinen Vorteil einbüßen. Voll im Powerlimit des einen ggü. offen oder viel weniger restriktiv beim anderen ist zwar ein valider Vergleich, aber unfair, da der restriktierte Ryzen faktisch nur gewinnen kann. Du hast doch selbst nen 5950X. Leg mal nen Rendertask auf den zweiten CCD und spiel mit 142W Stock Powerlimit ein latenzkritisches Game auf dem ersten CCD. -> du wirst 20, 25% Leistung verlieren ggü. einer Messung ohne Last auf dem zweiten CCD. Denn der Takt fällt auf phasenweise unter 4GHz ggü. den vorher knapp bis über 5GHz. Das nicht zu erzeugen ist der Sinn hinter diesen augenscheinlich beschissen hoch gewählten Powerlimits. Im Teillastbereich bringt es viel Leistung und unter Volllast schwindet dafür prinzipbedingt die Effizienz, denn die Taktraten steigen und die dafür notwendigen Spannungen werden mit hoch schießen -> was den Verbrauch durch die Decke schießt ;)

Btw. 50% ist sogar zu hoch gegriffen. Mein 5950er erreicht ca. 26000-26500 Punkte im R23. Das sind eher 30-35% zu den 35000. ;) Laut Computerbase sogar 28000 - aber die haben halt ein golden Sample oder geschönte Settings mit ihrem 5950er, der schafft auch 10400 R20 Punkte, was so nicht normal ist.
 
t halt ein unfairer Vergleich. 250W kann ein 5950X auch - der gewinnt dann vllt 15%, lass es 20% sein im besten Fall.
Mit dem 5900X habe es mal versucht zu testen. Halte die besagten 15% Mehrleistung eher für unrealistisch, zumindest im CB R23. Oberhalb von 150w wird Ryzen sehr ineffizient und oberhalb von 200w kaum noch kühlbar. So sahen meine Ergebnisse damals aus:

1660059884346.png

Geht man davon aus, dass die 142w PL die Baseline sind, erhöht sich die Mehrleistung bei einem Anstieg auf ein 198w (200w) PL (+39,44%) gerade mal um 3,12% (22.564 --> 23.268 Punkte). Treibt man's auf Spitze mit offenen Limits und manuellem OC, was in meinem Fall bei 234w war, steigt die Mehrleistung gerade auf 9,73% an. Also fast 100w (142w --> 234w/ +64,79%) mehr verbraten für nicht mal 10% Mehrleistung.
 
  • Danke
Reaktionen: Tzk
Bei 180-190W liege ich schon bei 29xxx Punkten. Schankt im Verbrauch bei HWInfo bei mir immer etwas in Abhängigkeit der Temp und PBO. Ausgehend von den 26000-27000 mit 142W. Das skaliert beim 16C schon - die Basis ist halt viel niedriger als beim 12C. Entsprechend gewinnst du oben mehr @Induktor :wink:

Aber ob das jetzt 14, 15 oder 16% sind - das "vllt" davor impliziert, dass es da eher um eine Nennung einer Größenordnung geht. Schlimmer noch, es ist absichtlich wohlwollend formuliert mit den, lass es 20% sein.
 
Mit OC 345 Watt, was regt ihr euch denn auf, bei +8 E-Kernen, der 12900K mit OC hatte 318Watt und der 11900K hatte mit OC 326 Watt, bei dem kam aber nicht mehr viel Leistung rüber.
1660062712047.png

Wer kein OC betreiben möchte, braucht sich doch über die 345 Watt keine Gedanken zu machen.
 
Zuletzt bearbeitet:
8 P Kerne und das E-Gelumpe will doch keiner.
Dafür das es angeblich keiner will, verkaufen die sich aber ganz gut. Keine Ahnung was für ein Problem machen mit den e-Kernen haben, aber das Konzept ist in sich stimmig, die P-Kerne sind für Anwendungen die nur wenige Kerne auslasten wie Games und die e-Kerne pushen die Multithreadperformance gewaltig bei Anwendungen die alle Kerne gut auslasten können, ohne dass die Diegröße oder Leistungsaufnahme deswegen aus dem Ruder laufen. Bzgl. der Leistungsaufnahme hat es natürlich jetzt selbst in der Hand diese in irrationale Bereiche zu treiben, aber bei moderaten Power Limits ist die Effizienz sehr gut.

Die IPC Gewinne sehen für Zen4 bis jetzt mit 10% sehr überschaubar aus, gleichzeitig wird entgegen der Strategie von Intel auf einen kleinen Kern optimiert. Mit 72,23 qmm sind das noch mal fast 12 weniger als bei Zen3.
Wieso kleine Kerne? Die Grüße auf dem Die wird schon wegen dem Wechsel von 7nm auf 5nm Fertigung kleiner und bedeutet nicht, dass es kleine Kerne im Sinne der e-Kerne einer Hybridarchitektur wären.
 
Was ist an dem "E-Gelumpe" so schlecht ? Das sind von der Leistung/IPC quasi Skylake-Kerne, also sind die Intel CPU Reihen der 6.Gen bis zur 10.Gen jetzt "Gelumpe" ?
Was daran so schlecht sein soll? Mein Videoschnittprogramm lässt diese Kerne links liegen und nimmt nur die 8 P Kerne.
Werfe ich das ganze auf meinem alten "Dicken" an, dann habe ich da 18 Kerne, die dann die 8 P Kerne von AL locker durch den Fleischwolf drehen. Zudem bringt mich AVX512 aus dem alten 10980XE noch weiter voran.
 
Was daran so schlecht sein soll? Mein Videoschnittprogramm lässt diese Kerne links liegen und nimmt nur die 8 P Kerne.
Dann hat ja wohl eher das Programm schuld als die e-Kerne, oder? Gibt es kein Update welches dazu in der Lage ist alle Kerne zu nutzen?
Zudem bringt mich AVX512 aus dem alten 10980XE noch weiter voran.
Dabei heißt es doch immer, dass AVX512 für Heimanwender nichts bringt.....
 
machen die ecores wenigestens was wenn man zockt? z.b. windows auf die ecore verlagern oder sowas ähnliches? afaik bringen die nem normalen user ja aktuell eher wenig
 
afaik bringen die nem normalen user ja aktuell eher wenig
Dem normalen User bringen mehr als 8 Kerne eher wenig, außer er hat eben Anwendungen die so viele Kerne nutzen können und dann sollten ihm auch die e-Kerne einiges bringen, wenn das Programm in der Lage ist diese zu nutzen. Ältere Programme müssen da ggf. angepasst werden und man kann auch selbst einige Probleme beheben, indem man z.B. die Priorität der Threads anpasst.
 
Was daran so schlecht sein soll? Mein Videoschnittprogramm lässt diese Kerne links liegen und nimmt nur die 8 P Kerne.
Werfe ich das ganze auf meinem alten "Dicken" an, dann habe ich da 18 Kerne, die dann die 8 P Kerne von AL locker durch den Fleischwolf drehen. Zudem bringt mich AVX512 aus dem alten 10980XE noch weiter voran.
Wenn du mit deinen Videoschnittprogramm auch gleichzeitig AVX-512 nutzt, wenn noch vom UEFI supportet, dann wundert es mich wenig, dass die E-Cores nicht genutzt werden.
Ansonsten sollte das Core Management doch der Intel TD übernehmen. ;)
 
Zuletzt bearbeitet:
Wenn du mit deinen Videoschnittprogramm auch gleichzeitig AVX-512 nutzt, wenn noch vom UEFI supportet, dann wundert es mich wenig, dass die E-Cores nicht genutzt werden.
Spieluhr, wie immer keine Ahnung aber viel Meinung! Wenn die e-Kerne im BIOS aktiv sind, ist AVX512 immer deaktiviert und daher kann nie AVX512 mit aktiven e-Kernen genutzt werden, egal welche BIOS Version man verwendet. In dem Fall sieht man die e-Kerne also auch nicht im Task Manager, sie sind ja deaktiviert.
 
....schafften die E-cores denn 4,3 GHZ beim 12900K ? Ich meine etwas von 4,1GHZ gelesen zu haben....
 
Wurde ja schon genug geschrieben über dem Stromverbrauch, aber möchte das auch nochmal bekräftigen.
Das wird ja immer schlimmer, GPU , CPU.
Irgendwie produzieren die am Markt vorbei.
Wer kauft sich sowas, klar Reiche denne es egal ist, das dürfte aber nicht die Masse, zu der ich mich zähle, sein.
Ich undervolte schon meine 6900XT da ich ab 200W, nur GPU Verbrauch, Augenkrebs bekomme.
Dann noch die CPU, nen bissel sonstiges und der Monitor - ich denke habe 400 - 500 Watt (bei gedrosselten CPU und GPU).
Und ist eigentlich totaler Schwachsinn, sich was schnelles zu kaufen und dann zu undervolten.
Viel schlimmer ist es bei Nvidia- klar sind die teilweise schneller, das kommt aber nur daher , mehr Strom mehr Power.
Ich kaufe den Müll nicht.
Du gehörst dann halt einfach nicht zur Zielgruppe, du gehst ja auch nicht zum Audi und beschwerst dich warum die Kisten so teuer sind und 3L V8 haben. Das hat nichts mit "reich" zu tun.
Die ganzen Leute, die sich hier aufregen, dass man mal 350W für 2 min benchmark durch die CPU jagt sind auch absolut lächerlich. Dein Staubsauger verbraucht mehr und du lebst trotzdem nciht im Dreck oder? Niemand zwingt dich, deine CPU mit 4095W limit zu betreiben. Mit standard Intel power limits hast du genau die Leistung, die Intel von der CPU verspricht. Nicht mehr und nicht weniger. Keine Ahnung was daran so schwer zu verstehen ist. Für AMD und NVidia gilt genau das Selbe.

Und nein, es ist nicht Schwachsinn, sich was schnelles zu kaufen und dann zu undervolten, genauso wie es kein Schwachsinn ist einfach ein verdammtes powerlimit zu setzen.
 
Die ganzen Leute, die sich hier aufregen, dass man mal 350W für 2 min benchmark durch die CPU jagt sind auch absolut lächerlich.
Eben, es ist als würde sich jemand beschweren, dass sein Auto zwar mit 250km/h Höchstgeschwindigkeit und einem Verbrauch von 8l/100km angegeben ist, aber wenn er dann 250km/h schnell fährt, der Verbrauch viel höher ist.
 
Naja, im zeitlichen Zusammenhang gesehen? Ja, würde ich klar sagen ist es "nur" noch Gelumpe.
IPC ist das eine - mit unter 4GHz ist das halt auch einfach mal 25% und mehr unterhalb dessen was die anderen Kerne können.
Und wozu brauchen die meisten, einfachen Tasks mehr Leistung als diese Kerne liefern ? Ich hab ehrlichgesagt lieber 16 solcher E-Kerne, als 4 zusätzliche P-Kerne. Bringt mir im Endeffekt mehr MT-Leistung.
Muss man halt in Relation sehen. Die 8 E-Cores des aktuellen Alder Lake sind langsamer als ein auf durchaus nicht unübliche 4,5GHz übertakteter Haswell-E aus 2014. Ruft einen das in 2022 hinterm Ofen vor? mMn nicht.
Deswegen gilt da ja auch die Devise, mehr ist besser. Die 16 E-Cores von RPL werden jedenfalls wieder schneller als der 4,5GHz Haswell-E aus 2014, und laufen dabei wesentlich effizienter.
Man benötigt halt mehr Threads um diese auszulasten und bekommt kein AVX512.
Ja richtig, und für Software, die eben nicht so gut skalieren kann, gibt es bis zu 8 P-Cores. Optimaler Kompromiss aus ST-/MT-Leistung auf begrenzter DIE-Fläche.
AVX512 würde man theoretisch schon bekommen, wenn man die E-Kerne deaktiviert.
 
AVX512 würde man theoretisch schon bekommen, wenn man die E-Kerne deaktiviert.
Wobei ich mich frage ob es einen Zusammenhang zwischen der Verspätung von Sapphire Rapids und dem zwangsweise deaktivieren von AVX512 bei Alder Lake gibt.
 
Puhu......345 Watt Package Power....."brutzelig" :stupid::fire: und dann noch die uns wohl Alle beschäftigende Ungewissweit in Sachen künftige "Stromkosten". Na ja, ich bau dann schon mal meine mobile Klimaanlage um, mit entsprechendem "Direktrohr" ins Gehäuse meiner Kiste und den Verkauf meiner "Goldreserven" für die Stromrechnung. 🤣:o
 
Powerlimit.
 
Puhu......345 Watt Package Power....."brutzelig" :stupid::fire: und dann noch die uns wohl Alle beschäftigende Ungewissweit in Sachen künftige "Stromkosten". Na ja, ich bau dann schon mal meine mobile Klimaanlage um, mit entsprechendem "Direktrohr" ins Gehäuse meiner Kiste und den Verkauf meiner "Goldreserven" für die Stromrechnung. 🤣:o
Das toppt deine GPU aber locker...
 
Das toppt deine GPU aber locker...
Haha, datt stimmt, im Grunde hat man da immer den Gesamtverbrauch des Systems im Auge. Ich bezahle aktuell schon freiwillig eine höhere Strompauschale. 😬
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh