Core i9-14900KS: Intel bereitet doch eine Special Edition vor

Status
Für weitere Antworten geschlossen.
@Phoenix2000 : Was bringt denn deine CPU im CBR23 wenn du die PL auf max. 40W. setzt? Da dürfte die Mehrleistung rein nur noch über die Kerneanzahl ggü. kleinere CPUs stattfinden.
Höherer Grundtakt wäre quasi ausgehebelt, TAU ebendso.

Ich habe das einfach mal just for Fun anhand meiner kleinen 13500 getestet:

PL=40W. (TAU ausgehebelt):
Anhang anzeigen 946708 Anhang anzeigen 946709

PL=unlimited (TAU ausgehebelt):
Anhang anzeigen 946710 Anhang anzeigen 946711

..verbraucht scheinbar selbst PL unlimited in CBR23 weniger als von Intel vorgegeben (PL max 154W.) (y)


edit: Wann kommt denn nun die 14700 non_K? Weil die K-Prozis interessieren mich innerhalb der letzten Gens nicht mehr so sehr, nachdem ich von der 13600K alles andere als begeistert war (ging retoure).



Was ein Monitor verbraucht hängt immer damit zusammen wie der konfiguriert ist und ob der HDR Mode aktiv geschaltet ist. Bei einigen Games kann man das in den Grafiksettings wählen.
52W. für einen Monitor ist schon extrem viel. :unsure:
So sieht es bei 40W aus.Ist aber auch Useless ich will ja genug Leistung haben auch Multicore.
So bei 5Ghz ist die 4090 eigtl. ausgelastet und man hat genug FPS.Ich weiß nicht wie das bei AMD ist, aber jenseits der FPS und Frametime, ist der Intel halt was Microruckler angeht einfach Top.
Einer der Gründe wieso ich auch nix kleineres nehm, ist das man mittlerweile halt oft viel Shader kompilieren etc. hat, da brauchst du die Multicore Leistung.

Ich vermute das sie den KS mit 6,,2 und 5,8 bringen könnten, wobei die 5,8Ghz bei 150W packt der unter Volllast Gaming nicht.^^
Die 5,7Ghz packt der 14900K ja auch nicht bei 150W wie BF5 ohne Graka Limit^^.
1702056661936.png


P.S.
Mein Monitor zieht zwischen 50-85W meistens^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So sieht es bei 40W aus.Ist aber auch Useless ich will ja genug Leistung haben auch Multicore.
Natürlich. ;) ..ich wollte damit eigentlich auch nur sehen, das die Mehrleistung einer Highend CPU, wenn man diese enorm drosselt, zu einer Mittelklasse CPU (gedrosselt) rein nur noch über die Kerneanzahl stattfindet.
Ist doch auch einmal interessant die untersten Grenzen auszuloten als immer nur an den "Kotzgrenzen" herum zu kratzen und damit ständig den falschen Eindruck noch mehr manifestiert, eine Intel CPU saugt konstant den Saft aus dem deutschen Energienetz. Das stimmt so schlicht nicht und ist reine Einstellungssache.

Ich vermisse zb. in jedem bisher im Netz geposteten Review aktueller CPUs zb. Benchmarktests wo man den Verbrauch einer Highend AMD vs. Highend Intel CPU anhand eines fixen, identischen Endscore einmisst.
Da werden immer nur "Kotzgrenzen" Scores gemessen. Kann man machen, man kann aber auch mal objektiv vergleichen und sich die Arbeit machen, den Verbrauch auch dann auf den Verbrauch der Kerneanzahl zu splitten und anhand dessen, deren eigentliche Leistungseffektivität zu errechnen. Macht natürlich mehr Arbeit, wäre aber realistischer. Für werbefinanzierte Clickbait Reviews die ein ganz anderes Ziel verfolgen als zuvor genanntes natürlich dann nicht mehr so förderlich.
 
Zuletzt bearbeitet:
Natürlich. ;) ..ich wollte damit eigentlich auch nur sehen, das die Mehrleistung einer Highend CPU, wenn man diese enorm drosselt, zu einer Mittelklasse CPU (gedrosselt) rein nur noch über die Kerneanzahl stattfindet.
Ist doch auch einmal interessant die untersten Grenzen auszuloten als immer nur an den "Kotzgrenzen" herum zu kratzen und damit ständig den falschen Eindruck noch mehr manifestiert, eine Intel CPU saugt konstant den Saft aus dem deutschen Energienetz. Das stimmt so schlicht nicht und ist reine Einstellungssache.

Ich vermisse zb. in jedem bisher im Netz geposteten Review aktueller CPUs zb. Benchmarktests wo man den Verbrauch einer Highend AMD vs. Highend Intel CPU anhand eines fixen, identischen Endscore einmisst.
Da werden immer nur "Kotzgrenzen" Scores gemessen. Kann man machen, man kann aber auch mal objektiv vergleichen und sich die Arbeit machen, den Verbrauch auch dann auf den Verbrauch der Kerneanzahl zu splitten und anhand dessen, deren eigentliche Leistungseffektivität zu errechnen. Macht natürlich mehr Arbeit, wäre aber realistischer. Für werbefinanzierte Clickbait Reviews die ein ganz anderes Ziel verfolgen als zuvor genanntes natürlich dann nicht mehr so förderlich.
Schlussendlich muss man sagen FPS/Watt ist ganz klar Intel abgeschlagen, sie machen aber trotzdem mehr Spaß und man kann sie wesentlich kühler betreiben^^.
Die 6Ghz Boost beim 14900K mit 5,7Ghz Allcore ist gut gewählt, wenn man nen Top Chip hat ist die Leistungsaufnahme auch noch im "Rahmen", aber bei 6Ghz Allcore sprengst du halt die 200W Marke
selbst mit guter Kühlung und geköpft bei kaum mehr FPS^^.(BFV ohne Graka Limit)
Ob nun 6,2 Ghz oder 6Ghz ist ja egal beim Boost davon hast du eh nix das ist nur "nice to see", das man ein selektierten Chip kaufen kann ohne 10 Stück zu testen ist halt
schon echt super. Das es P/L keinen Sinn macht ist eh klar...
Ich vermute das wir die 6Ghz so schnell erstmal nicht wiedersehen aufgrund des kleineren Fertigungsprozesses in Zukunft und so ist es allein so schon nice to have.:bigok:
 
....ich weiß, gehört hier nicht hin, aber weiß wer wie der Ryzen 7950 in CB23 performt und vor allem mit wieviel Watt?
 
 
mhmhmh , viel fehlt da ja nicht zu der sagenumwobenen AMD X3d Effizienz . Ich weiß , ich weiß - CB23 ist nun kein Game ....... aber immerhin.
1702062047811.jpeg
 
Ich glaube, ich habe mir beim spielen noch nie den Verbrauch einer CPU angeschaut. Wenn ich einen 14900KS kaufen würde (was ich nicht tun werde), würde ich den sofort bis an seine Grenzen ausloten und der rest wäre mir egal. Hauptsache ich bekomme den Scheiß gekühlt. 😅
Du bist ja auch nicht die Zielgruppe armer Sack :ROFLMAO:
 
Wenn so ein KS es schaffen sollte 6.2 allcore bei akzeptabler Spannung zu machen, ist er durchaus eine Überlegung wert.
 
Wenn so ein KS es schaffen sollte 6.2 allcore bei akzeptabler Spannung zu machen, ist er durchaus eine Überlegung wert.

Kann ich mir nicht vorstellen, schaffen ja auch die besten 14900k nicht..
 
Ich glaube, ich habe mir beim spielen noch nie den Verbrauch einer CPU angeschaut. Wenn ich einen 14900KS kaufen würde (was ich nicht tun werde), würde ich den sofort bis an seine Grenzen ausloten und der rest wäre mir egal. Hauptsache ich bekomme den Scheiß gekühlt. 😅

Dito! Leistung ist immer der entscheidende Faktor ;) egal, wie viel Watt die Komponenten ziehen.
Effizient muss kein System sein, die Leistung ist, was zählt :d besonders im Gaming-Bereich.

Ich hoffe, dass der 14900KS bald erscheint... aber ich vermute erst im nächsten Jahr, oder?
 
Der KS geht vermutlich bis 5,8GHZ Allcore .
Also 100MHZ mehr als der 14900k.
Denke 6GHZ auf den Pcore mit mind. 360er AIO oder besser halte ich für möglich 24/7 für Gaming etc. mit vertretbaren Settings. Ob man das natürlich braucht ne andere frage.

Die E-Cores liegen ja zwischen 4,4-4,8 Ghz was so möglich ist.
 
Ja in games stehen oft 50-70w zu 100-200w und das ist tatsächlich sagenumworben ca. 2-3x:)

Sorry, aber das ist Unsinn. In diversen Spielen wie D4, Warship oder auch CoD liegt mein 14900K immer bei um die 50-70 Watt.
 
Also seit 23H2 ist bei mir der Gaming verbrauch auch geringer. Ca. 30 Watt weniger als zuvor. Bin im Beta Kanal bei Windows 11.
Durch irgendein Update arbeitet die CPU seitdem effizienter. Bei den meisten Triple A Titeln liege ich nun zwischen 120-140 Watt.
 
Ich habe das mal eben aus Neugier mit meinem Schwager getestet.

Battlefield 2042
WQHD mit FPS-Limit auf 141 (beide im Limit)
Windows 10 Pro
ca. 10 Minuten gespielt

Mein 12900KF (CPU + RAM übertaktet) verbraucht durchschnittlich 100W.
Der 7800X3D (nur EXPO-Tweaked geladen) vom Schwager verbraucht durchschnittlich 70W.

Wow...

Edit:

In Escape from Tarkov (WQHD ohne FPS Limit) habe ich gerade einen durchschnittlichen Verbrauch von 79W gemessen. Laut einem YouTube-Video, braucht der 7800X3D rund 55W mit vergleichbaren Settings.

Dafür wird immer wieder so ein Fass aufgemacht?
 
Zuletzt bearbeitet:
aber der 14900KS hat die gleiche effizienz bei 6,2 ghz wie der 13900T bei 5,3 ghz...
Nein, ein 14900KS sollte bei den gleichen 5,3GHz wie der 13900T die gleiche, bzw. wegen des besseren Binning sogar eine leicht bessere Effizienz wie der 13900T haben, nicht bei 6,2GHz. Keine Ahnung wie man auf so einen Blödsinn kommt, bzw. mir wohl unterstellen will so einen Unsinn zu behaupten. Aber es ist das typische Trollverhalten dem anderen zu unterstellen einen Blödsinn behauptet zu haben den er nie behauptet hat um dies dann ins Lächerliche zu ziehen. Trolle kommen bei mir auf die IL.

wobei die 5,8Ghz bei 150W packt der unter Volllast Gaming nicht.
Welches Game schafft es dann alle Kerne eine 14900KS auszulasten? Ich wüsste keines, weshalb Gaming eben keine Volllast ist.

viel fehlt da ja nicht zu der sagenumwobenen AMD X3d Effizienz . Ich weiß , ich weiß - CB23 ist nun kein Game ....... aber immerhin.
Die RAM Performance spielt bei CB23 praktisch gar keine Rolle und mehr L3 Cache bewirkt eben am Ende nur einen bessere RAM Performance, indem eben mehr Zugriffe direkt auf dem Cache kommen und die Zugriffe damit im Schnitt schneller beantwortet werden als mit weniger L3 Cache.
 
Ich habe das mal eben aus Neugier mit meinem Schwager getestet.

Battlefield 2042
WQHD mit FPS-Limit auf 141 (beide im Limit)
Windows 10 Pro
ca. 10 Minuten gespielt

Mein 12900KF (CPU + RAM übertaktet) verbraucht durchschnittlich 100W.
Der 7800X3D (nur EXPO-Tweaked geladen) vom Schwager verbraucht durchschnittlich 70W.

Wow...

Edit:

In Escape from Tarkov (WQHD ohne FPS Limit) habe ich gerade einen durchschnittlichen Verbrauch von 79W gemessen. Laut einem YouTube-Video, braucht der 7800X3D rund 55W mit vergleichbaren Settings.

Dafür wird immer wieder so ein Fass aufgemacht?

Ja ja dein Altsys.

Ein 14900K mit einer RTX 4090 handelt das anders.

Komm mal klar mit deiner alten HW.
 
Das System ist 2 Jahre alt und das Effizienz Geschwurbel mindestens genaus so alt.

Ich habe mir eben ein BF2042 Video mit einem 5800X3D angeschaut. Da verbraucht die CPU rund 90W.
 
Ja wenn du jetzt ein 13 oder 14900k auf die Taktfrequenzen des 12900k runter setzt und die Spannung weiter senkst bekommst die CPU effizienter als Alderlake. Selbst 5-5,2Ghz Pcore sieht die Sache schonmal anders aus als Stock und ist trotzdem flott .
Man kann viel am Raptor tüfteln . Deswegen für manche ist das schon ne schöne CPU gegenüber einen X3D, weil die ist eben langweilig . Bisschen ram Timings und das war’s .
 
Zuletzt bearbeitet:
Mit welcher Graka und welchen Einstellung kommt man da hin? Und wie waren die Power Limits konfiguriert?
Guten Morgen. Die meisten öffentlichen reviews werden in Standard Einstellungen durchgeführt um 99,9% der User abzusprechen.
 
Zuletzt bearbeitet:
du meinst 99,9% der User die genau das gleiche Mainboard verwenden. Wurde auch die Standard Graka verwendet um die CPU bei dem Game in CPU Limit zu treiben? Oder war es ein Benchmark wie CB oder Prime? Ich fürchte 99,9% der User spielen nicht dauern CB oder Prime. Aber dann wäre die Performance ja nicht 3% geringer, sondern grob doppelt so hoch.
 
du meinst 99,9% der User die genau das gleiche Mainboard verwenden. Wurde auch die Standard Graka verwendet um die CPU bei dem Game in CPU Limit zu treiben? Oder war es ein Benchmark wie CB oder Prime? Ich fürchte 99,9% der User spielen nicht dauern CB oder Prime. Aber dann wäre die Performance ja nicht 3% geringer, sondern grob doppelt so hoch.
Ja in games 3% langsamer bei über doppeltem Verbrauch. Sollte ja klar sein das es nicht in Anwendungen ist bei einer gaming cpu
 
Ja in 4k bestimmt. Aber nicht im cpu limit

Den 7950X3D kann man etwa mit einem 13900K vergleichen , weil die auch ähnliche Anwenderperformance hat.
Aber tut dennoch nichts zur Sache , wenn paar Leute gerne den Intel möchten.
Also lass die Leute doch in Ruhe . Wie gesagt nicht jeder will den AMD, weil Intel manchen mehr spaß macht.

Mit dem Ryzen 9 7950X3D rammt AMD Intel ungespitzt in den Boden. Der 16-Kerner ist in Spielen 149 Prozent effizienter als sein Gegenspieler Core i9-13900KS und liefert dabei noch eine rund fünf Prozent höhere Performance. In Anwendungen unterliegt der AMD-Prozessor der Konkurrenz zwar leicht, allerdings bei einer 45 Prozent höheren Effizienz. Für PC-Spieler liefert AMD mit dem 7950X3D das reinste Paradies: Maximale Leistung, die höchsten Fps pro Watt, die wir jemals im PCGH-Testlabor gemessen haben, und die Sache mit dem Dual-CCD hat uns am Ende richtig Freude bereitet, da alles so funktioniert hat, wie es von AMD vorgesehen war. Sobald wir ein Spiel starten, wechselt die CPU in den "Gaming-Modus", schaltet die acht Kerne im zweiten CCD ab und liefert eine extrem hohe Leistung bei noch nie dagewesener Effizienz. Arbeiten wir mit dem Prozessor, werden generell alle Kerne angesprochen und die Performance ist knapp auf dem Niveau des Ryzen 9 7950X. Kommt ein Spiel zum Einsatz, das mehr als acht Kerne ansprechen kann, ist die CPU dank des Cache sogar dann noch schneller als ein gewöhnlicher 7950X, obwohl der Takt niedriger ausfällt.

Quelle: https://www.pcgameshardware.de/Ryze...iew-Effizienz-AMD-Gaming-Vergleich-1414085/4/
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh