Nun mit 12 E-Kernen: Intels Core i7-14700K ist etwa 17% schneller als der 13700K

Ich bin gespannt, wann Intel mit mehr Cache gegen die X3D-CPUs von AMD vorgeht. Mehr (E-) Kerne bringt's im Gaming nicht. Da freut sich nur der Stromanbieter. Die X3D-CPUs sind derzeit die erste Wahl für alle Gamer, die kein AKW neben ihrem PC stehen haben und trotzdem HighEnd-FPS haben wollen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und es geht schon wieder los,,,,, das darf doch wohl nicht wahr sein.

1696665514690.png
 
Denke nicht, dass eine 15te Generation kommt. Da führt Intel doch das neue Namenschema ein.
Die nächste Generation wird aber sowieso die 15te sein, zumindest für den Desktop, egal wie die sich dann nennen und dies wird Arrow Lake sein. Die 14th Generation dürfte ja gespalten sein, Raptor Lake Refresh im Desktop und Meteor Lake im Mobilbereich. So war es ja auch zuletzt bei der 11ten Generation, also Tiger Lake im Mobilbereich und Rocket Lake im Desktop.

Gerüchten nach hat Meteor Lake wohl 100er Nummern und keine 14 in der Nummer, demnach dürfte Arrow Lake 200er Nummern bekommen. Da ist auch von 5,1GHz die Rede, nicht schlecht für die erste Intel 4 CPU, wenn man bedenkt das die erste 14nm CPU von Intel, die Broadwell Core-M in Q3 2014 auf 2,6GHz und dann in Q4 2014 auf 2,9GHz gekommen sind und die erste 10nm CPU, der i3-8121U in Q2 2018 bis 3,2GHz erzielt hat. Die Massenfertigung von Intel 4 hat jetzt mit der Eröffnung der Fab34 in Irland begonnen, aber damit hat Intel ja nicht angefangen in Intel 4 zu fertigen, sondern dies haben sie schon lange vorher getan und den Prozess optimiert:
Um über 5GHz zu erreichen hat es bei anderen Prozessen Jahre gedauert, wobei kleinere Strukturen im Prinzip helfen höhere Taktraten zu erreichen, auch wenn sie eigene Probleme wie Hot-Spots wegen der starken räumlichen Konzentration der Transistoren und damit Wärmequellen bereiten. Die Intel 4 Fertigung dürfte aber schon weit länger als ein Jahr in den USA gereift sein und ebenso dürfte Intel schon lange in Intel 3 Chips fertigen, sonst hätten sie die Xeons ab Sierra Forest nicht früh von Intel 4 auf Intel 3 vorgezogen:
Genauso werden auch schon die Intel 20A und sogar 18A Prozesse laufen und schon optimiert und damit für die Massenfertigung vorbereitet werden. Darüber redet Intel ja nicht öffentlich, offiziell hat die Intel 4 Fertigung ja auch erst vor gut einer Woche begonnen, aber wenn Intel nicht schon erste Chips in 18A fertigen könnte, wie können sie sonst so eine Aussage treffen:
Intel 18A ist also vor dem Zeitplan und Intel kann schon ausschließen die neuen High-NA EUV Maschinen bei der 18A Fertigung zu nutzen, was wohl nur geht wenn der Prozess schon läuft.

Damit dürfte intern schon alle neuen Fertigungsprozesse bis 18A am Laufen haben und muss für den nächsten Prozess jetzt auf die neuen ASML High-NA Maschinen warten, aber als erster Kunde dieser Maschinen werden diese erst noch reifen müssen und damit wird Intel 18A erstmal eine Weile der aktuelle Prozess bleiben, wenn dann die ersten Chips aus der 18A Fertigung kommen, was nach einer Aussage von vor 1½ Jahren wohl Ende 2024 sein dürfte:
Wobei dies eben nicht bedeutet, dass die Chips aus dieser frühen Fertigung in den Handel kommen, sondern dies dürften eher ES sein, gerade die Xeons gehen ja schon lange vor Release an ausgewählte Kunden. Wobei Produktionsbeginn eben nicht nur ein Event an einem Termin ist, die Fabs fertigen anfangs einfache Chips wie SRAM in einem neuen Prozess, dann irgendwann die ersten Samples der echten Chips die damit gefertigt werden sollen, bevorzugt einfache Modelle, während eben weiter optimiert wird, bis dann die Massenfertigung startet, wie es jetzt gerade bei Intel 4 in Irland der Fall war. Es wurde ja schon im Februar berichtet, dass Intel auch schon erste Chips in 20A und 18A gefertigt hat:
Während also dieses Jahr mit dem Raptor Lake Refresh wenig spannendes für den Desktop bringen wird und Geräte mit Meteor Lake wohl auch erst nächstes Jahr erscheinen werden, wird es danach schnell vorangehen und in einem Jahr dürfte es mit Arrow Lake einen großen Schritt vorangehen. Wenn Lunar Lake nur für den Mobilbereich ist, wird es dann ein Jahr später mit Panther Lake im Desktop weitergehen. Es wird dann eher spannend werden zu sehen wie die Architekturen sich entwickeln werden und die Möglichkeiten der neuen Fertigungen mehr Transistoren zu verwenden, in mehr IPC umsetzen können. Wer also vom Raptor Lake Refresh enttäuscht ist, sollte einfach noch ein Jahr abwarten.
 
Zuletzt bearbeitet:
Was am Ende vielleicht noch bleibt ist dass der refresh etwas höheres Taktpotential hat wegen dem neueren stepping?
 
Neues stepping? Sehe ich keines, das bleibt BO.
 
Ach so dann hatte ich das falsch mit bekommen/:
 
Mehr (E-) Kerne bringt's im Gaming nicht. Da freut sich nur der Stromanbieter.
Im Gaming vieleicht nicht aber wenn ich z.b. ein Vid konvertiere, dann wird die Last über den TD intelligent only auf die verfügbaren E-Cores ausgelagert (die allgemein wesentlich sparsamer und kühler agieren), womit die P-Cores frei bleiben für z.b. Gaming. Ob das den Stromanbieter freut? ..hmmm.. ..ja! Wenn man es denn mit nen Ryzen macht, der dann über alle Kerne mit MT ballert (obwohls nicht nötig wäre)! (y)

CoreTemp-Scr.png
<- VID Converting h.264

ps: Und nur zur Info. Man kann, wenn man denn möchte, via Tastendruck die E-Cores auch mal einfach temporär abschalten. Geile Technik, gelle. Denn als Intel User ist man verwöhnt und bequem, dass weiß auch Intel und hat im UEFI dafür extra dieses Feature namens "Legacy Game Compatibility Mode" implementiert:
When enabled, Pressing the scroll lock key will toggle the Efficient-cores between being parked when Scroll Lock LED is on and un-parked when LED is off.

Dann gibt es halt noch den "Game Boost", der dürfte aber eher den wenigsten Usern geläufig sein, da allgemein kein frei zugängliches UEFI Setting:
This Feature Set allows you to overclock your system automatically.
;)
 
Zuletzt bearbeitet:
Wenn man es denn mit nen Ryzen macht, der dann über alle Kerne mit MT ballert (obwohls nicht nötig wäre)! (y)
Prozessorkerne sind schon seit spätestens Windows 7 zuweisbar, der Ryzen-Nutzer kann somit genauso "Kerne fürs Gaming" frei halten...
Beitrag automatisch zusammengeführt:

Und - btw... wenn es über alle Kerne läuft ist es dementsprechend deutlich schneller gerendert - dein Argument zum Stromsparen ist damit absoluter Nonsens.
 
Zuletzt bearbeitet:
Ja, kann er. Ich kann ja auch E-Cores für Gaming frei halten.. ..und?

Darum geht es aber nicht sondern darum, ob die CPU/System so "schlau" ist und das auch von selbst effizient zuordnen kann. Intel -> JA (Hybridcore ThreadDirector), AMD -> NEIN (wenn ja, worüber?).

..ich würde nicht gerne jedesmal wenn ich Workload habe "fummeln" wollen, wann ich denn die effizienteste Core Verteilung habe um am stromsparensten zu werkeln. :unsure:
 
Ja...DAS war dein Beweggrund :ROFLMAO:
Aber..passt.. Ich erkenne die Qualität des Argments: Intel. Beschte.
 
Und - btw... wenn es über alle Kerne läuft ist es dementsprechend deutlich schneller gerendert - dein Argument zum Stromsparen ist damit absoluter Nonsens.
Mag sein das es bei einen Ryzen über alle Kerne schneller fertig ist aber selbst wenn jetzt das AMD Sys meinetwegen 50% schneller fertig ist (was sehr utopisch wäre) dabei aber das dreifache an Strom verbraucht (was schon realistischer wäre), dann wars das mit deinen Stromsparargument. Aber das darf ja gerne mal von jemanden getestet werden der eine Ryzen und eine Intel Hybridcore sein eigen nennt. Wundert mich eh, dass das noch nie ausführlich getestet wurde. Immer nur dieser Gaming Murks. Als ob die ganze Welt nur daddeln würde. Seit ihr alle solche Spielkinder? :unsure:

edit:
Ja...DAS war dein Beweggrund :ROFLMAO:

Naaa.. ..Beweggrund war eher dieser Mumpitz:
die kein AKW neben ihrem PC stehen haben und trotzdem HighEnd-FPS haben wollen.
..deren Wissensstand bezgl.Energieeffizienz moderner, hybrider Intel Prozessoren ist meist bei P4 Willamette stehen geblieben.
Finde ich eh immer lustig. Sich errektiv darüber abfreuen, dass die gewählte CPU in diesen oder jenen Game u.U. ein paar Watt weniger verbraucht als das Produkt der Konkurrenz - aber gleichzeitig eine Pixelschleuder dafür nutzen, die locker mal das 3-5fache von dem zieht was die ach so sparsame CPU verbraucht und macht das "..die kein AKW neben ihrem PC stehen haben.." wieder obsolet. (y)

Und noch etwas, weder AMD CPU besteht nur aus Ryzen 7950X3D, noch Intel CPU aus 13900KS. Da gibts noch bischen mehr was an Silizium von beiden Seiten und gerade im mittel und weiter nach unten herum, kann sich das Stromsparargument sehr schnell ins Gegenteilige verkehren, bei nicht unbedingt viel weniger Performance. Ich persönlich hätte mir den 14700K mit noch mehr E-Cores gewünscht, gerade für Workload sehr effektiv und sparsam. Vieleicht wirds ja mit Ultra-15 bzw. 16 was! ..ich hoffe..
 
Zuletzt bearbeitet:
@Spieluhr

Du betreibst gerade Cherrypicking, indem du EINEN speziellen Usecase als besonders toll hervorhebst. Der 7800X3D ist dafür beim Gaming deutlich sxhneller als Intels stärkster 13900K bei DEUTLICH weniger Strom.

Ein 13700K ist beim Videoencoding zwar schneller, wenn ich das aber öfter mache, kaufe ich mir eine GPU. Die macht das nicht nur schneller, sondern auch stromsparender. Ach, die habe ich als Gamer sowieso im Rechner. Na welch' Überraschung. :lol:

Wie du siehst: der 7800X3D ist das "rundere" Produkt und bei Videoencoding lasse ich die GPU laufen, gegen die keine CPU auch nur einen Stich sieht.
 
Intel hat momentan in keinem Bereich ein Produkt zu bieten, das schneller oder effizienter wäre als das der Konkurrenz. Möglicherweise mit Brute Force und 300 Watt einen Zacken schneller, aber das wars auch schon. Im Server Sektor wurde man völlig abgehängt - Praktisch alle neuen Supercomputer laufen mit Epic *

Traurig, aber wahr.

Siehe auch Ryzen 9 7945HX3D.. schnellste gaming Laptop CPU bei deutlich niedrigerem Verbrauch

* oder gleich mit ARM bzw RISC-V
 
Dann bleibt wohl Intel nur noch die kühleren Sommer Tage :fresse2:

Und sparsamer im idle :ROFLMAO:
 
Also ich empfinde Intel als das rundere Produkt. Ja die haben keinen 3D cache sind aber schneller als die nicht 3D Cache Prozessoren von AMD und bieten insgesamt mehr Workstation Performance. Intels iGPUs bieten mit QuickSync mehr bezüglich Streaming, Rendering.

Da hat AMD nichts, man könnte argumentieren das die Gaming Leistung besser sei von der iGPU. Ja, das ist aber so marginal das ist nicht der Rede wert und auch nur in bestimmtenn Games.

Trotzdem ist mit Raptorlake die Plattform grundsätzlich ausgereifter und hat weniger Probleme über die man berichten musste.(Alder Lake hatte Probleme die man erstmal fixen musste)

Allerdings halte ich sie für leistungsstark genug, bis man auf ddr6 wechseln kann zu warten. Besonders wenn man nicht immer das maximum brauch. Selbst wenn AM5 länger halten und mehr Upgrades bieten wird, gibt es mit Sicherheit anreize die Platine nochmal zu tauschen, entweder wegen neuen OC features oder support für schnelleren RAM.

Wenn man umbedingt competitiv spielt und das Spiel besonders gut mit Cache skaliert, dann muss man sich eine 3D-CACHE holen, für alles andere z.B in 4K@60hz+ ist der Vorteil überschaubar bis nicht vorhanden 3-4%. Ich meine keiner Kauft sich eine 4090 um dann effektiv in 1080P zu zocken...

Man müsste eine 7800X3D mit einer 4060/4070 testen vs einen Intel 13700k oder so. Die frage ist halt ob es im GPU Limit einen merklichen Unterschied macht.

Auch bietet dieser nicht in allen Szenarien einen Vorteil. Man kann den zwar Grundsätzlich empfehlen.

Man muss es halt wirklich abwägen nach konkreten Anforderungen.
 
Zuletzt bearbeitet:
@Spieluhr

Du betreibst gerade Cherrypicking, indem du EINEN speziellen Usecase als besonders toll hervorhebst..
..machst du das nicht gerade selbst hiermit:
Der 7800X3D ist dafür beim Gaming deutlich sxhneller als Intels stärkster 13900K bei DEUTLICH weniger Strom.
..ist auch ein spezielles "Usecase". Je nachdem ob man nun Workload oder Daddeln für sich priorisiert. Und "DEUTLICH" weniger Strom ist Auslegungssache. Dazu hatte ich ja schon was geschrieben.
Wenn ich mich darüber brüskiere, dass Prozessor A in einem Spieleszenario meinetwegen 30% mehr verbraucht als Prozessor B im gleichen Szenario, dabei aber dann eine Pixelschleuder einsetze die um dieses Szenario mit meinetwegen 200fps aufzubauen mal ebend meinetwegen so 200% mehr verbraucht als beide Prozis zusammen, dann sollte ich mich selbst mal fragen wo da was nicht stimmt bei meinen Einwand. :unsure:

(Erklärung: Wer nur daddelt, für dem ist natürlich alles andere spezielles "Usecase". Wer nur Workload hat, für dem ist daddeln spezielles "Usecase")
 
Zuletzt bearbeitet:
Nur dass der 7800X3D mit halb so viel Energieaufnahme wie ein 13700K deutlich mehr FPS generiert.

Und auch eine RTX4090 kann ich durch Limitierungen & Optimierungen noch immer die schnellste GPU sein lassen - bei deutlich weniger Verbrauch.

Jedenfalls zieht dein Encoding-Vergleich nicht, weil jede GTX1070 in HEVC schneller rendert als der 13700K.
 
Also praktisch kaum Zuwächse bei der IPC, da hätte ich mehr erwartet.
Dennoch durch die Kernscalierung wird man den Vorsprung bei Anwendungen etwas ausbauen können.
So wie ich dir es damals zu Releas der 7000X3D vorausgesagt habe.
Wird Zeit das Intel den neuen Sockel bringt.
 
Der Neue Sockel von Arrow Lake ist auch bitter nötig wenn man eine direkt an die CPU angebundene PCIe 5.0 x16 Graka und zwei PCIe 5.0 x4 M.2 SSDs nutzen will...
 
Nur dass der 7800X3D mit halb so viel Energieaufnahme wie ein 13700K deutlich mehr FPS generiert.

Und auch eine RTX4090 kann ich durch Limitierungen & Optimierungen noch immer die schnellste GPU sein lassen - bei deutlich weniger Verbrauch.

Jedenfalls zieht dein Encoding-Vergleich nicht, weil jede GTX1070 in HEVC schneller rendert als der 13700K.
Ich war früher auch immer der Meinung, dass eine GPU bei Video Encoding die bessere Wahl ist, heute ich bin ich nicht mehr der Meinung, die Qualität beim CPU Encoding ist wesentlich besser als mit eine GPU, wenn man mit einer GPU die Qualität erreichen möchte, dann wird die Datei um einiges größer.

Wem die Qualität egal ist, der wird mit GPU Encoding glücklich, ich bin es jedenfalls nicht mehr.

Ja warten wir mal ab. Vielleicht dreht der 14700ks den Spieß um :)
14700KS habe ich etwas verpasst? Oder meinst du den 14900KS
 
Jedenfalls zieht dein Encoding-Vergleich nicht, weil jede GTX1070 in HEVC schneller rendert als der 13700K.
Encoden mit der GPU ist aber bescheiden. Und wenn es unbedingt GPU sein muss, dann würde ich eher Quicksync benutzen und bin wieder bei Intel. Die Datei ist relativ klein und die Qualität ganz angenehm. Ansonsten bin ich vor über ein Jahr auf CPU only umgestiegen. Ist nochmal um einiges kleiner als mit Quicksync und für mich einfach das beste Ergebnis. Da warte ich doch lieber ein bisschen länger...
 
Encoden mit der GPU ist aber bescheiden. Und wenn es unbedingt GPU sein muss, dann würde ich eher Quicksync benutzen und bin wieder bei Intel.
Endlich mal jemand der es erkannt hat (hatte schon fast die Hoffnung aufgegeben). (y)
Ok, AMD User können mit Intel Quicksync nicht viel anfangen, dann wird halt das ressourcenfressende GPU Argument vorgeschoben.
 
Zuletzt bearbeitet:
Du bist mit INTEL aufgewachsen und die Idee, dass jemand anderer besser sein könnte verwirrt dich..

Ich versteh das. Bin auch alt (1963) ;)
 
@Spieluhr @Yasha

Eure Erfahrungen mit Encoding & Streaming sind scheinbar in den 2010ern stecken geblieben.

Seit Turing & HEVC hat sich das Bild massiv gewandelt. Vor allem beim Thema Qualität.

Der reine Software-Renderer über die CPU ist nicht verkehrt, aber vollkommen unnötig seit RTX2000 bzw. GTX1650 Super und aufwärts.

 
Ich beschäftige mit dem Zeug nicht, aber X264 ist doch steinalt oder?

von der Websuche:
  • Is x265 better than x264?
  • hevc x265 vs x264
 
Eure Erfahrungen mit Encoding & Streaming sind scheinbar in den 2010ern stecken geblieben.
Ich habe es mal auf die Schnelle getestet, wie es den Aktuell so aussieht, mein letzter Stand war immerhin schon 1 Jahr alt. Allerdings habe ich den H265 encoder genommen, den benutze ich immerhin schon seit ~3 Jahren. Einstellungen waren jeweils die gleichen, nur eben einmal H265 mit der CPU und dann H265 mit der GTX4090. Das Video geht ~45 Minuten und ich hatte es gestern schon mit der CPU umgewandelt. Deswegen weiß ich die Zeit nicht mehr die es gebraucht hatte. Aber bei 45 Minuten Video würde ich mal von 10 bis maximal 20 Minuten ausgehen, dass ist einfach so der Durchschnitt bei der Länge.

Das Endergebnis war dann 502MB groß und die Qualität geht für mich in Ordnung.

Mit der GPU waren es nun 3 Minuten und 6 Sekunden. Das Bild ist in Gegensatz zu früher zumindest bei diesem Video auch in Ordnung. Aber der Killer damals schlechthin waren z.B. immer die Walking Dead Sachen gewesen. Dort hatte die GPU gerne mal Artefakte gebastelt... habe ich jetzt aber nicht mehr hie rum es nochmal zu testen... jedenfalls ist die Datei 1,39GB groß. Das ist fast 3-mal mehr als das CPU-File, nee danke, da bleibe ich weiterhin bei der CPU.

Auch wenn das bildmäßig jetzt ok aussieht. Vielleicht mache ich mir nochmal die Mühe und besorge mir eine Folge von The Walkin Dead, um es damit nochmal zu testen... aber allein, was die Größe angeht, hat die CPU für mich gewonnen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh