Rocket Lake-S nutzt Sunny-Cove-Kerne in 14 nm

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist das nicht irgendwie eine Umschreibung für die min. fps?
so in etwa, ja. bei multi-gpu schimpfte man das noch microruckler ;)
was nützen einem die höchsten framezahlen, wenn ab und an mal ne denkpause zwischen zwei frames eingelegt werden muss? ;)
 
  • Danke
Reaktionen: Tzk
Das ist eher unwahrscheinlich, dass Intel mit dem backport AMD schlagen wird.
Im Multithread sicher nicht, Cinebench 1T vermutlich auch nicht ganz, aber AMD konnte den Vorsprung in Cinebench nicht auch auf Games ummünzen, und da gilt es ~15-16 % aufzuholen, das dürfte der Intel locker packen.
 
Zur Zeit geht keiner davon aus, dass Intel mit Rocket den Zen 3 CPUs gefährlich werden könnte.
Maximal ein Gleichstand Overall könnte vielleicht möglich sein. Sofern gaming aber zum Kern-Segment gehört, könnte da aber was gehen, das stimmt schon.
 
Also bei dem was wir über die Architektur wissen, ist es durchaus möglich, dass Intel bei der IPC in etwa mit AMD gleichzieht.
Wenn sie dann die Keule rausholen kann es schon sein, dass sie ein 8 x > 5 Ghz Produkt raus bringen und damit einen 5800x schlagen.
Wahrscheinlich dann ebenso wenig lieferbar wie der 10900, aber Hauptsache man auf dem Papier zumindest irgendein Krönchen.
 
Wenn AMD so wie bei den Zen 2 XT Modellen 3%+ bei Games rausschlagen kann und etwas am Takt schrauben, dann bleibt AMD vorne und Intel in der Siliziumschmelze
 
an AMDs stelle wuerde ich mir die XT modell auch bis nach dem launch von intel aufheben.

einfach die besten paar % der chips nehmen und mit 5GHz+ wieder an intel vorbei.
brechstange vs. brechstange, aber egal. :)
 
Zur Zeit geht keiner davon aus, dass Intel mit Rocket den Zen 3 CPUs gefährlich werden könnte.
Maximal ein Gleichstand Overall könnte vielleicht möglich sein. Sofern gaming aber zum Kern-Segment gehört, könnte da aber was gehen, das stimmt schon.
Wo wurde Intel bitte seit Zen2 AMD in allem außer Gaming gefährlich ? Die Kern-Wars hat Intel schon seit längerem verloren, nicht erst seit Zen3.
Gaming ist ihre letzte Bastion, die es jetzt um jeden Preis wieder zu retten gilt.
 
Uninteressant.
Selbst wenn ein paar Prozentpunkte Mehrleistung beim Gaming im Test rausspringt, wird das aller Voraussicht nach mit entsprechender Wärmeentwicklung, damit Lautstärke bzw. Anspruch ans Kühlsystem und Energiehunger erkauft. Und für Mehrkernoptimierte Programme, die Leistung nicht nur in den PL1/PL2 Stufen abrufen gegenüber AMD keine absehbare Konkurrenz. Fürs Gaming muss das Gesamtsystem passen und in WQHD reicht für den Großteil der Games den meisten doch jetzt noch ein i7 8700k mit einer Turing bzw. Ampere-Karte für die nächsten 1,5 Jahre. Und dann...
Ja dann ist die Frage ob AMD nicht auch bei den GPU was gleichwertiges zu NVIDIA bereitstellen kann, wenn Sie es schaffen einen ähnlichen Sprung wie bei Excavator bzw. Puma auf Zen zu vollziehen.
Und Zen 5 der Nachfolger von ZEN 3 sich nicht doch als das nach wie vor bessere Gesamtpaket darstellt.

Wenn Intel es schafft die Effizienz in den Turbostufen soweit zu verbessern, das All-Core-Turbo zum einen dauerhaft hoch und mit deutlich weniger Stromhunger bzw. Wärmeentwicklung daherkommt UND das zu einem Preispunkt, der für das TOP-Mittelklassemodell nicht mehr als 450€ liegt... DANN wird Intel wieder, trotz nur 8 bzw. 10 echten Hochleistungsfähigen Kernen interessant.
 
Ich will endlich weg von Intel wieder.

Mir reicht der kurzzeitige Ausflug bei Team blau.
 
das All-Core-Turbo zum einen dauerhaft hoch und mit deutlich weniger Stromhunger bzw. Wärmeentwicklung daherkommt
Naja, es ist noch immer 14nm(++++). Man sollte sich also nicht der Illusion hingeben das die Effizienz für Rocketlake steigt. Wenn das Teil 5ghz läuft, dann bei ähnlichen Verbrauch wie Cometlake, wobei der Verbrauch in Spielen ja tatsächlich mit grob 100W ganz gut ausschaut. Da sind wir weit von den 250W Peaks weg, die bei Volllast entstehen. Von daher könnte das für Spiele schon klappen.
 
lass dich da nicht täuschen. von 100W bis 250W ist es nur ein sehr kleiner sprung. hatte nen fishera (FX-8350) der hat seinen verbrauch auch für 0,8 ghz fast verdoppelt und darüber werden die schritte beim takt immer kleiner und die beim verbrauch immer größer. bei 8,1 ghz auf nur zwei kernen war ich schon jenseits von 600 watt!
ein zen2 zieht bei 5 ghz sicher auch mehr als 200 watt trotz 7 nm. und man kann das taktpotential einer architektur zwar erhöhen, aber dann kostet es idr ipc. siehe netburst und bulldozer, die bis heute taktfreudigsten architekturen. da muss man schon nen verdammt guten mittelweg finden und sowohl skylake als auch zen2 haben den schon gefunden. das noch zu steigern ist nicht ganz banal.
 
Zuletzt bearbeitet:
lass dich da nicht täuschen. von 100W bis 250W ist es nur ein sehr kleiner sprung. hatte nen fishera (FX-8350) der hat seinen verbrauch auch für 0,8 ghz fast verdoppelt und darüber werden die schritte beim takt immer kleinerund die beim verbrauch immer größer. bei 8,2 ghz auf nur zwei kernen war ich schon jenseits von 600 watt!
ein zen2 zieht bei 5 ghz sicher auch mehr als 200 watt trotz 7 nm. und man kann das taktpotential einer architektur zwar erhöhen, aber dann kostet es idr ipc. siehe netburst und bulldozer, die bis heute taktfreudigsten architekturen. da muss man schon nen verdammt guten mittelweg finden und sowohl skylake als auch zen2 haben den schon gefunden. das noch zu steigern ist nicht ganz banal.
Mein 9700K zieht bei nonAVX Prime Volllast @ 5 GHz Allcore max. 160W... beim Spielen sind es weniger als 100W.
"Ein ganz kleiner Sprung" bedeutet AVX-Last, ohne das saufen die Intel auch nicht viel.
 
  • Danke
Reaktionen: Tzk
@Luebke
Es war schon so gemeint das ein 10900K bei grob 5ghz in Spielen die ~100W zieht. Wenn man bei dem Takt Prime (inkl AVX) anschmeisst, dann sprengt er das natürlich bei weitem. Die Intel sind bei Teillast und insbesondere mit der 14nm Fertigung trotzdem erstaunlich effizient. Ich möchte das hier keinesfalls schönreden, trotzdem sind wir von 250W bei Teillast/in Spielen halt weit entfernt, siehe folgendes Diagramm:

1603266075596.png


Bei Volllast sieht das natürlich komplett anders aus. ;)
 
Übertakten für den alltäglichen Nutzen ist doch schon lange vorbei. Aktuell ist das einzige was geblieben ist, mehr RAM Takt und schärfere Timings.
Vorbei die Zeit, als man mit Sandy 1,2GHz und mehr drauf gesetzt hat.
Oder einen Athlon II X3 mit 3,1GHz zu einem Phenom II X4 + L3 Cache @3,7GHz.
Zumindest kann man bei AMD mit jeder CPU und praktisch mit jedem Board, etwas Feintuning betreiben.
Das was AMD gezeigt hat, sieht einfach nach einen deutlichen Vorsprung aus. Für mindesten 5 Monate.
AMD war noch nie in so einer Position. Nicht mit einem so deutlichen Leistungplus und 5 Monate alleine.
 
AMD war noch nie in so einer Position. Nicht mit einem so deutlichen Leistungplus und 5 Monate alleine.
du hast wohl die netburst-zeit nicht miterlebt, oder? ;)
das war fast 1:1 wie heute:
- AMD hatte vergleichbare leistung bei weniger takt
- AMD war deutlich energieeffizienter
- intel war deutlich teurer als die jeweiligen AMD-pendanten
- dafür ließen sich die intel cpus deutlich höher übertakten.
- intels quasi-monopol ist etwas abgeschmolzen und zumindest die kenner haben vermehrt auf AMD gesetzt wärend die breite masse weiterhin intel gekauft hat in unkenntnis der unterschiede.

@Tzk lass dich von vereinzelten werten nicht täuschen: die energieeffizienz wird sich nicht grundlegend verändern. rocketlake wird die gleichen vorraussetzungen wie alle skylake cpus und im grunde auch alle anderen cpus haben. im "wohlfühlbereich" ist jede cpu energieeffizient, inklusive bulldozer und netburst. aber wenn man das letzte quäntchen leistung rausquetschen muss, dann bricht die energieeffizienz weg. skylake ist im grunde auch effizient, aber nicht mehr bei 5 ghz. auch zen2 ist bei hohem takt nicht mehr energieeffizient. und so muss intel auch bei rocketlake den spagat schaffen zwischen guter effizienz und spitzenleistung. beim ersten skylake wurde intel noch für seine herausragende energieeffizienz gelobt. die effizienz der architektur hat sich seit dem kein bisschen verschlechtert, nur intel musste immer weiter mit dem takt an die grenzen und damit in den ineffizienten bereich. auch beim bulldozer gab es octacores mit 45 watt tdp und hoher effizienz (als opteron), aber die gamingleistung war gegen intel nicht wettbewerbsfähig. da musste deutlich mehr takt her und damit fing die tdp der FX bei 125 watt an und endet beim FX-9590 jenseits von 200 watt, obwohl der baugleich zum hocheffizienten 45 watt opteron war. dafür hatte der FX-9590 dann annähernd doppelte gamingleistung nur halt zum preis des fünffachen verbrauchs.
intel ist grad in einer ähnlichen situation. effizienz vs. wettbewerbsfähigkeit. ein decacore skylake mit 95 watt tdp wäre gar kein problem, aber dann müsste man sich hinter AMD einordnen und das ist nunmal nicht der anspruch, also reißt man teilweise auch mal die 200 watt-marke für leistungsspitzen, wo AMD dann nicht mehr hinkommt.
 
Volle Zustimmung. Ich wollte mit dem Beispiel aufzeigen das die Effizienz (bzw. der Verbrauch) auch stark von der Last abhängt. Das auch Rocketlake in Prime mit AVX massiv Strom schlucken wird steht denke ich außer Frage. Nur das eben nicht jede Last so einen hohen Verbrauch erzeugt. Deshalb ist Intel in Spielen derzeit verbrauchstechnisch tatsächlich auf Augenhöhe mit AMD, trotz 14nm. Wenn man natürlich eine Last anlegt die alle Kerne stark auslastet, dann zieht selbst Zen2 den Intel die Hose runter. Und das wird mit Zen3 vs. Rocketlake eher noch schlimmer für Intel werden.

Rocketlake ist keine Wunderwaffe sondern ganz klar Schadensbegrenzung... Oberhalb von 8 Kernen hat Intel auf dem kleinen Sockel einfach nichts gegen Zen2/3 entgegenzusetzen. Und bei kleiner TDP (65W und weniger) sowieso nicht. Selbst Zen2 ist bei nur 40W schon eine Waffe, da ist kein Kraut gegen gewachsen.
 
Was verbraucht denn so ein aktueller Intel 6 oder 8 Kerner in aktuellen Spielen?
Komm da mit meinem 3600 immer auf 30-40Watt
 
AMD hatte schonmal die Spitzenposition mit dem K7 um die Jahrtausendwende. Der wahr um einiges besser als der P3 von Intel. Die 1 GHZ wurde zu erst von AMD gebrochen nicht von Intel.
 
@def: das kommt doch darauf an. du kannst auch wunderbar mit einem i7 980X auf 40 watt gedeckelt zocken wenn das spiel keine befehlssatzerweiterungen nutzt, die der noch nicht kennt. so pauschal kann man das nicht beantworten.
 
Mein Beispiel wäre jetzt warzone in BR
 
müsste man testen wie viel ein auf 40 watt gedeckelter 10600k im vergleich zum 3600 @ 40 watt bringt, aber die unterschiede dürften kleiner sein als du glaubst.
 
Wieso den 10600 deckeln? Lass den laufen wie er läuft wenn hier einer einen hat. Ne Stelle auf der Map aussuchen und und screeny mit afterburner osd machen. Von mir aus auch in 720p mit Verbrauch der CPU und dabei erreichten FPS.
Ich stell das Szenario dann nach mit dem 3600, natürlich was FPS angeht und dann vergleichen wir den Verbrauch.
 
  • Danke
Reaktionen: Tzk
Man muss schon das OC, das man für den Vergleich verwenden möchte, auch dem andern zugestehen. Also nicht R5 3600 Allcore vs 10600K stock. Denn den normale Turbobetrieb benötigt höhere Vcore, als 4,5 Allcore, was der 10600K beim zocken hat.
Beitrag automatisch zusammengeführt:

Intel CPUs schlucken beim Zocken nicht viel. Optimieren kann man jede CPU, egal wo sie her kommt.

Leistungsaufnahme Spiele Durchschnitt verschiedene CPUs

Leistungsaufnahme Spiele Durchschnitt.png

Quelle: https://www.pcgameshardware.de/Core...-Lake-10600K-Benchmarks-Review-Specs-1349507/

Oh, der 10600K is ja sparsamer als der R5 3600.
 
Zuletzt bearbeitet von einem Moderator:
Ich weiß nicht, warum hier immer so auf Spielen rumgeritten wird?
Ja, Games machen Spaß und verlangen der Hardware mittlerweile einiges ab. Zumindest bei grafisch aufwendigen Spielen, bei denen eine hohe, gleichmäßige Framerate essentiell für den Spielspass ist. Aber abseits von Games gibt es halt noch mehr, was man mit einem PC anfangen kann, daher ist für mich eine Konsole keine Option. Und da ein Systemwechsel nicht unerheblich Kohle verschlingt, überlegt man sich i. d. Regel schon vorher, mit welcher Software man arbeiten will und was dafür am sinnvollsten ist. Mir nützt ein Threatripper oder 10980XE nix, wenn die Software ihn nicht auslasten kann und er im Idle schon mehr Strom (und damit Abwärme) verbrät als ein 10600k oder R5 3600 im Teillastbetrieb. Und für Anwendungen wie eben Videoschnitt bzw. Rendering, Bildbearbeitung, DAW usw. ist noch nicht jede Software so gut optimiert, das sie Vorteil aus beliebig vielen Cores/Threats zieht. Und selbst für Games sind ja bereits 8 echte Kerne ausreichend, wenn sie schnell genug sind, siehe die Anfangsprobleme mit Threatripper.

Daher wäre mein Wunsch nicht eine CPU (wurscht ob Team Rot oder Blau), die einen hohen All-Core-Turbo um die 4.5GHz dauerhaft, stabil und mit entsprechend niedriger Leistungsaufnahme und Abwärme schafft. Und im Idle gern auf 2.GHz runterregelt.
5.3GHZ als Werbewirksame Zahl ist ja ganz nett, aber wann bringt man schon das Szenario zusammen, das die anliegen und zu welchem Preis?
Und was bringen Sie effektiv? In Spielen braucht man sie kaum, mal davon abgesehen davon das kein Mensch nur 28 bzw. 56s lang spielt...:sneaky:
Die meisten Game-Intros schon länger...

Und in Produktivanwendungen, die es schaffen alle Kerne auszulasten, ist die Reale Rechenzeit auch oft mehr. Selbst wenn eine CPU ein geschnittenes Video in doppelter Echtzeit rendern kann, sind das bei 5min Videolänge immer noch 2,5min Rechenzeit....
 
Naja, es ist noch immer 14nm(++++). Man sollte sich also nicht der Illusion hingeben das die Effizienz für Rocketlake steigt. Wenn das Teil 5ghz läuft, dann bei ähnlichen Verbrauch wie Cometlake, wobei der Verbrauch in Spielen ja tatsächlich mit grob 100W ganz gut ausschaut. Da sind wir weit von den 250W Peaks weg, die bei Volllast entstehen. Von daher könnte das für Spiele schon klappen.
Für Rocket-Lake erwarte ich da auch keine deutliche Verbesserung. Frühestens mit Alder-Lake resp. Meteor-Lake. Und da schon jetzt klar ist, das der Sockel 1200 mit Alder-Lake beerdigt wird, interessiert mich Rocket Lake nicht.
Ich müsste Stand jetzt so oder so mindestens MB &CPU tauschen, was angesichts der zu erwartenden Mehrleistung keinen Sinn macht. Und in 2-3 Jahren wird eh die gesamte Hardware zum Tausch fällig...

Aber nach den jetzigen Stand finde ich weder bei AMD noch Intel eine System-Kombination, die mich soweit reizt, das ich bereit wäre das dafür aufgerufene zu bezahlen.
 
  • Danke
Reaktionen: Tzk
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh