Rocket Lake-S nutzt Sunny-Cove-Kerne in 14 nm

Naja, könnte auch einfach daranliegen, dass du keine CPU besitzt, welche AVX-512 unterstützt :fresse:




Klar, durch Geisterhand. Passiert einfach so, wenn eine GPU erkannt wird.
Dabei ignorieren wir einfach, dass der Code explizit für GPUs geschrieben werden muss. Nicht einmal bei Games übernimmt die GPU sämtliche Vektorberechnung oder was meinst du, warum manche Games AVX nutzen?

Kannst du eigentlich auch mal sinnvolle Kommentare abgeben oder ist dir das nicht möglich?
Avx sind vektorberechnungen, und dafür hat amd gpus. Deshalb bauen sie kein avx in ihre prozessoren. Avx ist für serverbetreiber und dergleichen interessant, da gibt es angepasste software die dann genausogut auf gpus ausgelegt werden kann.
Beitrag automatisch zusammengeführt:

Das ergibt eher +0,3%.
Oh ich vergas +5%*
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Avx sind vektorberechnungen, und dafür hat amd gpus. Deshalb bauen sie kein avx in ihre prozessoren. Avx ist für serverbetreiber und dergleichen interessant, da gibt es angepasste software die dann genausogut auf gpus ausgelegt werden kann.

Ach so, AMD verbaut keine AVX Einheiten in deren CPUs. Wie kommt es dann, dass deren CPUs auch AVX/AVX2 ohne iGPU unterstützen? :fresse:
Bitte informiere dich doch wenigstens etwas, bevor du so einen Schwachsinn postest..
 
Ach so, AMD verbaut keine AVX Einheiten in deren CPUs. Wie kommt es dann, dass deren CPUs auch AVX/AVX2 ohne iGPU unterstützen? :fresse:
Bitte informiere dich doch wenigstens etwas, bevor du so einen Schwachsinn postest..
Wir haben über AVX 512 geredet. Darin bezog sich die ursprungsaussage, und demzufolge auch meine antworten.

Bitte zusammenhängendes lesen und verstehen vorher, bevor du die smileys rausholst.
 
Amd will kein avx512 in ihre cpus bauen, weil das ein festure ist dass von gpus bereits verdammt gut erledigt wird.

Avx512 ist nur eine besondere aufteilung spezieller berechnungen. Man kann zu ergebnis X mit mehr als nur einer mathematischer formel kommen.

1+1 = 2 5-3 = 2

Seht ihr?

Und avx sind vektorberrechnungen die gpus sehr gut erledigen. Amds worte nicht meine
 
Intel wird wegen der Komplexität und des Zeitaufwands eines Backports nicht auf die neueste uArch setzen. Als man mit dem Backport angefangen hat war 10nm Superfin wohl noch nicht absehbar... davon abgesehen ist der Unterschied zwischen Sunny und willowcove nicht riesig.

Schafft man es Sunnycove zu portieren, dann gibts +18% IPC, wir landen also grob wieder dort, wo wir mit Coffeelake vs. Zen2 schon waren. Nur das man bei Intel diesmal etwas Taktmalus und bei Amd etwas Taktbonus hat. Ich denke es läuft in spielen mit Rocketlake und Zen3 auf Gleichstand raus, während Amd in anwendungen (auch) durch mehr Kerne davonzieht. Und eine weit bessere Effizenz bietet.
 
Wir haben über AVX 512 geredet. Darin bezog sich die ursprungsaussage, und demzufolge auch meine antworten.

Bitte zusammenhängendes lesen und verstehen vorher, bevor du die smileys rausholst.

Du hattest zuvor geschrieben: Als gamer übernimmt die gpu die ganzen vektor berechnungen

Du hast also nicht explizit von AVX512 geschrieben. Drück dich das nächste Mal einfach präziser aus...


Amd will kein avx512 in ihre cpus bauen, weil das ein festure ist dass von gpus bereits verdammt gut erledigt wird.

Aber nicht in jedem Fall und GPUs haben u.a. folgende Nachteile:
  • aufwändigere Programmierung
  • Weniger Speicher
  • Daten müssen erst zur GPU und dann wieder zurück


Ich denke es läuft in spielen mit Rocketlake und Zen3 auf Gleichstand raus, während Amd in anwendungen (auch) durch mehr Kerne davonzieht. Und eine weit bessere Effizenz bietet.

Wenn die neuen Ryzen noch höher getaktet werden, dann wird da auch die Effizienz leiden. Sowie es bei Intel der Fall ist. Die sind ja auch nur so ineffizient, weil die vom Takt her so hochgezogen werden. Sonst können die von der Effizienz her ganz gut mithalten, wenn man die auf deren TDP eingrenzt und diese so deren Boost nur für kurze Zeit halten, wie eigentlich vorgesehen, und nicht die ganze Zeit mit Boost Taktraten laufen.

Achja und man sollte nicht unbedingt von dem Stromverbrauch bei Heavy-AVX-Workloads auf den Stromverbrauch bei alltäglichen Workloads schließen.


Da ich nen Skylake-X habe kann die das jawohl 🤪

Das ist nen Argument. :fresse:
Aber CPUs mit AVX 512 sind im Mainstream kaum vorhanden.
 
Jup als gamer hast du die gpu die das übernimmt. Exotische szebarien wo ein game explizit avx512 nutzt ausgenommen.

Ich weis ich bin unpräzise.
 
auf den Stromverbrauch bei alltäglichen Workloads schließen.
Jau, sieht man ja in Spielen sehr gut, wo die Intels mit meist 100W laufen und so weit unterhalb des max. Verbrauchs von 250W bleiben. Ich hatte ja im Satz davor explizit Anwendungen erwähnt und mich dabei auf Lasten bezogen, die stark multithreaded laufen und so einen hohen Verbrauch erzeugen.

Die Effizienz der Ryzen kann nicht leiden, weil TDP und Maximalverbrauch identisch bleiben. Wir sind weiterhin bei 105W TDP und 142W Maximalverbrauch. Was die Mainboardhersteller daraus machen ist natürlich die andere Frage. Ohne PBO und sonstiges Aushebeln der Limits sollte sich aber am Verbrauch nix ändern. Folglich muss die Mehrleistung von Zen3 mehrheitlich aus der IPC kommen, am Prozess hat man ja nichts geändert.
 
Weil die Effizienz von Zen2 ggü. Cometlake auch besser ist!? Woher denn sonst...
 
Besser ja, aber eben nicht weit besser, wenn sich auch bei Intel an die TDP gehalten wird 🤷‍♂️
 
AMD wird seine Ryzen-5000-Prozessoren ab dem 5. November verkaufen. Einige Monate hat man hier also offenbar mit der alleinigen Leistungskrone in allen Bereichen – Gaming, Multi-Threaded und hinsichtlich der Effizienz.
Das wird sich nicht nur die paar Monate bis ende des Jahres hinziehen ,sondern länger.
Allein der Unterschied im TDP ist ne nicht zu Ignorierende Hausnummer.
Intel muss auf kleinere Architekturen gehen, ansonsten verliert es schlichtweg den Anschluß.
Außerdem sind ja noch weitere Konkurrenten im kommen ,die zwar momentan nicht mitmischen können aber auch nicht Unbemerkt sein sollten.
Siehe China und Russland.
Aktuell hat Intel das Nachsehen und das Weihnachtsgeschäft ist zugunsten AMD.
Da wird das eine oder andere Päckchen Taschentücher bei den Intel Jüngern verbraucht werden.
;-)
 
Wenn Intel so weiter macht sind bald sie in der Position die AMD mit FX all die Jahre waren :d
Sind sie doch schon. :fresse: Na okay, nicht ganz. IPC ist ja immer noch vergleichsweise gut. Aber zumindest was Energieeffizienz betrifft liegen sie mittlerweile Welten hinter AMD. Bei voller Auslastung war schon der 3950X etwa doppelt so energieeffizient wie der 10900K. Der 5950X wird da vermutlich nochmal 20-40% drauflegen.


Ist die IPC eigentlich auch von der Fertigung abhängig oder nur der maximal erreichbare Takt?
Ja, Fertigung spielt auch eine Rolle, Stichwort Signallaufzeit, Latenz oder Cache-Kapazität. Allerdings spielen die Änderungen auf Logikebene üblicherweise eine deutlich grössere Rolle.


+18% ipc, -15% takt ergibt intel typische +5%
So viel weniger Takt wird's wohl nicht werden. Allerdings glaube ich auch nicht, dass man mit dem 14nm Backport die gleiche IPC Verbesserung wie mit der 10nm Variante erreicht. Vielleicht werden es +15% IPC und sogar >=5 GHz. Damit könnte man zumindest Single Core konkurrenzfähig sein. Multicore wird dann halt davon abhängen, welche Rekorde Intel bei der Leistungsaufnahme zu brechen bereit ist. :d Wobei AMD in einem halben Jahr auch schon einen Refresh am Start haben könnte. Gibt ja durchaus Gerüchte dazu, Stichwort Warhol.

Als gamer übernimmt die gpu die ganzen vektor berechnungen.
Nicht alle. Gibt durchaus einige, die die CPU übernimmt. Für DirectX gibt's da z.B. DirectX Math, eine für die jeweilige Architektur optimierte Bibliothek. Die könnte theoretisch auch AVX512 nutzen. Hab allerdings keine Ahnung ob sie das auch tut. Es gibt auch Compiler die Autovektorisierung für AVX512 unterstützen, wie der MSVC. Mit entsprechendem selbst geschriebenem C oder C++ Code kann der Compiler daraus AVX512 Maschinencode generieren. Vermutlich wird das aber kaum ein Entwickler bisher nutzen, weil der hardwareseitige Support halt kaum vorhanden ist.

Avx sind vektorberechnungen, und dafür hat amd gpus. Deshalb bauen sie kein avx in ihre prozessoren. Avx ist für serverbetreiber und dergleichen interessant, da gibt es angepasste software die dann genausogut auf gpus ausgelegt werden kann.
Damit es keine Missverständnisse gibt, AMD unterstützt AVX schon länger. Was sie bisher nicht unterstützen ist lediglich AVX512. Laut Gerüchten soll das aber mit Zen 4 kommen. Wobei ich AVX256 im Client-Markt eigentlich für optimal halte. Damit kann man 4-fach Vektoren mit doppelter Genauigkeit (64-bit) in einem Rutsch verarbeiten. Mehr als 4-fach Vektoren (wie z.B. für xyzw Koordinaten) und Gleitkommazahlen doppelter Genauigkeit braucht man hier eigentlich nicht. Für mehr benötigt es schon recht spezifische Workloads die eher im professionellen Markt anzutreffen sind. Da sind auf lange Sicht, wie du schon andeutest, effizientere Beschleuniger wie GPUs oder spezielle FPGAs wahrscheinlich die bessere Lösung. Damit das aber auch ohne Verrenkungen funktioniert, benötigt es vollkohärente System. Da sind wir noch nicht. AMD arbeitet aber zumindest daran.
 
Sind sie doch schon. :fresse: Na okay, nicht ganz. IPC ist ja immer noch vergleichsweise gut. Aber zumindest was Energieeffizienz betrifft liegen sie mittlerweile Welten hinter AMD. Bei voller Auslastung war schon der 3950X etwa doppelt so energieeffizient wie der 10900K. Der 5950X wird da vermutlich nochmal 20-40% drauflegen.



Ja, Fertigung spielt auch eine Rolle, Stichwort Signallaufzeit, Latenz oder Cache-Kapazität. Allerdings spielen die Änderungen auf Logikebene üblicherweise eine deutlich grössere Rolle.



So viel weniger Takt wird's wohl nicht werden. Allerdings glaube ich auch nicht, dass man mit dem 14nm Backport die gleiche IPC Verbesserung wie mit der 10nm Variante erreicht. Vielleicht werden es +15% IPC und sogar >=5 GHz. Damit könnte man zumindest Single Core konkurrenzfähig sein. Multicore wird dann halt davon abhängen, welche Rekorde Intel bei der Leistungsaufnahme zu brechen bereit ist. :d Wobei AMD in einem halben Jahr auch schon einen Refresh am Start haben könnte. Gibt ja durchaus Gerüchte dazu, Stichwort Warhol.


Nicht alle. Gibt durchaus einige, die die CPU übernimmt. Für DirectX gibt's da z.B. DirectX Math, eine für die jeweilige Architektur optimierte Bibliothek. Die könnte theoretisch auch AVX512 nutzen. Hab allerdings keine Ahnung ob sie das auch tut. Es gibt auch Compiler die Autovektorisierung für AVX512 unterstützen, wie der MSVC. Mit entsprechendem selbst geschriebenem C oder C++ Code kann der Compiler daraus AVX512 Maschinencode generieren. Vermutlich wird das aber kaum ein Entwickler bisher nutzen, weil der hardwareseitige Support halt kaum vorhanden ist.


Damit es keine Missverständnisse gibt, AMD unterstützt AVX schon länger. Was sie bisher nicht unterstützen ist lediglich AVX512. Laut Gerüchten soll das aber mit Zen 4 kommen. Wobei ich AVX256 im Client-Markt eigentlich für optimal halte. Damit kann man 4-fach Vektoren mit doppelter Genauigkeit (64-bit) in einem Rutsch verarbeiten. Mehr als 4-fach Vektoren (wie z.B. für xyzw Koordinaten) und Gleitkommazahlen doppelter Genauigkeit braucht man hier eigentlich nicht. Für mehr benötigt es schon recht spezifische Workloads die eher im professionellen Markt anzutreffen sind. Da sind auf lange Sicht, wie du schon andeutest, effizientere Beschleuniger wie GPUs oder spezielle FPGAs wahrscheinlich die bessere Lösung. Damit das aber auch ohne Verrenkungen funktioniert, benötigt es vollkohärente System. Da sind wir noch nicht. AMD arbeitet aber zumindest daran.
Genau das hat amd gesagt. Sie unterstützen avx512 nicht prozessorseitig weil sie der meinung sind das solch spezifische aufgaben besser von einer gpu übernommen werden. Kann dir sogar das video raussuchen. Bezog sich auf das serverumfeld.
 
wenn sich auch bei Intel an die TDP gehalten wird
Und wovon träumst du Nachts?
Die Intel "Gamer" CPUs der letzten 3 Jahre haben mit ihrer offiziellen TDP mal so gar nichts am Hut. Limitier mal einen 9900k auf die offizielle TDP und schau was nach einer Minute Last noch übrig bleibt.
 
Und wovon träumst du Nachts?
Die Intel "Gamer" CPUs der letzten 3 Jahre haben mit ihrer offiziellen TDP mal so gar nichts am Hut. Limitier mal einen 9900k auf die offizielle TDP und schau was nach einer Minute Last noch übrig bleibt.
Genau das, was Intel spezifiziert hat ?
 
Und wovon träumst du Nachts?
Die Intel "Gamer" CPUs der letzten 3 Jahre haben mit ihrer offiziellen TDP mal so gar nichts am Hut. Limitier mal einen 9900k auf die offizielle TDP und schau was nach einer Minute Last noch übrig bleibt.

Verliert so gut wie keine Leistung in Spielen und in Anwendungen auch nicht allzu viel: https://www.computerbase.de/2018-10...t/2/#abschnitt_benchmarks_in_spielen_fhd__uhd
Wenn ich die Werte, im Gegensatz zu dir, nicht kennen würde, dann würde ich auch nicht darüber schreiben. ;)

Ich glaube, dass du den gleichen Fehler, wie ein paar andere Dudes, begehst und dir den Verbrauch von irgendwelchen AVX2-Volllast-Szenarien anschaust und anhand dieser versuchst den Verbrauch von Intel CPUs festzumachen. Diese stellen aber nur den übelsten Worstcase da und kaum Anwendungen, welche der normale User so täglich benutzt, können so eine Last überhaupt erzeugen. Außer man betreibt regelmässig hartes number crunching oder betreibt rendering über die CPU..
 
@Paddy92 Was hat der Link mit den Spezifikationen der TDP zu tun?
@sch4kal und @Paddy92

Der Punkt ist, dass bei den High End Intel CPUs der 9. und 10. Generation die offiziellen Daten nichts mit der Realität zu tun haben.
Kaufe ein beliebiges Mainboard und setze einen 9900K drauf und der wird Out of the box ohne jede Übertaktung weit mehr ziehen, als die offiziellen Datenblätter von Intel darstellen.
Bis auf einige wenige OEM Rechner läuft das Ding nirgendwo innerhalb der Spezifikation, weil innerhalb der Spezifikation die Leistung und vor allem das Leistungsplus zu den Vorgängern vergleichsweise niedrig ist.
Das Leistungsplus der CPUs wurde 1zu1 mit mehr Stromverbrauch erkauft, ohne dass Intel das offiziell je zugegeben hat.

Im Prinzip haben die Mainboard Hersteller, vermutlich auch in Absprache mit Intel, stillschweigend angefangen die Dinger von der Leine zu lassen.
Auch die Testergebnisse von Computerbase und Co wurden mit CPUs gemacht, die weit mehr Strom verbraten, als Intel offiziell angibt.

So gut wie jede Hardwaretestseite hat das irgendwann irgendwo auch bestätigt (gucke bspw. hier: https://www.gamestar.de/artikel/int...ler-tricksen-bei-der-turbo-dauer,3336813.html).

edit: Um es klarzustellen: Die CPUs werden dadurch nicht schlechter/besser, ich störe mich nur daran, dass Intel von 95 Watt TDP spricht, während die Dinger im Realbetrieb >150Watt (je nach Board auch mal 190) ziehen dürfen.
 
@Paddy92 Was hat der Link mit den Spezifikationen der TDP zu tun?
@sch4kal und @Paddy92

Der Punkt ist, dass bei den High End Intel CPUs der 9. und 10. Generation die offiziellen Daten nichts mit der Realität zu tun haben.
Kaufe ein beliebiges Mainboard und setze einen 9900K drauf und der wird Out of the box ohne jede Übertaktung weit mehr ziehen, als die offiziellen Datenblätter von Intel darstellen.
Bis auf einige wenige OEM Rechner läuft das Ding nirgendwo innerhalb der Spezifikation, weil innerhalb der Spezifikation die Leistung und vor allem das Leistungsplus zu den Vorgängern vergleichsweise niedrig ist.
Das Leistungsplus der CPUs wurde 1zu1 mit mehr Stromverbrauch erkauft, ohne dass Intel das offiziell je zugegeben hat.

Im Prinzip haben die Mainboard Hersteller, vermutlich auch in Absprache mit Intel, stillschweigend angefangen die Dinger von der Leine zu lassen.
Auch die Testergebnisse von Computerbase und Co wurden mit CPUs gemacht, die weit mehr Strom verbraten, als Intel offiziell angibt.

So gut wie jede Hardwaretestseite hat das irgendwann irgendwo auch bestätigt (gucke bspw. hier: https://www.gamestar.de/artikel/int...ler-tricksen-bei-der-turbo-dauer,3336813.html).
Vollkommener Quatsch, ich hab einen 9700K und wenn ich mein Maximus XI Hero auf Werkszustand zurücksetze hält der penibel die TDP-Grenzen ein.
 
@sch4kal Spaßvogel.
Laut dem Link ist exakt das Board das einzige, dass sich an die Vorgaben hält. Und auch nicht im Werkszustand sondern bei einem bestimmten Setting
Zudem ist ein 9700k kein 9900k, wobei das Verhalten des 9700k ähnlich ist, wenn auch nicht ganz so extrem

Fakt ist, lässt du einen 9900k genau mit 95W TDP laufen, erreichst du niemals die Benchmark Ergebnisse, die überall verbreitet wurden.
Guck von mir aus auch hier: https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/3/
 
Und auch nicht im Werkszustand sondern bei einem bestimmten Setting
Zudem ist ein 9700k kein 9900k, wobei das Verhalten des 9700k ähnlich ist, wenn auch nicht ganz so extrem
Jo is klar, und morgen kommt der Weihnachtsmann.
 
Ich gebs auf, entweder kannst du nicht lesen oder willst nur trollen.
Nicht mein Problem.
 
Ich gebs auf, entweder kannst du nicht lesen oder willst nur trollen.
Nicht mein Problem.
Stimmt, ist ja nicht so das ich das Mainboard und einen 9700K selbst besitze und diverse Tests gemacht hab...:rolleyes:
 
Ja und deine Tests mit n=1 sind natürlich relevanter als alle Tests die im Netz so finden kann zusammen.
 
Der kann doch nichts schlechtes über seiner Liebe zu Intel schreiben ^^
 
Er hat ja gar nicht mal zu 100% unrecht.
Sein Board ist tatsächlich das einzige, dass sich im Werkszustand einigermaßen an die offiziellen Intel vorgaben hält. Dennoch zieht die CPU für die Minute die sie es darf dann an die 200W und danach bricht die Leistung halt extrem ein.
Und die Benchmarkergebnisse (wie auch die reale Leistung) seiner CPU auf seinem Board sind dann eben nicht mit denen von diversen Hardwaretestseiten vergleichbar.

Schön, dass er das einzige Board hat, bei dem nicht von vornherein geschummelt wird. Ändern nichts an der allgemeinen Gültigkeit meiner Aussagen zur Bedeutung der TDP bei den High End Intel CPUs.
 
Ja und deine Tests mit n=1 sind natürlich relevanter als alle Tests die im Netz so finden kann zusammen.
Komm, so intelligent bist du...was hat die Sample-Size mit den Default-Einstellungen eines Mainboards zur Einhaltung der TDP zu tun ?
Da ändert auch n -> ∞ nix.

Der kann doch nichts schlechtes über seiner Liebe zu Intel schreiben ^^
Hab Zuhause mittlerweile mehr AMD als Intel, aber gut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh