Cinebench R23 nT: Core i9-12900K fast doppelt so schnell wie sein Vorgänger

Wer die Leistungsaufnahme bemängelt der hat nur die Einstellungen zu den Power Limits im BIOS noch nicht entdeckt!
Dafür müsste Board/CPU aber das auch erst einmal unterstützen. ;)

B560-PM.png

@ der_Schmutzige: Zu was genau soll denn Intel aufschließen? Zu AVX-512 das nun auch AMD "gerne" bei Zen4 Genoa implementieren möchte?
Oder das AMD bei Zen5 auch vermutlich big/little der Intel7 verwenden möchte? Werde mal präziser WO Intel da nun aufschließen sollte. ;)

..wenn du allerdings dieses Benchgeplänkel meinst: Ich bitte dich. Da können wir uns gerne zu Release der AlderLake und W11 dann weiter unterhalten, wer da dann nun zu wem womit aufschließen muss. :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Spieluhr amd ist avx deshalb "egal" da sie ja entsprechende hardware ja haben. und diese hardware sind gpu.
das hat amd auch klar so gesagt dass sie für vektorberechnungen auf dauer die gpu als gewinner sehen werden. das kleine bisschen avx bei 2ghz macht intel ja weil sie dahingehend recht wenig anbieten konnten.
 
Interessant das sich seit Jahren nichts getan hat, macht Amd was dann ist das immer gut:
Chipsatz künstlich für neue CPU obwohl selber Sockel nicht updaten
Top CPU sich fürstlich bezahlen lassen

Intel hingegen, ist immer schlecht:
1151 vs 1151v2
Top CPU sich fürstlich bezahlen lassen

Nur mal 2 Beispiele :unsure:


Atm hat intel mit dem 11400F sowieso den P/L Kracher schlecht hin am Markt nach dem der 10400F auch sehr gut war.
Hätte ich eine GPU wäre mein Instant Kauf ein 10400f. Der 11400f ging von 160 auf 200 rauf:LOL:
 
Ist doch schön, dass Intel jetzt bald zu dem aufschließen kann, was AMD schon seit knapp 1 Jahr abliefert. :angel:
Waren dafür aber kurz nach Release fast immer in großen Mengen lieferbar, was man bei AMD/TSMC jetzt nicht gerade behaupten konnte.
 
@Spieluhr amd ist avx deshalb "egal" da sie ja entsprechende hardware ja haben. und diese hardware sind gpu.
Ahja. Also AMD ist AVX-512 egal. Ok, dann erkläre mir mal warum AMD das nun unbedingt in den Zen4 Epyc implementiert? Ist ja nonsens, da irgend eine GPU (??) AVX-512 übernehmen soll. Im Server Segment??
Außerdem, du kannst nicht per OPENCL und CUDA via nVidia virtual GPU an VM's verteilen und damit die GPU immer Vollgas laufen lassen. Da wird irgendwann der Overhead zu hoch.
 
Waren dafür aber kurz nach Release fast immer in großen Mengen lieferbar, was man bei AMD/TSMC jetzt nicht gerade behaupten konnte.
hä? war das nicht die 8. und 9. Generation, welche es Ewigkeiten nicht gab?
 
Ahja. Also AMD ist AVX-512 egal. Ok, dann erkläre mir mal warum AMD das nun unbedingt in den Zen4 Epyc implementiert? Ist ja nonsens, da irgend eine GPU (??) AVX-512 übernehmen soll. Im Server Segment??
Außerdem, du kannst nicht per OPENCL und CUDA via nVidia virtual GPU an VM's verteilen und damit die GPU immer Vollgas laufen lassen. Da wird irgendwann der Overhead zu hoch.
von unbedingt ist sowieso nicht die rede. ich habe lediglich gesagt was forest norrad gesagt hat. frag ihn das doch
 
roman hat evtl schon einen 12900k. in seinem letzten vlog hat er ein board und cpu ausgepackt und musste es zensieren.
 
  • Danke
Reaktionen: Tzk
@Spieluhr

hier
Beitrag automatisch zusammengeführt:

@Spieluhr

hier 29:40
 
hä? war das nicht die 8. und 9. Generation, welche es Ewigkeiten nicht gab?
Wenn du mit Ewigkeiten 1 Monat meinst, dann ja. Vermeer gibt es erst seit ca. 4 Monaten überhaupt zum UVP, fast ein dreiviertel Jahr später.

*oh hab ich schon erwähnt, das mein AG bereits seit 2 Monaten auf die HPE Server mit Milan wartet ? Vorstellung war im März, mit "umgehender Verfügbarkeit" wurde da geworben...aha
 
Ich auch und wenn die berüchtigten Fanboys schon auf Seite Eins salzig werden scheint die Leistung zumindest ok, mal sehen wie viel Intel dann im November auf Lager hat die Leute werden ziemlich gierig sein denke ich :devilish:.
 
dann halt AVX2 bei CPU-Z, hatte Spieluhr ja schon erwähnt.
Wo hatte Spieluhr schon erwähnt, dass du dich verschrieben hast?
Dafür müsste Board/CPU aber das auch erst einmal unterstützen. ;)
Also das kann sogar mein uraltes ASRock Z97 Extreme 6! Die einzigen Boards die diese Einstellung nicht haben dürfte, vielleicht von Exoten und Chinabilligboards mal angesehen, dürften die OEM Boards sein, aber die halten sich in aller Regel dann auch die Intel Defaults und damit kann man die CPUs nicht übertakten. Übertakten geht ja auch durch Anheben des Allcore Taktes und das geht auch auf Boards mit B oder H Chipsätzen, denn die wenigsten OEM Boards dürfte einen Z Chipsatz verbaut haben. Also ich bleibe mal dabei, wer sich über eine zu hohe Leistungsaufnahme beschwert, hat die Einstellungen zu den Power Limits im BIOS nicht gefunden, bei den wenigsten dürfte es daran liegen, dass es diese im BIOS nicht gibt, eher sind sie vermutlich bei aktiven OC Einstellungen ala AutoOC gar nicht sichtbar. Sonst würden einige Deppen nämlich AutoOC einschalten, aber die Power Limits nach Vorgabe einstellen und sich dann laut beschweren, wieso das Board die CPU nicht übertaktet bekommt. Die Hersteller müssen immer auch mit solchen DAUs rechnen.

@Spieluhr amd ist avx deshalb "egal" da sie ja entsprechende hardware ja haben. und diese hardware sind gpu.
Das sind zwei verschieden Sachen die unterschiedliche Anwendungsbereiche haben und genau deshalb gibt es ja auch beides.

das hat amd auch klar so gesagt dass sie für vektorberechnungen auf dauer die gpu als gewinner sehen werden.
Es gibt keinen Gewinner und Verlierer, da beide Technologien nur bedingt miteinander konkurrieren. Und die Aussage von Forrest Norrod in dem Video ist auch eine andere, nämlich dass die Leistungsaufnahme auf kleinem Raum (Powerdensity) und die Größe der AVX-512 Einheiten sehr groß sind AMD dafür Kompromisse hätte eingehen müssen (vermutlich weniger Kerne pro Chiplet). GPUs sind AMD für hochgradig vektorisierte Anwendungen als Gewinner, aber genau da liegt ja der Knackpunkt, denn nicht viele Anwendungen, gerade im Bereich AI, sind nicht so hochgradig vektorisiert und dann hat man durch den ganzen Overhead die Daten und das Programm zur GPU zu übertragen und die Ergebnisse zurück, mehr Nach- als Vorteile.

Das war ja mal der Sinn hinter AMDs Fusion Konzept mit den APUs, die durch den gemeinsamen Zugriff auf das RAM eben genau diesen Overhead massiv reduzieren und die GPU in den APUs so auch kleine Aufgaben sinnvoll nutzbar machen. Das ganze wurde aber inklusive der die Entwicklerunterstützung nur kleckerweise umgesetzt und mit dem Erscheinen von Zen komplett eingestellt. Diejenigen die damals auf den Zug aufgesprungen sind, wurden also im Regen stehen gelassen.

das kleine bisschen avx bei 2ghz macht intel ja weil sie dahingehend recht wenig anbieten konnten.
Wieso bei 2GHz? Der Takt fällt zwar, die Leistung ist aber extrem hoch, wenn AVX-512 wirklich intensiver genutzt wird. Dies sieht man schön im Review des i3-8121U bei Anandtech, dem einzigen Cannon Lake den es je gab:
Ein kleiner 15W Zweikerne kann eine fetten 18 Kerner schlagen wenn der ohne AVX-512 läuft. Da kann man wirklich auf ein paar Hundert MHz verzichten und gewinnt immer noch massiv an Performance. Dies sehen nur leider die wenigsten, denn die meisten setzen Prime95, welches in den aktuellen Versionen auch massiv AVX-512 nutzen kann, nur ein um die Leistungsaufnahme zu ermitteln, schauen aber nicht auf dessen Performance.

Übrigens hat Intel mit den Iris Xe inzwischen auch discrete GPUs, die in nächster Zeit auf den Markt kommen dürften und vor allem auf HPC zielen.
ich habe lediglich gesagt was forest norrad gesagt hat. frag ihn das doch
Nein, denn hoffenbar hast du ihn massiv missverstanden.
 
Die Ryzen CPUs sind afaik bei um die 140W gedeckelt. Mehr dürfen die einfach nicht verbrauchen. Egal wie oder womit man bencht.

Die Intel CPUs hingegen dürfen bis zu 250W verbraten.

Stimmt so ja nicht. Aktiviere PBO und schon schluckt ein Ryzen um einiges mehr.
 
Das war ja mal der Sinn hinter AMDs Fusion Konzept mit den APUs, die durch den gemeinsamen Zugriff auf das RAM eben genau diesen Overhead massiv reduzieren und die GPU in den APUs so auch kleine Aufgaben sinnvoll nutzbar machen. Das ganze wurde aber inklusive der die Entwicklerunterstützung nur kleckerweise umgesetzt und mit dem Erscheinen von Zen komplett eingestellt. Diejenigen die damals auf den Zug aufgesprungen sind, wurden also im Regen stehen gelassen.
AMDs Fusion war die Grundlage für die heutige Zen Struktur. Das effiziente Multichiplet Design hat massiv davon profitiert. Langfristig wird es sowieso dazu kommen das man unterschiedliche Chips mit spezialisierten Aufgaben durch chiplets auf einem Die realisiert. Spezialisierung in etwas ist immer schneller, effizienter und effektiver.
Bei Intel ist es halt mit drauf wegen der Bildausgabe. Es ist sowieso irgendwie nur auf dem Papier sonst Augenwischerei, wenn man von einem G AMD Prozessor die GPU für floatings nutzen würde (Vega) würde das jeden Intel CPU nieder machen, aber man trennt das als Äpfel und Birnen bei AMD. Bei Intel werden halt diese Floatings der GPU von der CPU geshared., wie mit dem Shared Memory Müll.

Unter dem Strich ist es halt linke Tasche, rechte Tasche. Die Gesamtleistung ist ja eh entscheidend in der Straßenperformance.

Oder was meinst du/ihr warum Intel auf biegen und brechen auch endlich dedizierte Grafikkarten auf den Markt bringt?
Man kann auf Dauer auch technisch nicht mehr in allen Bereichen auf selben Fläche in allen Disziplinen die Rechenleistung oben halten.
Man wird zu dem punkt kommen wo man Prioritäten setzten muss.
Ich mein wer Vektoren mit der CPU berechnen möchte/muss kauft dann halt Intel wenn das so toll ist. Die anderen Werden auf GPU speed setzen und dank ResizeBar kann die CPU eh ohne Probleme direkt in den GPU RAM schreiben.
 
AMDs Fusion war die Grundlage für die heutige Zen Struktur.
Nein, wer dies glaubt, zeige mir mal was von Fusion noch in Zen steckt und wird nichts finden, denn er hat überhaupt nicht verstanden, was Fusion überhaupt ist. Es ging um die Integration von CPU und GPU und Zen hat entweder gar keine GPU mehr oder eine die wieder genauso von der CPU getrennt ist wie vor der Fusion Integration.
Das effiziente Multichiplet Design hat massiv davon profitiert.
Fusion hat mit Chiplets gar nichts zu tun, dies Fusion APUs waren alle monolithische Designs.
Bei Intel ist es halt mit drauf wegen der Bildausgabe.
Genau wie bei allen APUs auf Zen Basis, AMD hat Fusion komplett begraben!
wenn man von einem G AMD Prozessor die GPU für floatings nutzen würde (Vega) würde das jeden Intel CPU nieder machen,
Belege? Das ist totaler Quatsch, die Zen basierten APUs haben kein Fusion mehr, die haben eine CPU und eine iGPU die genauso getrennt sind wie bei den Intel CPUs mit iGPU.
Bei Intel werden halt diese Floatings der GPU von der CPU geshared., wie mit dem Shared Memory Müll.
Was für ein Quatsch²! Es gibt Intel CPUs ohne iGPU deren FP und sonstige CPU Performance nicht schlechter als die der Modelle mit iGPU ist, teils sogar ein wenig besser, weil die CPU sich die RAM Zugriffe nicht mit der iGPU teilen muss. Die RAM Bereich sind aber eben strikt getrennt und dies ist bei den aktuellen, Zen basierten AMD APUs eben nicht anderes.
Oder was meinst du/ihr warum Intel auf biegen und brechen auch endlich dedizierte Grafikkarten auf den Markt bringt?
Erstmal bin ich nur einer, keine Gruppe und dann ist es eben der Weg den Intel geht, nachdem die Xeon Phi eben nicht erfolgreich waren. Ebenso wie AMD mit Fusion in eine Sackgasse gerannt ist, ist es Intel auch mit den Xeon Phi und dann orientiert sich ein Unternehmen eben um. Dedizierte Grafikkarten machen im HPC ja durchaus Sinn, aber dies bedeutet eben nicht, dass Befehlserweiterungen wie AVX-512 und demnächst dann AMX (Advanced Matrix Extension) keine Sinn machen, denn beides konkurriert weniger als es sich ergänzt.
Man kann auf Dauer auch technisch nicht mehr in allen Bereichen auf selben Fläche in allen Disziplinen die Rechenleistung oben halten.
Was soll dieser Satz uns sagen? Es sollte klar sein, dass man mehr Transistoren braucht um die IPC zu steigern, egal ob mit Befehlssatzerweiterungen oder sonstwie. Diese zusätzlichen Transistoren brauchen eben auch mehr Platz, sofern man dies nicht über die Fertigung kompensieren kann, weshalb die Rocket Lake CPUs mit den Cypress Cove Kernen, die eben die auf 14mm backported Sunny Cove Kerne sind, maximal 8 statt wie ihre Vorgänger 10 Kerne haben, denn die Architektur war eben für 10nm entwickelt worden und die Kerne sind in 14nm eben viel größer als die ihrer Vorgänger.
Ich mein wer Vektoren mit der CPU berechnen möchte/muss kauft dann halt Intel wenn das so toll ist.
Es bringt eben eine um Längen bessere Performance und obwohl eine GPU dies noch viel schneller könnte, ist die Latenz zu hoch um kleinere Aufgaben dort berechnen zu lassen. Da ist der Pferdefuß wenn es darum geht GPGPU zu betreiben und genau deshalb machen solche Befehlserweiterungen auch Sinn, mal ganz davon abgesehen, dass ein guter Compiler von sich auch die Programme auf AVX-512 optimieren kann (klar, bei weitem noch nicht so gut wie von Hand optimierter Code ist), aber um Berechnungen auf der GPU auszuführen, braucht man eben einen ganz anderen Befehlssatz und der Aufwand dies zu programmieren, ist ungleich höher. Programmieren, vor allem gute, sind aber chronisch knapp und gute Entwickler kosten richtig Geld, obendrein hat man dann sehr spezifische Hardwareanforderungen was für kommerzielle Software auch kein Vorteil ist, da man damit den potentiellen Markt verkleinert.
dank ResizeBar kann die CPU eh ohne Probleme direkt in den GPU RAM schreiben.
Dies kann man auch ohne ResizeBar, aber es dauert und man muss alle Daten übertragen, die Inputdaten zur GPU und die Ergebnisse zurück von der GPU, weshalb es sich eben nur lohnt, wenn man auch genug Berechnungen auf diesen Daten ausführt um diesen Zeitverlust zu kompensieren, wobei die Grenze natürlich von der jeweiligen Performance der CPU und GPU sowie der Anbindung der GPU abhängt. Was also trotz der Datenübertragungen auf einem System schneller auf der dGPU auszuführen wäre, ist es auf einem anderen System nicht, wie soll ein SW Entwickler da alle Fälle abdecken können?
 
Den Screen hast du dir aber angeschaut und du weißt was die 11400 für eine CPU ist?

Ich würde ein Asus Rog Strix B560-F Gaming WiFi jetzt nicht als Billig oder OEM Board bezeichnen.
 
Nein, wer dies glaubt, zeige mir mal was von Fusion noch in Zen steckt und wird nichts finden, denn er hat überhaupt nicht verstanden, was Fusion überhaupt ist. Es ging um die Integration von CPU und GPU und Zen hat entweder gar keine GPU mehr oder eine die wieder genauso von der CPU getrennt ist wie vor der Fusion Integration.
Fusion hat mit Chiplets gar nichts zu tun, dies Fusion APUs waren alle monolithische Designs.
Genau das hat ja dann zum Chiplet Design geführt man hatte gemerkt das dies eine Sackgasse ist.
Genau wie bei allen APUs auf Zen Basis, AMD hat Fusion komplett begraben!
So ist es lang leben die Chiplets!
Belege? Das ist totaler Quatsch, die Zen basierten APUs haben kein Fusion mehr, die haben eine CPU und eine iGPU die genauso getrennt sind wie bei den Intel CPUs mit iGPU.
Bring mir ein Beleg das es nicht so ist, das die Intel iGPU auf CPU ressourcen zugreift die eine Vega iGPU nicht brauch.
Was für ein Quatsch²! Es gibt Intel CPUs ohne iGPU deren FP und sonstige CPU Performance nicht schlechter als die der Modelle mit iGPU ist, teils sogar ein wenig besser, weil die CPU sich die RAM Zugriffe nicht mit der iGPU teilen muss. Die RAM Bereich sind aber eben strikt getrennt und dies ist bei den aktuellen, Zen basierten AMD APUs eben nicht anderes.
Die sind in der Regel ja kastriert, außerdem ist es in der Fertigung billiger immer das gleiche Muster zu fertigen wie verschiedene Vorlagen zu verwenden.
Erstmal bin ich nur einer, keine Gruppe und dann ist es eben der Weg den Intel geht, nachdem die Xeon Phi eben nicht erfolgreich waren. Ebenso wie AMD mit Fusion in eine Sackgasse gerannt ist, ist es Intel auch mit den Xeon Phi und dann orientiert sich ein Unternehmen eben um. Dedizierte Grafikkarten machen im HPC ja durchaus Sinn, aber dies bedeutet eben nicht, dass Befehlserweiterungen wie AVX-512 und demnächst dann AMX (Advanced Matrix Extension) keine Sinn machen, denn beides konkurriert weniger als es sich ergänzt.
Die Frage war an alle in der Diskussion allgemein gestellt :-)
Was soll dieser Satz uns sagen? Es sollte klar sein, dass man mehr Transistoren braucht um die IPC zu steigern, egal ob mit Befehlssatzerweiterungen oder sonstwie. Diese zusätzlichen Transistoren brauchen eben auch mehr Platz, sofern man dies nicht über die Fertigung kompensieren kann, weshalb die Rocket Lake CPUs mit den Cypress Cove Kernen, die eben die auf 14mm backported Sunny Cove Kerne sind, maximal 8 statt wie ihre Vorgänger 10 Kerne haben, denn die Architektur war eben für 10nm entwickelt worden und die Kerne sind in 14nm eben viel größer als die ihrer Vorgänger.
Das sollte nur klar sein das man gewisse Rechenoperationen irgendwann "Outsourcen" muss, wegen Platzmangel oder technischer Machbarkeit.
Es bringt eben eine um Längen bessere Performance und obwohl eine GPU dies noch viel schneller könnte, ist die Latenz zu hoch um kleinere Aufgaben dort berechnen zu lassen. Da ist der Pferdefuß wenn es darum geht GPGPU zu betreiben und genau deshalb machen solche Befehlserweiterungen auch Sinn, mal ganz davon abgesehen, dass ein guter Compiler von sich auch die Programme auf AVX-512 optimieren kann (klar, bei weitem noch nicht so gut wie von Hand optimierter Code ist), aber um Berechnungen auf der GPU auszuführen, braucht man eben einen ganz anderen Befehlssatz und der Aufwand dies zu programmieren, ist ungleich höher. Programmieren, vor allem gute, sind aber chronisch knapp und gute Entwickler kosten richtig Geld, obendrein hat man dann sehr spezifische Hardwareanforderungen was für kommerzielle Software auch kein Vorteil ist, da man damit den potentiellen Markt verkleinert.
Der Ansatz von Bequemlichkeit war noch nie gut beim Programmieren. Trashcode ist waste ;)
Dies kann man auch ohne ResizeBar, aber es dauert und man muss alle Daten übertragen, die Inputdaten zur GPU und die Ergebnisse zurück von der GPU, weshalb es sich eben nur lohnt, wenn man auch genug Berechnungen auf diesen Daten ausführt um diesen Zeitverlust zu kompensieren, wobei die Grenze natürlich von der jeweiligen Performance der CPU und GPU sowie der Anbindung der GPU abhängt. Was also trotz der Datenübertragungen auf einem System schneller auf der dGPU auszuführen wäre, ist es auf einem anderen System nicht, wie soll ein SW Entwickler da alle Fälle abdecken können?
Genau deshalb gibt es ja BAR, es bietet eine einfachere Schnittstelle den Speicherpool nutzen zu können und Informationen direkt in den Grafikspeicher ablegen zu können und aufrufen zu können.
Nach meinem Verständnis wird es ja klassisch CPU->Hauptspeicher->GPU/Grafikspeicher->Hauptspeicher->CPU. So geht halt CPU->GPU-RAM->CPU und macht den Hauptspeicher teilweise überflüssig.
 
Bring mir ein Beleg das es nicht so ist, das die Intel iGPU auf CPU ressourcen zugreift die eine Vega iGPU nicht brauch.
Du hast initial eine zweifelhafte Behauptung getätigt. Demnach bist du einen Beleg schuldig.

Der Ansatz von Bequemlichkeit war noch nie gut beim Programmieren. Trashcode ist waste ;)
Da sprichst du aus deiner geballten Erfahrung als Softwareentwickler, am i right?

Genau deshalb gibt es ja BAR, es bietet eine einfachere Schnittstelle den Speicherpool nutzen zu können und Informationen direkt in den Grafikspeicher ablegen zu können und aufrufen zu können.
Nach meinem Verständnis wird es ja klassisch CPU->Hauptspeicher->GPU/Grafikspeicher->Hauptspeicher->CPU. So geht halt CPU->GPU-RAM->CPU und macht den Hauptspeicher teilweise überflüssig.
Resizeable BAR hebt lediglich eine Limitierung bzgl. der Größe der einzelnen Zugriffe auf, welche es aus Kompatibilitätsgründen gibt. Dies ermöglicht den direkten Zugriff auf den vollen* VRAM und nicht wie ohne rBAR in 256MB Blöcken.



*natürlich im Rahmen der 64bit Grenzen
 
Da sprichst du aus deiner geballten Erfahrung als Softwareentwickler, am i right?
Nein ich bin der Arme Kerl der sich mit der Software für die User beschäftigen muss und oft mir Workarounds hantieren muss das es wie gewünscht funktioniert und es ist natürlich höchst professionell vom Entwickler die Aussage zu bekommen das Betriebssystem Sicherheitspatches deaktiviert werden müssen damit die Müllsoftware funktionieren kann:)
Du hast initial eine zweifelhafte Behauptung getätigt. Demnach bist du einen Beleg schuldig.
Ich hab nichts gegenteiliges gefunden die das ausschließt.
Resizeable BAR hebt lediglich eine Limitierung bzgl. der Größe der einzelnen Zugriffe auf, welche es aus Kompatibilitätsgründen gibt. Dies ermöglicht den direkten Zugriff auf den vollen* VRAM und nicht wie ohne rBAR in 256MB Blöcken.
Machts trotzdem etwas einfacher für den Programmierer.

Jetzt mal Butter bei die Fische, wie viele User profitieren jetzt von AVX-512?
 
Die Ryzen CPUs sind afaik bei um die 140W gedeckelt. Mehr dürfen die einfach nicht verbrauchen. Egal wie oder womit man bencht.

Die Intel CPUs hingegen dürfen bis zu 250W verbraten.

Aha, und die ~267 Watt meines 5950X sind dann was? Wenn ich da PBO aktiviere, brennt die Hütte.
 
Beide kochen ihr Süppchen nur mit Wasser. Leistung erzielt man halt nur über Energie. Sowohl bei Intel als auch bei AMD. Der Rest ist Fanboy Gebashe. ;)

..ich warte was Intel mit Alder Lake so bringt, werde mir den so oder so nicht zulegen (hab ja Rocket) und persönlich kommt das nächste Upgrade erst mit Meteor Lake oder Ängström Ära.
Dann ist auch die HW. drum herum breitflächig und zu guten Preisen verfügbar.
 
Aha, und die ~267 Watt meines 5950X sind dann was? Wenn ich da PBO aktiviere, brennt die Hütte.

Vielleicht solltest du mal "afaik" googeln, bevor du solche Empörungskommentare ablässt.

Wenigstens in PBO wohl nicht default aktiviert. Anders als bei Intel, wo die Boards wohl default den vollen Verbrauch zulassen.
 
Zulassen, aber nicht unbedingt beanspruchen. Ist ein nicht unwesentlicher Unterschied. ;)

..außerdem lassen, zumindest die "K" Modelle sehr wohl ein PM und PL zu. War schon damals bei meinen Z77 OC Formula mit 3570k so.
Was Holt bei meinen jetzigen 11400 meinte bzw. wo ich ihm da korrigieren musste, begründet sich halt darauf, dass der PM und PL Einstellungen gelockt sind, da kein "K" Prozi.
Und auch wenn das Board theoretisch 250W. zuläßt (siehe Screen aus Post #31), so hast du praktisch Probleme schon mit der 11400 die Hälfte dessen zu erreichen was theoretisch vorgegeben wird.

Äpfel mit Birnen Diskussion halt. :)

edit @ zu PBO:

Anders sieht es beim Ryzen 9 5950X aus, der im Multi-Core-App-Parcours deutlich zulegt: 7 Prozent schneller rechnet die CPU, weil die Taktraten stark ansteigen. Im Blender-Benchmark liegen mit aktivem PBO über 4,4 GHz auf allen 16 Kernen an. Die Leistungsaufnahme an der Steckdose steigt allerdings auch hier von 200 auf 300 Watt, die Effizienz sinkt deutlich.
Quelle
 
Zuletzt bearbeitet:
Nein ich bin der Arme Kerl der sich mit der Software für die User beschäftigen muss und oft mir Workarounds hantieren muss das es wie gewünscht funktioniert und es ist natürlich höchst professionell vom Entwickler die Aussage zu bekommen das Betriebssystem Sicherheitspatches deaktiviert werden müssen damit die Müllsoftware funktionieren kann:)
Ohne die Details oder den genauen Kontext zu kennen, fällt es mir schwer was dazu zu sagen. Aber auch uns Softwareentwicklern sind Grenzen gesetzt und wir können nicht alles machen.

Ich hab nichts gegenteiliges gefunden die das ausschließt.
Ok, du sollst ja auch nicht aufzeigen, was deine Aussage ausschließt, sondern belegt.

Machts trotzdem etwas einfacher für den Programmierer.
Ändert aber nichts daran, dass die Anbindung zwischen CPU und GPU zu langsam ist und damit den Flaschenhals darstellt, sodass es nicht für jeden Workload sinnvoll ist.

Jetzt mal Butter bei die Fische, wie viele User profitieren jetzt von AVX-512?
Alle die es aktiv nutzen?

Die Frage sollte eher lauten, wie viele Leute können in Zukunft von AVX-512 und Nachfolgern profitieren. Dies sind einige. Alleine schon im Endanwenderbereich können die Leute in ihrer täglichen Nutzung davon profitieren. Beispielsweise können Workloads in Browsern durch AVX-512 verbessert und beschleunigt werden.
 
Außerdem kann man, wenn es einem stört, AVX auch jederzeit -bei JEDER CPU die das unterstützt, boardseitig deaktivieren. So wie bei AMD zb. PBO und den ganzen Krempel:

AVX.png


avxonoff.png


..was mich bei dieser ganzen Heater Diskussion immer stört, dass gerade bei den HC AMD Jüngern immer diese Denke vorherrscht, Intel CPU seien Hinterwäldler Heizkraftwerke ohne Leistung.
Dem ist aber nicht so und fragt euch mal selber, wo ihr jetzt mit euren AMD CPUs denn wärt, hätte es damals nicht die C2D Offensive seitens Intel gegeben. ;)
AMD hätte null Anlass gehabt Ryzen zu designen, Phenom wäre wahrscheinlich das höchste der Rechenkünste und man hätte sich zu 100% dem Serversegment hin gegeben (ist mehr zu verdienen).

..wenn Intel mit Alder Lake & Co. vieleicht ein "C2D Remake" auflegt, dann ist das halt so. Wird das ein "Rohrkrepierer", dann kann man es auch nicht ändern. Ich habe fertig.
 
Ich kann die neuen Intel CPU's mit schnellen und sparsamen Kernen kaum noch erwarten. Seit langem mal wieder ein Produkt von Intel was mich wirklich interessiert.
AMD hin oder her, a wir wissen das die Ryzen sehr schnell sind, Intel muss jetzt nachlegen. Wird auch mal Zeit.
 
was mich bei dieser ganzen Heater Diskussion immer stört, dass gerade bei den HC AMD Jüngern immer diese Denke vorherrscht, Intel CPU seien Hinterwäldler Heizkraftwerke ohne Leistung.
Rocketlake ist schon ne gute CPU, aber leider setzt Intel die Limits so doof, das die CPU säuft. Ich finds schade, aber prinzipiell kann ja jeder so am Powerlimit drehen wie er möchte.
8 (x1,25schnelle)+8 (langsamere mit 3/4 Geschwindigkeit maximal) hat der schon Potential doppelt so schnell zu sein wie der Vorgänger insgesam
hm. 1.25 sind 5/4. selbst wenn die CPU das schafft, dann wäre sie nicht doppelt so schnell wie Rocketlake.

Mal abwarten, ich stehe den Ansagen mit 100% Leistungsgewinn sehr kritisch gegenüber.
 
Wirklich interessant ist Little/Big meiner Meinung vor allem im Laptop.
 
Den Screen hast du dir aber angeschaut und du weißt was die 11400 für eine CPU ist?
Ja und da sieht man doch auch die entsprechenden Einstellungen für PL1, PL2 und Tau, die heißen nur anderes, aber man erkennt ja was was ist und die stehen im Screenshot alle auf AUTO, was normalerweise Werte weit über den Intel Vorgaben bedeutet.
Ich würde ein Asus Rog Strix B560-F Gaming WiFi jetzt nicht als Billig oder OEM Board bezeichnen.
Ein OEM Board ist es keineswegs, aber es hat ja auch die entsprechenden Einstellungen, von daher verstehe ich die Antwort von Dir nicht. Hast Du die nicht gesehen?

Genau das hat ja dann zum Chiplet Design geführt man hatte gemerkt das dies eine Sackgasse ist.
Nein, der Schritt zum Chipletdesign hat mit Fusion nichts zu tun und die APUs von AMD haben bisher auch keine Chiplets, sondern sind immer noch alle monolithisch. Der Grund für das Chipletdesign war ein anderer, nämlich die Kosten vor allem für die Entwicklung großer Dies wie AMD sie für Server braucht. AMDs Marktanteil bei Servern war fast nicht mehr vorhanden und damit wäre das Risiko Hunderte Millionen wenn nicht Milliarden in das Design spezieller Dies für EPYC zu investieren, viel zu hoch, mal ganz davon angesehen, dass AMD dies Geld damals schlicht nicht hatte.
Bring mir ein Beleg das es nicht so ist, das die Intel iGPU auf CPU ressourcen zugreift die eine Vega iGPU nicht brauch.
Wieso sollte ich was belegen, was ich nicht behauptet habe. Im Gegenteil, bei den aktuellen APU und Intel iGPUs teilen sich diese nur das RAM Interface mit der CPU, damit entsprechend auch deren interne Kommunikationsweg, also den Ringbus bei Intel und die IF bei AMD.

Der Ansatz von Bequemlichkeit war noch nie gut beim Programmieren
Wieso wird gleich Bequemlichkeit unterstellt? Entwickler sind eben auch eine knappe Ressource und können entsprechend nicht im Überfluss eingesetzt werden.

Aha, und die ~267 Watt meines 5950X sind dann was? Wenn ich da PBO aktiviere, brennt die Hütte.
Eben, der Unterschied zwischen AMD und Intel ist in den Hinsicht vor allen, dass AMD es geschafft hat, dass alle Boardhersteller offenbar PBO per Default nicht aktivieren, während die Mainboards auf den Intel Boards die CPU schon in der Defaulteinstellung des BIOS übertakten und dies nicht selten richtig massiv mit Power Limits die dem entsprechen, was die Spawas des Mainboards hergeben, wenn nicht noch darüber und mit Null AVX2 und AVX-512 Offsets. Da die Reviewer die CPUs mit auf Mainboards mit der Defaulteinstellung des BIOS betreiben und die Leistungsaufnahme nur mit Prime95 und nicht bei jedem Benchmark und vor allem auch jedem Spiel nochmal ermitteln, entsteht dann natürlich der Eindruck der extrem hohen Leistungsaufnahme. Aber die Leistungsaufnahme hängt eben von den BIOS Einstellungen ab, bei AMD wie bei Intel und die maximale Leistung geht eben immer auf Kosten der Effizienz.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh