Desintegriert und auf Effizienz getrimmt: Alle Informationen zu Meteor Lake

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
Die Meteor-Lake-Prozessoren für zukünftige Notebooks läuten für Intel eine neue Ära für das CPU-Design der Endkunden-CPUs ein. Erstmals kommen – nachdem diese Umstellung bei den Xeon-Prozessoren mit halber Schrittlänge bereits vollzogen wurde – auch im Client-Segment mehrere Chiplets (Tiles) bei Intel zusammen. Diese sollen dann als Einheit ein System on a Chip (SoC) darstellen. Vier Jahre hat Intel an Meteor Lake gearbeitet, doch die Basisbausteine stehen teilweise schon viel länger bereit. Wir erklären und beschreiben Meteor Lake in all seinen Feinheiten und Details.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Klingt auf jeden Fall spanndend. Ich hoffe, dass sich die Chiphersteller auch im Desktopbereich mal wieder besinnen und den Stromverbrauch künftiger Prozessoren senken.
 
Finde ich schon lustig, dass im Artikel erwähnt wird, dass Intel 7 10nm darstellt, aber nicht, dass Intel 4 7nm sind, egal was das Intel Marketing plaudert. Da war die Konkurrenz vor drei Jahren. Es wird noch ewig dauern bis Intel technologisch aufholt. Aber bis dahin kann man ja einfach umbenennen und irrefühende Angaben zum Stromverbrauch machen.
 
Finde ich schon lustig, dass im Artikel erwähnt wird, dass Intel 7 10nm darstellt, aber nicht, dass Intel 4 7nm sind, egal was das Intel Marketing plaudert. Da war die Konkurrenz vor drei Jahren. Es wird noch ewig dauern bis Intel technologisch aufholt. Aber bis dahin kann man ja einfach umbenennen und irrefühende Angaben zum Stromverbrauch machen.
Wenn du so viel Wert auf die Angabe der nm legst, vielleicht kannst du uns dann darlegen, was genau eigentlich 10nm und 7nm angibt, denn die Transistorengröße ist es schon mal nicht. Wenn wir schon über irreführende Angaben sprechen, können wir auch darüber sprechen..
Beitrag automatisch zusammengeführt:

Edit:
Ich erspare dir einfach mal den Offenbarungsprozess der Unkenntnis und erkläre es selbst.

Vor Jahrzehnten wurde der Fertigungsprozess nach der Der Länge des Gates des Transistors benannt. Mit fortschreitender Entwicklung, aber spätestens mit dem Wechsel von 2D Strukturen hin zu 3D Strukturen, ging die Angabe in der Bezeichnung und die tatsächliche Länge des Gates immer weiter auseinander. Irgendwann erreichten wir einen Punkt, in dem AMD eine Bezeichnung eines Fertigungsprozesses hatte, der numerisch kleiner war als der von Intel. Selbstverständlich konnten einige Rote Fanatiker nicht widerstehen diese "Tatsache" den blauen Fanatikern unter die Nase zu reiben und krönten diesen Unterschied in ihrer Argumentation zur Überlegenheit von AMD gegenüber Intel. Gekrönt wurde damit zwar nur die zur Schaustellung von Unwissenheit, aber hier gehts grade nicht darum, ob etwas Überlegen war oder nicht, sondern nur um Bezeichnungen.

Irgendwann wurde es Intel zu bunt und sie benannten den Fertigungsprozess um. Für Red Hats natürlich der Beleg dafür, dass Intel versucht ihr Unterlegenheit zu verschleiern. Leider ist es halt kreuz-dämlich, Fertigungsprozesse von finfet Transistoren anhand einer einzelnen sinnbefreiten Zahl im Namen des Fertigungsprozess vergeliechen zu wollen.

Schauen wir uns doch einfach mal die Transistoren von AMD und Intel im Querschnitt an.



Hä?! AMD 7nm ist ja garnicht halb so lang wie Intel 14nm +++, sondern fast gleich lang!?
Ja... natürlich nicht. Es sind zwei verschiedene Fertigungsprozesse und die nm hat nichts mehr viel mit der Größe zu tun.... 10nm Intel hatte ca. 100 mio Transistoren / mm² und 7nm AMD hatte 90 mio Transistoren / mm².

Und noch eins... selbst dieser Text ist einfach falsch. AMD fertigt nicht. Es wäre also auch noch irreführend von einem AMD Fertigungsprozess zu reden - es ist ein TSMC Fertigungsprozess.
nein.png
 
Zuletzt bearbeitet:
Soso, jetzt hat sich das Chiplets Design mit all seinen Vorteilen und evtl beim User auch Nachteilen also durchgesetzt.

Kosteneffezienz, alles gut, ich verstehe Intel als Hersteller ....
CPUs können wesentlich besser auf Ihre Anwendung getrimmt werden. In dem man einzelne Chiplets austauscht und somit individuell die CPU anpassen kann.

Fortschritt läßt sich schon durch einzelne modernisierte Chiplets erzielen, egal ob I/O, iGPU oder einen der Kernbereiche.
Somit muss man nicht immer alles auf neuesten Stand bringen, es reicht in Teilen zu aktualisieren.
Ich bin gespannt, wie transparent das dann erfolgt. Das bekommen ja schon SSD Hersteller nicht gut hin, die User über Hardwareänderungen unter der Haube zu informieren.

Inwieweit es dann noch bestimmte Schnäppchen geben wird, wo man hier und da nur Funktionen freischalten muss, ich glaube das fällt dann aus, weil einfach keine AIO CPU mit Teildeaktivierung sein wird, sondern es werden dann entsprechende Chiplets eingesetzt, um bestimmte Funktionen zu geben.

ECC Speichercontroller ? nur noch bei den Xeons, im Enduserbereich nicht mehr. Soll der Kunde doch die Xeons kaufen, wenn er ECC haben mag usw.
Entsprechend wird Intel sich auch ne bessere iGPU ordentlich bezahlen lassen wollen, die wird es nicht in jeder CPU geben.

Bin gespannt, wie sich das ausgeht.
Zumindest ist Intel nun flexibler, was den Markt angeht.
Wenn man feststellt, dass CPU XY ne Schwäche hat, sind nun Bausteine vorhanden, die man gezielt angehen kann, ohne gleich eine ganze CPU ändern zu müssen.
Hoffentlich bleibt dann noch ne Übersicht für den User.

Irgendwann wurde es Intel zu bunt und sie benannten den Fertigungsprozess um. Für Red Hats natürlich der Beleg dafür, dass Intel versucht ihr Unterlegenheit zu verschleiern. Leider ist es halt kreuz-dämlich, Fertigungsprozesse von finfet Transistoren anhand einer einzelnen sinnbefreiten Zahl im Namen des Fertigungsprozess vergeliechen zu wollen.
Auf dieses Niveau zu fallen ist sicherlich einfach, aber nicht zielführend. So einfach kannst du dir das doch jetzt nicht machen.

Intel hatte massive Fertigungsprobleme. Intel wurde mit alternativen und effizienteren Fertigungsprozessen der Mitbewerber konfrontiert.
Das Ergebnis ist sicherlich eine Mischung aus Intel Marketing und Intel Engineering.
Fakt ist aber auch, Intels CPU sind nicht gerade cool unterwegs und auch nur bedingt sparsam.
Inwieweit das neue Design hier Möglichkeiten aufstößt, sowohl die High Performance Kunden, als auch die User mit Blick auf Effizienz und Verbrauch besser abzuholen, we will see.
 
Finde ich schon lustig, dass im Artikel erwähnt wird, dass Intel 7 10nm darstellt, aber nicht, dass Intel 4 7nm sind, egal was das Intel Marketing plaudert. Da war die Konkurrenz vor drei Jahren. Es wird noch ewig dauern bis Intel technologisch aufholt. Aber bis dahin kann man ja einfach umbenennen und irrefühende Angaben zum Stromverbrauch machen.
Wenn du keine Ahnung hast, dann lass es.

Ich habe keine Lust jetzt wieder alles noch einmal durchzukauen. Wichtig ist die Packdichte und nicht die Strukturgröße.
 
Auf dieses Niveau zu fallen ist sicherlich einfach, aber nicht zielführend. So einfach kannst du dir das doch jetzt nicht machen.

Intel hatte massive Fertigungsprobleme. Intel wurde mit alternativen und effizienteren Fertigungsprozessen der Mitbewerber konfrontiert.
Das Ergebnis ist sicherlich eine Mischung aus Intel Marketing und Intel Engineering.
Fakt ist aber auch, Intels CPU sind nicht gerade cool unterwegs und auch nur bedingt sparsam.
Inwieweit das neue Design hier Möglichkeiten aufstößt, sowohl die High Performance Kunden, als auch die User mit Blick auf Effizienz und Verbrauch besser abzuholen, we will see.
Und da haben wir es wieder. Da stand: es geht nicht um Über oder Unterlegenheit. Es ging um Bezeichnungen und ob man aus Bezeichnungen etwas ableiten konnte oder nicht und die Antwort war: nein.

Ob und welche CPU unter welchen bedingungen welche Vor und Nachteile hatte, war nicht Teil dieses Posts.
 
Fakt ist aber auch, Intels CPU sind nicht gerade cool unterwegs und auch nur bedingt sparsam.
Inwieweit das neue Design hier Möglichkeiten aufstößt, sowohl die High Performance Kunden, als auch die User mit Blick auf Effizienz und Verbrauch besser abzuholen, we will see.
Aha ist das so?
Wessen CPUs laufen ständig am Limit mit 95 °C? Wo wird wegen der Temps gejammert? Wenn ich in diversen Games mit ~35-45 Watt unterwegs bin dann ist das nur bedingt sparsam?
Ein 7800X oder 7950X sind auch nicht sparsamer.
Und jetzt komm mir nicht mit Fanboy, ich hatte vorher einen 5950X auf einem schweine teuren ASUS Dark Hero X570 Brett.
 
Nur an einen Fertigungsshrink kann man doch keinen "technologischen" Fortschritt feste machen?! Eyeyey, wer das glaubt der holt abends nach 19 Uhr auch den Staubsauger heraus, weil er denkt das knirschen seiner Knabberleiste kommt vom Sandmännchen und nicht weil er schlicht vergessen hat sich vorm Bubu machen vorher die Zähne zu putzen. (y)
 
Aha ist das so?
Wessen CPUs laufen ständig am Limit mit 95 °C? Wo wird wegen der Temps gejammert? Wenn ich in diversen Games mit ~35-45 Watt unterwegs bin dann ist das nur bedingt sparsam?
Ein 7800X oder 7950X sind auch nicht sparsamer.
Und jetzt komm mir nicht mit Fanboy, ich hatte vorher einen 5950X auf einem schweine teuren ASUS Dark Hero X570 Brett.
Das wird schon. Bin gespannt ob man auch Desktopderivate mit diesen niedrigeren TDP Angaben bringt, auch wenn die High-End Leistung evtl. erstmal leidet, mal sehen wie mutig Intel ist.

Die pseudointellektuellen AMD Fanboys einfach blockieren, schon sind Foren wieder lesbar.
 
Aha ist das so?
Wessen CPUs laufen ständig am Limit mit 95 °C? Wo wird wegen der Temps gejammert? Wenn ich in diversen Games mit ~35-45 Watt unterwegs bin dann ist das nur bedingt sparsam?
Ein 7800X oder 7950X sind auch nicht sparsamer.
Und jetzt komm mir nicht mit Fanboy, ich hatte vorher einen 5950X auf einem schweine teuren ASUS Dark Hero X570 Brett.
Wo bist du denn gerade abgebogen?
Was hab ich dir getan? Hast du evtl etwas anderes gelesen als ich?

Intel ist aktuell nicht cool, also nicht gelassen unterwegs. Von Kühlproblemen - das Wort kenne ich und benutze es auch, wenn notwendig - hab ich nichts geschrieben.
Ich fand es in der Vergangenheit sehr überstürzt von Intel, wie die Produkte entwickelt und veröffentlicht wurden, teils mit der Brechstange Performance rausgequetscht wurde.
Intel kam mir vor wie gehetzt. Da wurden Architekturen verworfen, da wurden massive Verschiebungen angekündigt. Ich möchte nicht die Alten netburstzeiten auf S478 und LGA775 herbeireden, das war ne andere Situation, aber irgendwie hat mich Intel mit seinem Verhalten daran erinnert. Mehr wollte ich garnicht sagen.

Warum du dann so anspringst und diese Aggression dann in meine Worte legst, verstehe ich nicht sry.

Ich habe mit den 2 Sätzen unter deinem Zitat nur ausgedrückt, dass du mal von deiner einfache, "da draussen gibt es nur 2 Lager: dafür oder dagegen Denke" wegkommen sollst .
Die Welt nicht so einfach gestrickt ist, wie du hier darstellst.
Wenn du mir Worte wie "Fanboy" in den Mund legen willst, probiere es einfach woanders. Du fingerst bitte nicht an mir rum! Danke.

Alles was danach kam, (Absatz, Gedankenstrich/Denkpause auch früher genannt) war nicht mal auf deinen Post bezogen. Und auf dich persönlich schon gar nicht ... ich kenne dich nicht mal und deine Hardware ist mir so ziemlich egal. Wirklich.
Also einfach mal tief durchatmen und "gelassen/cool" bleiben. ;)
 
Ich hoffe, dass sich die Chiphersteller auch im Desktopbereich mal wieder besinnen und den Stromverbrauch künftiger Prozessoren senken.
Mein 13900K braucht unter Win 10 auf dem ASRock Z790 Steel Legend WIFI 2,25W Package Power und die maximale Leistungsaufnahme kann man über die Power Limits im BIOS selbst einstellen! Da hatte ASRock per Default 253W für PL1 und PL2 voreingestellt, ich habe PL1 auf 125W gesenkt und damit zwar bei einigen Benchmarks die alle Kerne voll auslasten können wie CB23 MT ein paar Punkte verloren, aber eine viel bessere Effizienz und manche Boards stellen da per Default über 4000W ein. Das hat also jeder selbst in der Hand und auch wenn man die Einstellung für die Power Limits im BIOS manchmal ein wenig suchen muss, so ist sie immer vorhanden und die Umzustellen ist kein Hexenwerk. Wer Effizienz will, der kann sie bekommen, nur wollen die meisten lieber die maximale Performance, egal bei welchem Verbrauch, da kommt dann eben zur Not ein Chiller drauf.

dass Intel 7 10nm darstellt, aber nicht, dass Intel 4 7nm sind, egal was das Intel Marketing plaudert. Da war die Konkurrenz vor drei Jahren.
Nein, da war die Konkurrenz eben nicht vor 3 Jahren, da die nm Angaben eben auch reines Marketing der Foudries sind! Die tatsächlichen Strukturen sind bei allen viel, viel größer und dies schon lange. Intel hat sich lange an die alte Konvention gehalten und bei einer Halblierung der Zahl vor den nm auch etwa viermal so viele Transistoren pro mm² unterbingen können, aber Samsung und TSMC, die beide übrigens ähnlich massive Probleme mit ihren 20nm Prozessen hatte wie Intel mit seinem 10nm Prozess, haben danach die Inflation bei der Namensgebung angefangen und daher hat Intel nun nachgezogen, denn von der Transitordichte hat ist Intels 10nm mit TSMCs 7nm vergleichbar und Intel 4 eben etwa mit den Prozessen die bei Samsung und TSMC eine 4 im Namen tragen, von nm in der Bezeichnung sind die ja inzwischen auch abgerückt.

Es wird noch ewig dauern bis Intel technologisch aufholt.
In einem Jahr kommt auch Arrow Lake in Intel 20A raus, womit sie dann aufgeholt haben sollten und in der zweiten Hälfte des nächsten Jahren wird Intel die Serienfertigung in Intel 18A starten und dürfte dann wieder die Führung übernommen haben. Es geht derzeit mit den Fortschritten bei Intels Fertigung sehr schnell, genauso wie es auch bei Samsung und TSMC sehr schnell ging, nachdem bei denen der Knoten bei deren 20nm Prozessen geplatzt war. Nur GF hat es damals nicht geschafft und sich den 14nm Prozess von Samsung lizensiert, aber bei Samsung und vor allem TSMC ging es danach sehr schnell so wie derzeit bei Intel die nur Meteor Lake (und später dann sicher noch anderen Chips wie Chipsätze oder Atoms) in Intel 4 fertigen werden, bei den Xeons geht es direkt auf Intel 3 und für Arrow Lake direkt auf Intel 20A und danach kommt schon Intel 18A für alle dran.
irrefühende Angaben zum Stromverbrauch machen.
Wer macht wo irrefühende Angaben zum Stromverbrauch? Intel gibt eine TDP an, aber die steht eben nur auf dem Papier und entscheidend ist was im BIOS für ein Power Limit eingestellt ist. Bei den OEM Rechnern stimmt das Long Term Power Limit (PL1) meist mit der TDP überein, bei den Retail Mainboards, vor allem denen mit Z Chipsatz tragen die Hersteller da per Default meist viel mehr ein, aber man kann dies immer auch von Hand selbst einstellen. Dies Power Limit bezieht sich dann bei Intel immer auf die ganze Package Power, während sich bei AMD die Einstellung des Limits im Eco Modus nur auf die Leistungsaufnahme der Kerne bezieht und die gesamte Leistungsaufnahme der CPU locker um 20W höher ausfällt.

Somit muss man nicht immer alles auf neuesten Stand bringen, es reicht in Teilen zu aktualisieren.
Ich bin gespannt, wie transparent das dann erfolgt.
Also ich glaube kaum das Intel heimlich Änderungen vornehmen die über das hinausgehen was schon länger in Form eines neuen Steppings üblich ist. Es geht eher darum die unterschiedlichen Teile so kombinieren zu können, wie man es für die einzelnen Modelle braucht und z.B. bei den F Modellen ohne iGPU die iGPU eben nicht deaktivieren zu müssen, selbst wenn sie keinen Defekt hat wenn die Nachfrage nach den F so groß ist das sie mit teildefekten Dies nicht zu befriedigen ist, sondern die iGPU dann einfach wegzulassen.
ECC Speichercontroller ? nur noch bei den Xeons, im Enduserbereich nicht mehr.
Das ist doch nun gerade andersrum geworden, nachdem die kleinen Xeon-E und Xeon-W für die Mainstream Sockel mit dem S.1700 weggefallen sind und nun die normalen Core i dann ECC Unterstützung haben, wenn sie in einem Mainboard mit einem W680 Chipsatz stecken. Meteor Lake kommt ja nicht in den Desktop, da muss man also abwarten wie es dann mit Arrow Lake aussehen wird, ob die kleinen Xeons da wiederkommen oder es bei der neuen Line bleibt, aber selbst die P Serie kann ECC, wenn auch "nur" In-Band-ECC:


Es wäre schön, wenn alle Intel CPUs und alle Mainboards dafür diese unterstützen würden, dann könnte jeder selbst entscheinde ob er es möchte oder nicht, die aktuellen RAM Controller können es ja offenbar, denn ich glaube kaum, dass Intel da einen eigenen RAM Controller extra für die P Serien entwiickelt und implementiert hat.
 
Mein 13900K braucht unter Win 10 auf dem ASRock Z790 Steel Legend WIFI 2,25W Package Power und die maximale Leistungsaufnahme kann man über die Power Limits im BIOS selbst einstellen! Da hatte ASRock per Default 253W für PL1 und PL2 voreingestellt, ich habe PL1 auf 125W gesenkt und damit zwar bei einigen Benchmarks die alle Kerne voll auslasten können wie CB23 MT ein paar Punkte verloren, aber eine viel bessere Effizienz und manche Boards stellen da per Default über 4000W ein. Das hat also jeder selbst in der Hand und auch wenn man die Einstellung für die Power Limits im BIOS manchmal ein wenig suchen muss, so ist sie immer vorhanden und die Umzustellen ist kein Hexenwerk. Wer Effizienz will, der kann sie bekommen, nur wollen die meisten lieber die maximale Performance, egal bei welchem Verbrauch, da kommt dann eben zur Not ein Chiller drauf.
Sorry, aber selbst Hand anlegen ist bei 99% der Nutzer außerhalb dieses Forums nicht. Der Otto-Normal-Medion-Käufer will sich nicht mit Biosoptimierung seines Aldi-Gaming-PCs beschäftigen. Und das ist auch absolut verständlich und richtig so.
Um den allseits beliebten Kfz-Vergleich heranzuziehen: Du kaufst dir also gerne ein neues Auto, um dann erst mal am Motor rumzuschrauben, damit der Spritverbrauch erträglich ist??

Lange Rede kurzer Sinn: Intel hat die Leistung mit der Brechstange herbeigeführt und der Verbrauch unter Last ist dabei nicht mehr akzeptabel!
 
Zuletzt bearbeitet:
selbst Hand anlegen ist bei 99% der Nutzer außerhalb dieses Forums nicht. Der Otto-Normal-Medion-Käufer will sich nicht mit Biosoptimierung seines Aldi-Gaming-PCs beschäftigen.
Wie geschrieben: Bei OEM Rechnern ist es üblich dass diese per Default das PL1 Power Limit entsprechend der Intel TDP Angabe eingestellt haben und man es meist auch gar nichht ändern kann. Von daher braucht dieser Otto-Normal-Medion-Käufer auch nicht selbst Hand anlegen und hat auch keine dauerhaft höhere Leistungsaufnahme als die TDP. Dies hat er nur, wenn er dann statt des Medion von Aldi zu kaufen, anfängt sich die Komponenten selbst zusammenzustellen und damit ein Retail Mainboard, womöglich eines mit dem Z Chipsatz, zu holen. Dann sollte er zu den 1% gehören denen du zutraust selbst im BIOS eine einzige Einstellung zu ändern.

Um den allseits beliebten Auto-Vergleich heranzuziehen: Du kaufst dir also gerne ein neues Auto, um dann erst mal am Motor rumzuschrauben, damit der Spritverbrauch erträglich ist??
Ver Vergleich hinkt nicht nur, der liegt im Rollstuhl! Eine einzige BIOS Einstellung zu ändern ist wohl kaum damit zu vergleichen am Motor zu schrauben! Aber um beim Autovergleich zu bleiben: Wer sich nicht zutraut selbst was an seinem Auto zu machen, der soll den Fachmann damit beauftragen, aber sich darüber beschweren wenn er weder selbst was macht noch was machen lässt. Außerdem hängt der Verbrauch im Alltag beim Auto vor allem vom Fahrstil ab und bei der CPU von der Last.

Die Last ist bei den meisten, gerade den 99% eher Office, Internet surfen und eben Spiele. Wie viel die CPU beim Spielen braucht, kann man gut in den Reviews z.B. bei Igorlab sehen und das ist meist weniger als die TDP und gerade bei den CPUs mit vielen Kernen auch viel weniger als was sie beim Benchmarks die alle Kerne auslasten wie Cinebench oder Prime nimmt. Aber leider wird in vielen Reviews nur letzteres ermittelt und der Eindruck erweckt die CPU würde immer nur entweder die Idle oder die Volllast Leistungsaufnahme haben, was aber eben nicht stimmt.

Von daher ist das für diese 99%, wobei ich denke es gibt von den Leute die sich ihren Rechner aus Retail Komponenten zusammenstellen, schon mehr als nur 1% die sich dann auch zutrauen eine BIOS Einstellung zu finden und zu ändern. Dies war vor Jahren als man für eine volle Ausnutzung einer SSD oft den SATA Modus von IDE auf AHCI anpassen müsste, auch meist kein Thema. Der Punkt dürfte eher sein, dass viele lieber Höchstleistung als Effizienz wollen, vielleicht auch weil sie eben gar nicht wissen wie viel ein CPU beim Gaming denn nun wirklich verbraucht, sonst könnten die Herstellern den Gamern nicht so viele WaKüs verkaufen, denn die braucht eigentlich kein Gamer, außer er hat massiv im BIOS rumgepfuscht um auch das letzte fps noch rauszuholen.
 
Bei OEM Rechnern ist es üblich dass diese per Default das PL1 Power Limit entsprechend der Intel TDP Angabe eingestellt haben und man es meist auch gar nichht ändern kann.
Das habe ich vielfach bereits anders er lebt. Außerdem gibt es nicht nur OEMs, sondern auch Anbieter wie Dubars, deren Gamingkisten von unbedarften Gamern gekauft werden und die garantiert nicht die effizienten Einstellung in Bios erhalten haben.
Ver Vergleich hinkt nicht nur, der liegt im Rollstuhl!
Also wenn du schon Erbsen zählst, dann muss ich die auch leider mitteilen, dass man in einem Rollstuhl sitzt und nicht liegt ;) Aber alleine die Tatsache, dass du hier so voll drauf anspringst, obwohl du die Assoziation vermutlich genau verstanden hast, zeigt mir, dass es dir nicht um eine konstruktive Diskussion geht, sondern darum, deine Meinung felsenfest zu vertreten.
Aber um beim Autovergleich zu bleiben: Wer sich nicht zutraut selbst was an seinem Auto zu machen, der soll den Fachmann damit beauftragen, aber sich darüber beschweren wenn er weder selbst was macht noch was machen lässt. Außerdem hängt der Verbrauch im Alltag beim Auto vor allem vom Fahrstil ab und bei der CPU von der Last.
Mit diesem Satz stimmst du mir quasi indirekt zu, indem du eingestehst, dass in beiden Fällen etwas getan werden muss.
Die Last ist bei den meisten, gerade den 99% eher Office, Internet surfen und eben Spiele. Wie viel die CPU beim Spielen braucht, kann man gut in den Reviews z.B. bei Igorlab sehen und das ist meist weniger als die TDP und gerade bei den CPUs mit vielen Kernen auch viel weniger als was sie beim Benchmarks die alle Kerne auslasten wie Cinebench oder Prime nimmt. Aber leider wird in vielen Reviews nur letzteres ermittelt und der Eindruck erweckt die CPU würde immer nur entweder die Idle oder die Volllast Leistungsaufnahme haben, was aber eben nicht stimmt.
Fakt ist: Der von Intel propagierte fortschritt der Mehrleistung wird durch erhöhte Leistungsaufnahme erkauft. Das kannst du drehen und wenden wie du willst. Es geht nicht um ein bestimmtes Lastszenario oder was immer du dir da einredest. Wird die Mehrleistung gegenüber den letzten Generationen gefordert, so wird mehr elektrische Leistung aufgenommen. Falls du es nicht weißt: Intel ist auch mal den anderen Weg gegangen. Da Hatten Prozessoren mehr Leistung bei weniger Verbrauch, verglichen mit der Vorgängergeneration.
Der Punkt dürfte eher sein, dass viele lieber Höchstleistung als Effizienz wollen, vielleicht auch weil sie eben gar nicht wissen wie viel ein CPU beim Gaming denn nun wirklich verbraucht, sonst könnten die Herstellern den Gamern nicht so viele WaKüs verkaufen, denn die braucht eigentlich kein Gamer, außer er hat massiv im BIOS rumgepfuscht um auch das letzte fps noch rauszuholen.
Wenn doch scheinbar alle Pc User dazu in der Lage sind, den Prozessor durch Bioseinstellungen effizienter zu machen, wissen sie wohl auch wieviel Watt eine CPU in etwa verbraucht. Außerdem glaube ich nicht, dass Hersteller allzuviele Wasserkühlungen verkaufen im Vergleich zu Luftkühlern. Zudem zählen wohl auch AIOs zu Wasserkühlungen, welche ja bekanntlich nicht unbedingt besser kühlen als ein guter Luftkühler. Da geht es wohl eher um die Optik. Insofern sehe ich da keinen Beleg drin, dass die Leute lieber Leistung wollen als Effizienz.
Bei den aktuellen Energiekosten und dem ganzen Zeitgeist passt es einfach nicht, mehr Leistung durch einen fast schon exponentiellen Energieanstieg zu erkaufen. Aber hey, das ist nur meine Meinung...
 
Uff ist ja nur schwer zu ertragen euer geplänkel. War zu desinteressiert um es bis zum Ende zu lesen. Daher habe ich es einfach mal in meinen Bot gekippt und das dann gelesen. Täte euch vielleicht auch gut.


A's Hauptargumente:

  1. Die maximale Leistungsaufnahme von Intel-Prozessoren kann durch die Power Limits im BIOS eingestellt werden.
  2. Effizienz kann durch Anpassen dieser Einstellungen erreicht werden.
  3. Bei OEM-Computern stimmt das Long Term Power Limit (PL1) in der Regel mit der TDP (Thermal Design Power) überein, und der Endbenutzer muss in der Regel nichts ändern.
  4. Intel macht keine irreführenden Angaben zum Stromverbrauch. Die TDP gibt einen Hinweis, aber die tatsächliche Leistungsaufnahme hängt von den BIOS-Einstellungen ab.
  5. Bei der meisten CPU-Last (z. B. beim Spielen) verbrauchen die CPUs weniger als ihre TDP.
  6. Viele Anwender sind in der Lage, BIOS-Einstellungen vorzunehmen und wählen möglicherweise Leistung über Effizienz.
B's Hauptargumente:

  1. Die meisten Endbenutzer wollen oder können keine BIOS-Einstellungen vornehmen.
  2. Es ist nicht akzeptabel, dass die Leistungsaufnahme unter Last so hoch ist.
  3. Es gibt auch Nicht-OEM-Computerhersteller, die möglicherweise nicht die effizientesten BIOS-Einstellungen verwenden.
  4. Das Hauptproblem ist, dass Intel seine Leistungsverbesserungen durch erhöhte Leistungsaufnahme erzielt.
  5. Frühere Intel-Generationen boten mehr Leistung bei weniger Verbrauch.
  6. Bei den aktuellen Energiekosten und dem Bewusstsein für den Klimawandel ist es nicht akzeptabel, Leistungssteigerungen durch deutlich höheren Energieverbrauch zu erreichen.
Analyse:

  • BIOS-Einstellungen: A argumentiert, dass Endanwender die Möglichkeit haben, BIOS-Einstellungen zu ändern, um die Leistungsaufnahme zu reduzieren. B argumentiert, dass dies für die meisten Nutzer nicht praktikabel ist. Beide haben valide Punkte. Während technisch versierte Benutzer in der Lage sein mögen, solche Einstellungen vorzunehmen, ist es wahrscheinlich, dass der durchschnittliche Benutzer dies nicht tun wird oder kann.
  • Leistungsaufnahme und Leistung: A betont, dass die tatsächliche Leistungsaufnahme von der Last abhängt und dass sie bei den meisten Anwendungen (z. B. Spielen) nicht so hoch ist wie bei Benchmark-Tests. B betont, dass Intels Ansatz, die Leistung zu erhöhen, zu einem erhöhten Energieverbrauch geführt hat. Beide Punkte sind korrekt, aber sie sprechen unterschiedliche Aspekte des Problems an.
  • OEM vs. Nicht-OEM: A gibt an, dass OEMs in der Regel Einstellungen haben, die mit der TDP übereinstimmen, während B betont, dass es auch viele Nicht-OEM-Computer gibt, die nicht unbedingt optimiert sind. Beide sind in ihren jeweiligen Kontexten korrekt.
  • Vergangenheit vs. Gegenwart: B erwähnt, dass Intel in der Vergangenheit Prozessoren mit verbesserter Leistung und reduziertem Energieverbrauch im Vergleich zu Vorgängergenerationen produziert hat. Dies ist ein starker Punkt, da es zeigt, dass es möglich ist, Leistungssteigerungen ohne drastische Erhöhungen des Energieverbrauchs zu erzielen.
Schlussfolgerung:Beide Diskussionsteilnehmer bringen valide Punkte vor. Es ist wahr, dass Benutzer die Möglichkeit haben, BIOS-Einstellungen zu ändern, um die Effizienz zu verbessern, aber es ist auch wahr, dass viele Benutzer dies nicht tun werden. Es ist auch wahr, dass die tatsächliche Leistungsaufnahme von der spezifischen Last abhängt, aber die Tatsache bleibt, dass neuere Intel-Prozessoren bei gleicher oder höherer Last mehr Energie verbrauchen als ihre Vorgänger.

Es scheint, dass beide Diskussionsteilnehmer teilweise recht haben, aber sie konzentrieren sich auf unterschiedliche Aspekte des Themas. Es wäre hilfreich, wenn sie sich auf konkrete Daten und Fakten stützen würden, um ihre Argumente zu untermauern.
 
Uff ist ja nur schwer zu ertragen euer geplänkel. War zu desinteressiert um es bis zum Ende zu lesen. Daher habe ich es einfach mal in meinen Bot gekippt und das dann gelesen. Täte euch vielleicht auch gut.
Cooler Typ du. Und jetzt geh wieder woanders weiter spielen.
Beitrag automatisch zusammengeführt:

Ab auf meine IL, wer so komisch denkt, mit dem sind Diskussionen total sinnlos.
Oh nein, bitte, bitte, bitte nicht. Das ist das typische Verhalten von Leuten wie dir, die einzig darauf aus sind, ihre Meinung zu propagieren ;)
 
Cooler Typ du. Und jetzt geh wieder woanders weiter spielen.
Beitrag automatisch zusammengeführt:


Oh nein, bitte, bitte, bitte nicht. Das ist das typische Verhalten von Leuten wie dir, die einzig darauf aus sind, ihre Meinung zu propagieren ;)
Danke, dass es dir aufgefallen ist.
 
Finde ich schon lustig, dass im Artikel erwähnt wird, dass Intel 7 10nm darstellt, aber nicht, dass Intel 4 7nm sind, egal was das Intel Marketing plaudert. Da war die Konkurrenz vor drei Jahren. Es wird noch ewig dauern bis Intel technologisch aufholt. Aber bis dahin kann man ja einfach umbenennen und irrefühende Angaben zum Stromverbrauch machen.

Du bist dem Marketing zum Opfer gefallen. Das sind, egal welcher Hersteller, alls nur Marketingnamen, mit der tatsächlichen Größe hat das schon sehr lange nichts mehr zu tun. Wenn dich das stört, darfst du dich nicht nur auf Intel konzentrieren. Mit der Umbenennung ist das vergleichbarer als vorher-->Intel 7nm wäre ein fullnode vor TSMC 7nm.
 
ECC Speichercontroller ? nur noch bei den Xeons, im Enduserbereich nicht mehr. Soll der Kunde doch die Xeons kaufen, wenn er ECC haben mag usw.
ECC gibt es bei Intel seit langer Zeit nur noch mit Workstation Chipsatz, und aktuell mit 13th Core Generation mit den normalen Core i und man braucht eben nicht mehr Xeon W.
 
Nein, denn der geht total am Thema vorbei:
die Tatsache bleibt, dass neuere Intel-Prozessoren bei gleicher oder höherer Last mehr Energie verbrauchen als ihre Vorgänger.
Bei entsprechenden Power Limit Einstellungen ist dies zwar richtig, aber die Frage ist doch nicht wie viel Energie sie verbrauchen, sondern wie viel Performance sie dafür abliefern. Die falsche Aussage war ja:
Der von Intel propagierte fortschritt der Mehrleistung wird durch erhöhte Leistungsaufnahme erkauft. Das kannst du drehen und wenden wie du willst. Es geht nicht um ein bestimmtes Lastszenario oder was immer du dir da einredest. Wird die Mehrleistung gegenüber den letzten Generationen gefordert, so wird mehr elektrische Leistung aufgenommen.
Dies würde ja bedeuten alle Fortschritte bzgl. der Leistung wären nur durch mehr Leistungsaufnahme erkauft, mehr IPC und eine bessere Effizienz durch eine neue Fertigung werden in Abrede gestellt, was eben totaler Blödsinn ist. Man schau sich nur mal
die Package Power der CPUs im Review des 13900K bei Volllast ohne AVX an, dies müsste CB MT sein bzw. zumindest dem Wert dort sehr ähnlich und vergleiche diese mit den Cinebench MT Punkten.
13900K 253,2W CB23 38288Pkt
12900K 241,1W CB23 27430Pkt
13600K 156,5W CB23 24029Pkt
11900K 248,2W CB23 15188Pkt
10900K 215,3W CB23 15911Pkt
Jetzt kann sich jeder selbst Punkte pro Watt ausrechnen, aber alleine das ein 13600K bei nur 156,5W Package Power sowohl einen 11900K also auch 10900K mit jeweils über 200W total im Regen stehen lässt, sollte rechen die Unsinnigkeit der Aussage die Mehrleistung würde nur durch die Brechstange mit mehr Leistungsaufnahme erkauft, komplett zu widerlegen.
 
Nein, denn der geht total am Thema vorbei:
Bei entsprechenden Power Limit Einstellungen ist dies zwar richtig, aber die Frage ist doch nicht wie viel Energie sie verbrauchen, sondern wie viel Performance sie dafür abliefern. Die falsche Aussage war ja:
Dies würde ja bedeuten alle Fortschritte bzgl. der Leistung wären nur durch mehr Leistungsaufnahme erkauft, mehr IPC und eine bessere Effizienz durch eine neue Fertigung werden in Abrede gestellt, was eben totaler Blödsinn ist. Man schau sich nur mal
die Package Power der CPUs im Review des 13900K bei Volllast ohne AVX an, dies müsste CB MT sein bzw. zumindest dem Wert dort sehr ähnlich und vergleiche diese mit den Cinebench MT Punkten.
13900K 253,2W CB23 38288Pkt
12900K 241,1W CB23 27430Pkt
13600K 156,5W CB23 24029Pkt
11900K 248,2W CB23 15188Pkt
10900K 215,3W CB23 15911Pkt
Jetzt kann sich jeder selbst Punkte pro Watt ausrechnen, aber alleine das ein 13600K bei nur 156,5W Package Power sowohl einen 11900K also auch 10900K mit jeweils über 200W total im Regen stehen lässt, sollte rechen die Unsinnigkeit der Aussage die Mehrleistung würde nur durch die Brechstange mit mehr Leistungsaufnahme erkauft, komplett zu widerlegen.

Wolltest du ihn nicht ignorieren? :ROFLMAO:
 
Cinebench MT Punkten.
13900K 253,2W CB23 38288Pkt
12900K 241,1W CB23 27430Pkt
13600K 156,5W CB23 24029Pkt
11900K 248,2W CB23 15188Pkt
10900K 215,3W CB23 15911Pkt
Jetzt kann sich jeder selbst Punkte pro Watt ausrechnen, aber alleine das ein 13600K bei nur 156,5W Package Power sowohl einen 11900K also auch 10900K mit jeweils über 200W total im Regen stehen lässt, sollte rechen die Unsinnigkeit der Aussage die Mehrleistung würde nur durch die Brechstange mit mehr Leistungsaufnahme erkauft, komplett zu widerlegen.
Und jetzt der ST Score. :)
 
Und jetzt der ST Score. :)
Auch in dieser Hinsicht ist die alleinige Aussage, dass der Leistungszuwachs durch mehr Leistungsaufnahme erreicht wird, falsch. Damit wird implizit in Abrede gestellt, dass die Effizienz gestiegen ist. Das widerlegen aber einschlägige Reviews. Insbesondere mit dem Wechsel zur Golden Cove/Gracemont-Arch ist die Effizienz natürlich deutlich gestiegen.
 
Auch in dieser Hinsicht ist die alleinige Aussage, dass der Leistungszuwachs durch mehr Leistungsaufnahme erreicht wird, falsch. Damit wird implizit in Abrede gestellt, dass die Effizienz gestiegen ist. Das widerlegen aber einschlägige Reviews. Insbesondere mit dem Wechsel zur Golden Cove/Gracemont-Arch ist die Effizienz natürlich deutlich gestiegen.

Das wäre auch totaler Mumpitz. Die CPU sind mit der nächsten Generation nicht schlechter geworden.
So habe ich aber seine Aussage aber auch nicht verstanden und mein Bot auch nicht.

Seine Aussage, so wie ich sie verstanden habe war: Intel möchte eine Performance Überlegenheit in bestimmten Szenarien und Anwendungen erlangen. Die CPU sind besser geworden sowohl in der Effizienz als auch in der reinen Leistung. Intel nutzt jetzt diesen Effizienzgewinn aber teilweise um noch mehr Leistung rauszuquetschen, in dem sie halt noch mehr Energie durchjagen um dieses Ziel zu erreichen. Werksseitig.

Holt hat natürlich recht damit, dass man das jederzeit wieder ändern kann und hat dann sowohl eine gute Performance als auch eine gute Effizienz in relation zur Vorgängergeneration.

Der andere Scherzkeks hat aber auch recht, dass ein überwältigender Teil der Kunden das entweder nicht machen wird oder nicht machen kann. Ein ähnlich großer Teil hat selbst von der Debatte keine Ahnung sondern liest vielleicht mal einen Test und kauft dann und dieses Gerät muss nach dem Anschalten barrierelos laufen.

Daher ist die ganze Debatte müßig, da beide Argumente für sich irgendwo stimmen aber stark vom Blickwinkel abhängen.
 
Auch in dieser Hinsicht ist die alleinige Aussage, dass der Leistungszuwachs durch mehr Leistungsaufnahme erreicht wird, falsch.
ich weiss. die cpus wurden effizienter, das steht ausser frage.
aber dass @Holt nur den MT case zeigt, bei dem durch die erhoehung der E-cores natuerlich der absolute best-case zu sehen ist, das hat halt mal wieder so ein geschmaeckle. vor allem wenn man sich gerne als grosser ritter der neutralitaet aufspielt.
 
Neben diesen argumentativ nicht ganz uninteressanten, aber doch ermüdenden Lagerkämpfen müssen wir auch mal über die wichtigen Dinge reden:
Im Artikel ist einmal PMC / PCM vertauscht und an einer Stelle steht "Lanzen", was vermutlich "Latenzen" heißen sollte!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh