Intel Default Settings: Intel fordert Standardeinstellungen bis zum 31. Mai umzusetzen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
Erneut gibt es Bewegung beim Thema der Einhaltung von Vorgaben zwischen Intel und seinen Mainboard-Partnern. Offenbar hat Intel seine Partner angewiesen (via BenchLife), ein neues Profil namens "Intel Default Setting" anzubieten – bisher auch als "Baseline Profile" gehandelt. Die Umsetzung soll bis zu 31. Mai erfolgen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hab die Tage mal spaßeshalber alles auf stock eingestellt und bei MSI Lite Load auf Intel Standard gesetzt.
Das Ende vom Lied, wenn Last anlag, nehmen wir den R24, hat das Board satte 1.4V auf die CPU geknallt, trotz 360iger AiO waren die 100° schnell erreicht.
Beim Zocken wäre es dann auch nicht "kühler" mit um die 70-80° gewesen.
Nein danke.

Ich drossel meinen 13600K jetzt sogar dauerhaft auf 65W. Und Lite Load Stufe 1. So brauch ich mir um die Temperaturen keine Gedanken zu machen.
Klar ist er dann bei Volllast langsamer, aber ob nun knapp über 1000 Punkte oder 1300 Punkte im R24, das ist mir dann egal. Beim Zocken fällt das ja kaum ins Gewicht.
 
Ich verstehe diese komplette Aufregung null im Alltag und Games zieht doch eine CPU kaum mehr wie 120watt

Klar wer CB rauf und runter laufen lässt der stellt im Bios eh 4095watt ein und gib ihm
Selbst mein 12900k zieht maximal 245watt ohne powerlimit in CB in games lande ich immer bei 90-110watt
 
Verstehe ich das richtig, fass Intel nach CPU Typ differenzierte Standardeinstellungen umgesetzt haben möchte?
Wenn ja, sehe ich auch keine großen Probleme.
 
Diese Werte sind einfach "Fail Safe" mehr nicht wie wenn ddr5 das erste mal bootet dann bootet er auch mit 4800 anstatt mit XMP oder wenn man XMP aktiviert aber es nicht klappt dann bootet er auch wieder mit 4800
Das profiel ist halt für "Playstation" User anmachen und gehen ohne was einstellen zu müssen und dann wenn sie gezockt haben oder was auch immer machen sie den PC aus

Und sind wir mal ehrlich 90% der 14900k/s besitzer machen als erstes "Unlimited Powerlimits" im Bios und es wird geschaut was er an Maximalen Takt kann
 
hab die Tage mal spaßeshalber alles auf stock eingestellt und bei MSI Lite Load auf Intel Standard gesetzt.
Das Ende vom Lied, wenn Last anlag, nehmen wir den R24, hat das Board satte 1.4V auf die CPU geknallt, trotz 360iger AiO waren die 100° schnell erreicht.
Beim Zocken wäre es dann auch nicht "kühler" mit um die 70-80° gewesen.
Nein danke.

Ich drossel meinen 13600K jetzt sogar dauerhaft auf 65W. Und Lite Load Stufe 1. So brauch ich mir um die Temperaturen keine Gedanken zu machen.
Klar ist er dann bei Volllast langsamer, aber ob nun knapp über 1000 Punkte oder 1300 Punkte im R24, das ist mir dann egal. Beim Zocken fällt das ja kaum ins Gewicht.
Macht eigentlich wenig Unterschied, entweder die CPU brauch die Leistung oder sie braucht sie nicht.
Wen du alle Energie Effizienz Modis an hast, deaktiviert die CPU sogar Kerne (C1E). Ich empfand als Sinnvollsten beim Gaming ein Frame Limit zu setzen.
Außer in Synthetischen Benchmarks kommst du fast nie in den Genuss alle Kerne über lange Zeiträume 95-100% auszulasten.
Nur weil PL1=PL2 und 250W hat zieht die CPU ja nicht durchgehend 250W, sondern das definiert was man der CPU zur Verfügung stellt was sie nutzen kann.

Wenn mit 250W die Berechnungen 50% weniger brauchen, liegt auch entsprechend ein kürzerer Zeitraum an höherer Spannung.
Klar brauch man dafür eine potente Kühllösung, ich hab für mich festgestellt das zu wenig Watt zwar stabil läuft aber es häufiger zu "Clock stretching" gekommen ist in dem bei gleichem Takt die Berechnungen länger gedauert haben obwohl gleicher takt angelegen ist.
 
Du verstehst es vielleicht nicht, aber es gibt die über harten Fanboys die jetzt mega getriggert sind. ^^

Lass mich das Problem so erklären, weil so gerne Autobeispiele genannt werden:

Ein Raser verliert die Fahrzeugkontrolle bei 280 km/h. Empfohlene Richtgeschwindigkeit dort sind 130 km/h. Der Fahrzeughersteller erzwingt nun eine standardmäßige Drosselung auf 100 km/h.

WENN die 188W stimmen, dann ist das einfach übers Ziel hinausgeschossen. Ohne Not.


/edit:
den Effekt den @mattiii beschreibt, der kommt aus der Loadline. Das ist im Endeffekt LiteLoad 15 mit DC 110 und AC 110 (zumindest ist das in den Datenblättern nachlesbar). MSI kommt auf Z690 normal mit LiteLoad 9, das auf Z690 DC 80 und AC 50 ist. Bei Z790 müsste es wieder leicht anders sein. Aber dadurch ändert sich die Idle Spannung und wohl auch die Berechnung wann der ICCMax Wert erreicht ist.

Und genau dort solls wohl keine Vorgaben geben, obwohl man damit auch wieder gut in Instabilitäten laufen kann.
 
Zuletzt bearbeitet von einem Moderator:
Die 188 Watt sind
WENN die 188W stimmen, dann ist das einfach übers Ziel hinausgeschossen. Ohne Not.
Fail save eben

Und hier wurde schon mehrfach erwähnt das im Alltag niemals die CPU auch nur annähernd ausgelastet wird oder in Games wer natürlich rendert oder berechnungen mit AVX512 laufen lässt mag das vlt anders sein aber das ist ein ganz ganz winziger teil ich schätze <10%
 
Tja, kommen bald neue CPU's da interessiert Intel der Balken nicht mehr (y) :lol:
Dann sind die neuen wieder im Vergleich zum Baseline Profil schneller, weil deren Baseline einfach 50W mehr darf ... dann ist es visual wieder ein dickerer Balken xD
 
Games zieht doch eine CPU kaum mehr wie 120watt
Viel zu pauschal. Denn auch ein 14900K/13900K und 14700K sind CPUs. Da müsste man dann eher schreiben, selten unter 120W.
1714993549331.png

 
Die 188 Watt sind

Fail save eben

Und hier wurde schon mehrfach erwähnt das im Alltag niemals die CPU auch nur annähernd ausgelastet wird oder in Games wer natürlich rendert oder berechnungen mit AVX512 laufen lässt mag das vlt anders sein aber das ist ein ganz ganz winziger teil ich schätze <10%
Richtig der optimiert von Anfang an auf Multicore Auslastung. Sei es durch entsprechende Kühlung oder Potentes Mainboard mit Spannungswandlern etc.

Gerade dort macht das sowieso Sinn sowas wie Boost zu entfernen und ein statisches Profil nach Möglichkeit zu nehmen.
 
Du verstehst es vielleicht nicht, aber es gibt die über harten Fanboys die jetzt mega getriggert sind. ^^
Glaub mir ich bin auch ein "Ultra Fanboy" aber dann geh ich einfach in Bios wähle anstatt Intel Base eben das "Unlimited Power" aus f10+enter und Fertig

Nur diese Künstliche aufblähung von einem Problem was bisher nur in Tekken 8 aufgetreten ist und weniger als 4% leute betrifft ist für mich absoluter non sense
Beitrag automatisch zusammengeführt:

Viel zu pauschal. Denn auch ein 14900K/13900K und 14700K sind CPUs. Da müsste man dann eher schreiben, selten unter 120W.
Natürlich wie konnte ich nur vergessen man kauft sich einen 14900k für 720p und 1080p und stellt alles auf Low damit ich dann die meisten FPS habe :ROFLMAO:

Diese werte laufen so an der Realität vorbei so eine CPU wird für High FPS 1440p und 4k gekauft und dort zieht sie bei weiten nicht soviel
Bestes bsp mein 12900k ist bis ans maximum übertaktet was P/E Cores angeht und cache etc und ich habe in Warzone bei 4k Epic settings und 225FPS nie mehr wie 110watt im schnitt eher 85-95watt
 
Zuletzt bearbeitet:
Viel zu pauschal. Denn auch ein 14900K/13900K und 14700K sind CPUs. Da müsste man dann eher schreiben, selten unter 120W.
Tja das Problem fängt halt damit an das man selten mit einem statischen Framelimit testet.

Als nächstes möchte ich gegen halten was durchschnittlich verbraucht wird und vs tatsächlicher Ersparnis.

Der Vergleich sagt nicht aus wie lange es dauert ein Szenario zu laden oder in Total War die AI Turn berechnet wird etc..... Sondern man nimmt nur, tja welchen Vergleich?
In der Regel ist es ja nur Intel CPU rein oder AMD mit einer 4090 und gib ihm ohne Limit. Das hier der 3D Cache bei der Frame Verarbeitung einfach im enormen Vorteil ist wundert ja nicht.
Die Intel müssen im selbigen Zeitabschnitt fast doppelt so viel den Cache quasi umgraben damit sie das Volumen erfüllen können.

Oder anders ausgedrückt in manchen Szenarien brauch der AMD X3D einfach nur halbe Arbeit und die Frames zu buffern.

Edit:
1714994492058.png
 
absoluter non sense
Nonsens oder auch Sinnverweigerung.

Das kannst du doch gerne immer für dich machen. Als Unternehmen wird man aber in die Pflicht genommen. Wie umfangreich diese Problematik ist, kannst du ganz klar und absolut nicht bewerten. Wenn Intel also den Schritt geht, dass es nun Standardwerte geben muss, scheint wohl die Problematik die generelle RMA zu übersteigen. Obendrein ist es für einen Multimilliarden-Konzern keine hübsche Werbung, wenn aus vielen Ecken offensichtlich Instabilität gerufen wird.
 
Die 188 Watt seitens Gigabyte sollen im Übrigen ein Bug gewesen sein, hatte ich schon mehrfach erwähnt; https://www.golem.de/news/abstuerze...ds-mit-intel-baseline-profil-2404-184600.html. Man beachte das Datum.

Natürlich könnten abseits der Hirngespinste seitens Sven "Ryzen" Banduin etwas dran sein, viele haben aber schon BIOS Updates durchgeführt und kein 188 Watt Limit im Intel Base Line Profil, daher wäre ich vorsichtig mit solchen Statements und Formulierungen. Im Artikel von Benchlife steht nämlich auch das Intel selbst von einem PL1 von 253 Watt spricht, alles selbstverständlich ohne jegliche Quelle.
 
Einige haben die neue Anforderung an die Hersteller noch nicht verstanden, deshalb nochmal hier:

Intel möchte differenzierte Default Settings umgesetzt wissen, die sich nach den unterschiedlichen CPU Typen richten.
Für diese Settings stehen die Profile Baseline, Performance und Extrem auch weiterhin offiziell zur Verfügung.
Sollte kein Hexenwerk sein für die Hersteller.

Es geht also am Ende alles seinen korrekten Weg, genau wie Intel das bereits vorhergesagt hatte.

 
Zuletzt bearbeitet:
Das kannst du doch gerne immer für dich machen. Als Unternehmen wird man aber in die Pflicht genommen. Wie umfangreich diese Problematik ist, kannst du ganz klar und absolut nicht bewerten. Wenn Intel also den Schritt geht, dass es nun Standardwerte geben muss, scheint wohl die Problematik die generelle RMA zu übersteigen.
Da magst du absolut Recht haben und ich rede auch nicht von Unternehmen sondern das Problem wurde Publik weil in Tekken 8 eine winzige anzahlt von spielern <4% Abstürze etc hatten in keinem Anderen Spiel kein Benchmark oder Sonstwas NUR TEKKEN 8

Und jetzt das so Künstlich aufblähen ist und bleibt für mich unverständlich was ich verstehen könnte wenn auf einmal reihenweise CPU´s Bluescreens in Windows verursachen oder Unter Last aufeinmal reihenweise abschmiert Etc dann sehe ich da wirklich ein Problem

Und sind wir mal ehrlich in der Industrie oder bei Behörden wird bestimmt kein 14900k zum Einsatz kommen sondern da ist man im HEDIT Bereich was die Industrie angeht und bei Behörden ist man im Office PC Bereich wo eher i3-i5 eingesetzt werden
 
Einige haben die neue Anforderung an die Hersteller noch nicht verstanden, deshalb nochmal hier:

Intel möchte differenzierte Default Settings umgesetzt wissen, die sich nach den unterschiedlichen CPU Typen richten.
Für diese Settings stehen die Profile Baseline, Performance und Extrem zur weiterhin offiziell zur Verfügung.
Sollte kein Hexenwerk sein für die Hersteller.
Prinzipiell hat das MSI auch schon so umgesetzt, es gibt ein Standard Kühler Profil(253W), High Performance Air Cooler (288W) und Wasserkühlung 4096 Watt :fresse2:
 
Macht doch keinen Sinn bei einem CPU Test. Was soll als nächstes kommen? Mehr wie 14500/7600X braucht man nicht, weil 2160p?
Aber sei doch Realistisch wen juckt der Verbrauch bei 720p oder 1080p auf low settings ??? Keinen weil dafür keiner so eine CPU kauft und solche werte Absolut nix mit der Realität zutun haben
 
Macht doch keinen Sinn bei einem CPU Test. Was soll als nächstes kommen? Mehr wie 14500/7600X braucht man nicht, weil 2160p?
Der Sinn ist, wenn ich nicht mit 999FPS Spielen muss sondern mit 120FPS dann ist nicht mal notwendig einen X3D zu nehmen (Egal ob AMD oder Intel)

Die sind in eine Potentere Grafikkarte dann durchaus besser aufgehoben und machen nochmal 200€ im Budget aus.

EDIT: Viele auch hier im Forum spielen eher mit einem Framelimit z. B 144FPS weil sie einen 144HZ Monitor haben weniger oder mehr. Egal ob sie einen AMD oder Intel haben aufgrund von Sync Techniken etc.
Dann ändern sich schlagartig die Parameter und das Delta wird weit geringer sein, wie hier schon einige mit 4K berichtet haben.
 
Zuletzt bearbeitet:
@n3cron
Das kann doch jeder gerne für sich einstellen. Ist aber kein Standard und deine Idee ist für einen CPU-Test völlig deplatziert. Ein CPU Test ist doch heutzutage eh schon umfangreich mit offenen Werte und Standardwerte. Bei einem CPU Test geht es darum, was kann die bei welcher Leistungsaufnahme.
 
Da haste dir aber schön die Rosine rausgepickt für dein obiligatorisches Fanboystatement. "Offene" Power Limits wie Computerbase sie nennt machen eigentlich auch keinen Sinn bei CPU Tests 🤡 .
Jein ich finde das offene Powerlimit gut um zu sehen was der "Realworld" Verbrauch ist weil jeder Hersteller gerne seine zahlen schönt wo es nur geht aber man sollte eben Realitische Auflösungen und einstellungen nehmen und nicht 720p und 1080p low
 
@n3cron
Das kann doch jeder gerne für sich einstellen. Ist aber kein Standard und deine Idee ist für einen CPU-Test völlig deplatziert. Ein CPU Test ist doch heutzutage eh schon umfangreich mit offenen Werte und Standardwerte. Bei einem CPU Test geht es darum, was kann die bei welcher Leistungsaufnahme.
Ja dann nimmt man lieber CPUs mit JEDEC und XMP Profilen und vergleicht sich gegenseitig? Das ist richtiger?

EDIT:/NACHTRAG: (Auch wenn es sich um AM5 Intel Generation 11000 handelt mit XMP Profilen, finde entweder man belässt einfach alles auf Werks Einstellungen/entsprechendes JEDEC oder aber man nimmt immer das technisch schnellste was möglich ist:
@DTX xxx Bei einem CPU Test geht es darum, was kann die bei welcher Leistungsaufnahme.
Also Vollgas auch beim Speicher! :unsure:
 
Zuletzt bearbeitet:
Die Kritik besteht von mir an den RAM Timings. Wenn sie schon eine einheitlich reale Test Geschwindigkeit mache wollen, sollen sie sich für einen Wert X bei der Latenz in ns entscheiden.

z. B 10ns und dann dem entsprechend die RAM Kits aussuchen. Wenn du hier nämlich Äpfel und Birnen nimmst hast wieder keine vernünftige Basis.
Hier ist der Cache absolut King und profitiert enorm, der kaschiert langsamen RAM ganz gut. Das lässt auch AMDs eigene nicht X3D schlechter aussehen als sie sind.
 
WENN die 188W stimmen, dann ist das einfach übers Ziel hinausgeschossen. Ohne Not.
Die 188W standen früher in den offiziellen Daten drin, in den Datasheets von Oktober 2022 und das war für die 13th Gen., diese Daten wurden auch für die 14th Gen. verwendet aber oh Wunder, diese Seite von Intel existiert nicht mehr. Da konnte man auch ältere Revisionen der Daten abrufen, jetzt nicht mehr ABER das Internet vergisst nie.

Hier mal ein Vergleich der Daten von 10/2022 und 02/2023, da sieht man das hier schon geändert wurde:


Post#159

1714996648220.png

1714996691812.png

Habe mal versucht die alten Datasheets zu bekommen aber leider sind die alle hinter einer Paywall, und ich glaube das waren irgendwas mit über 150 €, ist mir das nicht wert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh