Intel Default Settings: Intel fordert Standardeinstellungen bis zum 31. Mai umzusetzen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
diese Daten wurden auch für die 24th Gen. verwendet aber oh Wunder, diese Seite von Intel existiert nicht mehr
Für die 14Th gen wurde sie zunächst auch, bis dann später für das KS Modell Änderungen notwendig wurden, eigentlich ganz einfache Kiste.
 
Die 188W standen früher in den offiziellen Daten drin, in den Datasheets von Oktober 2022 und das war für die 13th Gen., diese Daten wurden auch für die 24th Gen. verwendet aber oh Wunder, diese Seite von Intel existiert nicht mehr. Da konnte man auch ältere Revisionen der Daten abrufen, jetzt nicht mehr ABER das Internet vergisst nie.

Ja nun, aber die aktuellen Datenblätter und die restlichen Informationen die sich ein Käufer anschaut geben das ja nicht mehr her. Finde ich schwierig da sowas aus dem Hut zu zaubern. Insbesondere in USA.

Was passiert jetzt eigentlich? Benchen jetzt alle Redaktionen im vorauseilenden Gehorsam der Gerüchteküche neu? Und was passiert, wenn die offizielle Intel Aussage doch am aktuellen Datenblatt hängt und nicht bei 188W mit AC Loadline 1.7 mOhm wie aktuell von Gigabyte umgesetzt so dass unfassbare VCore anliegt? Bencht man dann alles nochmal?
 
Möchte auch so gerne in die Zukunft schauen können
OK, man sollte nicht essen, Nachrichten schauen und im Forum schreiben, da passieren schon mal kleine Missgeschicke. Habe mal wieder die Zukunft bereinigt. :rofl:
 
Jein ich finde das offene Powerlimit gut um zu sehen was der "Realworld" Verbrauch ist weil jeder Hersteller gerne seine zahlen schönt wo es nur geht aber man sollte eben Realitische Auflösungen und einstellungen nehmen und nicht 720p und 1080p low
Wenn man Produkte vergleicht dann bitte mit Werksangabe und nicht offenen Powerlimits.

Warum in CPU Tests 720p/1080p stattfinden sollte jedem klar sein und wurde 100fach erklärt, sie bilden eben nicht das "Realworld Szenario" ab sondern sollen verdeutlichen wie sich die jeweilige CPU bei der Engine verhalt ohne ins GPU Limit zu laufen. Daher ist die GPU im Testsystem auch immer relativ Leistungsstark.

Die 188W standen früher in den offiziellen Daten drin, in den Datasheets von Oktober 2022 und das war für die 13th Gen., diese Daten wurden auch für die 24th Gen. verwendet aber oh Wunder, diese Seite von Intel existiert nicht mehr. Da konnte man auch ältere Revisionen der Daten abrufen, jetzt nicht mehr ABER das Internet vergisst nie.

Hier mal ein Vergleich der Daten von 10/2022 und 02/2023, da sieht man das hier schon geändert wurde:


Post#159

Anhang anzeigen 996448

Anhang anzeigen 996449

Habe mal versucht die alten Datasheets zu bekommen aber leider sind die alle hinter einer Paywall, und ich glaube das waren irgendwas mit über 150 €, ist mir das nicht wert.
Intel hat die seit Tag 1 ab der 12er Generation nie abgeändert, Produktvalidierung ist etwas völlig anderes daher gibt es auch keine "ältere Revision" die du finden könntest.
Ich hab Igors schwer erträgliches Video komplett am Thema vorbei leider auch gesehen, aber selbst der 12900k hat eine Dokumentation von 241W bis heute.

Das sind auch nur Empfehlungen, bindende Werte bekommen die Boardpartner nur bei Ampere bzw. Current.
 
Für die 14Th gen wurde sie zunächst auch, bis dann später für das KS Modell Änderungen notwendig wurden, eigentlich ganz einfache Kiste.
Na ja da hätten sie die für die normalen K Modelle aber lassen können.
Da wären dann aber die Unterschiede in den Benchmarks wohl richtig aus den Ruder gelaufen.

Was passiert jetzt eigentlich? Benchen jetzt alle Redaktionen im vorauseilenden Gehorsam der Gerüchteküche neu?
Eigentlich sollten die alle warten bis sich Intel dazu geäußert hat und dann müssten ALLE Benchmarks wiederholt werden.
Was Intel eigentlich noch auf die Füße fallen könnte ist die Aussage in einem Interview das den MB Herstellern explizit erlaubt wurde diese unmöglichen Spannungen anzulegen, die hatten freie Bahn.

Intel hat die seit Tag 1 ab der 12er Generation nie etwas abgeändert, Produktvalidierung ist etwas völlig anderes daher gibt es auch keine "ältere Revision" die du finden könntest.
Neue Produkte hinzufügen ist ja in Ordnung aber die Werte für die schon existierenden auch zu erhöhen ist eigentlich nicht so gut.
Die K Modelle waren ja auf 125/188 ausgelegt und später nach erscheinen der KS Modelle wurde ja auf 125/ 253 geändert.
Die KS hatten ja 150W als PL1 drin, was dann nochmals später auf 253/253 auf alle K und KS Modelle erhöht wurde.

Wie dem auch sei, bin schon sehr gespannt darauf wie Intel sich äußert und falls dann alle Benchmarks wiederholt werden müssten wie sich das dann auswirkt.
Hoffentlich findet Intel eine Lösung die keinen großen Image Schaden verursacht.
 
Interessiert das eigentlich jemanden wirklich? Ich glaube kaum das sich Leute nen 14700k/14900K/S kaufen um ihn dann am Ende die Eier abzuschneiden.
Bald kommt eh die neue Intel Gen, da juckt keinen mehr die Benchmarks von der 12/13/14 Gen. Und seien wir mal ehrlich, zum Zocken reichen locker alle dieser CPUs. Egal ob offen oder limitiert.
 
Hoffentlich findet Intel eine Lösung die keinen großen Image Schaden verursacht.

Die Lösung liegt in den Profilen, ich sag mal Full Attack Ultra Extreme Performance Deliver Profile, man wird sehen :d
 
Man sollte also im GPU Limit testen, um möglichst wenig über die CPU herauszufinden, die man gerade zu testen versucht. Got it, wirklich smart. (Wenn man die Unzulänglichkeiten der CPU verstecken möchte) 👍
Wenn es um den Verbrauch im Realszenario geht ja.
Das ist eine andere Betrachtungsweise bei den Grafikkarten wurde immer argumentiert, wenn Nvidia zu wenig RAM hat kann man das ja nicht testen. (Resident Evil mit Ultra Texturen in 1080P war damals im Thema)
Also muss man die Settings so nehmen das der Cache für beide reicht.

Das Szenario mit " theoretischen infinite fps" führt dazu das gewissermaßen nur noch auf den Cache ankommt.
Das lässt auch AMDs eigene CPUs die nicht X3D sind schlechter darstellen als sie eigentlich sind.

Also Ja der Test in 720P ist wichtig und richtig, reicht aber gewissermaßen nicht vollständig aus.
Wenn man dazu einen Test noch mit statischen max FPS nehmen würde z. B einen 4K Parcours. Wäre der Median aus beiden werten näher am alltagswert als für sich alleine stehend.

Als Beispiel 90W mit 720P und 60W in 4K wäre der mittlere Wert hier 75W im Verbrauch. ->nicht jeder spielt in 4K und nicht jeder hat eine 4090 also ist dieser real irgendwo dazwischen.
Beitrag automatisch zusammengeführt:

Man sollte also im GPU Limit testen
Jeder der keine 4090 hat, hat automatisch ein GPU Limit.
 
Zuletzt bearbeitet:
Man sollte also im GPU Limit testen, um möglichst wenig über die CPU herauszufinden, die man gerade zu testen versucht. Got it, wirklich smart. (Wenn man die Unzulänglichkeiten der CPU verstecken möchte) 👍
Es geht einfach darum "Realworld" Szenarien abzubilden dazu gehört genauso 1440p und eben 4k was ja dank DLSS+FG jetzt im Hier und jetzt angekommen ist

Ich werfe nochmal die Frage in die Runde welcher Endverbraucher kauft sich einen 14900k um damit 720p in low zu spielen ?????????? Richtig KEINER!!!!! daher sind die Verbrauchswerte so nichts sagend weil das in keinem Szenario anwendung findet weil was bringt es mir wenn er Dort seine 135watt oder 250 watt verbraucht ist es deswegen eine Schlechte CPU????? ich aber in 4k spiele und eben nur 85watt brauche (Siehe mein Bsp.)

Genauso sind diese CB runs mit 350watt+ so absolute nichts sagend und sinnlos weil das nur auf einen Winzigen Teil der anwender zutreffen tut und auch null mit REALWORLD zutun hat
Selbst intel Folien Bilden 1080p high und 1440p ab und wir leben nunmal in einer Zeit wo die GPU eben der Flaschenhals ist dank DLSS und Co und nicht umgekehrt also warum 720p? so sinnlos
 
Wozu überhaupt eine schnelle CPU, wenn das im alltäglichen Gebrauch doch Wurscht ist? Als AMD den Bulldozer erstmals zeigte, lief der gegen einen Sandy i7: im brutalen GPU Limit, sodass -oh Wunder- beide genau gleich schnell waren.

CPU Tests im GPU Limit kann man sich einfach sparen. Punkt!
Beitrag automatisch zusammengeführt:

PS: ich weiss ja nicht wann ihr eure Plattform aufrüstet, aber ich mache das wenn sie zu lahm wird. Also wenn ein CPU, und kein GPU Limit mehr vorliegt.
 
Zuletzt bearbeitet:
Wozu überhaupt eine schnelle CPU
Wie ich oben schon sagte für HIGH FPS Games ala Warzone oder Valorant und co dafür wird so eine CPU benötigt

Und früher kann man nicht mehr vergleichen wenn man sieht welchen exponentiellen Anstieg wir haben bei der CPU und GPU leistung besonders bei der GPU leistung
 
Ich muss gerade so an AMD denken.
Da hat die Marketing Abteilung gerade alle Folien mit Benchmarks fertig für die Präsentation der Ryzen 9000 und nun das. Müssen nun alles nochmals Testen, wegen Intel neuer Baseline Profile. Werden die Neuen AMD CPUs gleich noch besser auf den Folien. :ROFLMAO:
 
Ich muss gerade so an AMD denken.
Da hat die Marketing Abteilung gerade alle Folien mit Benchmarks fertig für die Präsentation der Ryzen 9000 und nun das. Müssen nun alles nochmals Testen, wegen Intel neuer Baseline Profile. Werden die Neuen AMD CPUs gleich noch besser auf den Folien. :ROFLMAO:
Hey das ist ne lustige Idee seinen Wettbewerber zu gängeln. :fresse2:
 
Es geht einfach darum "Realworld" Szenarien abzubilden
Nein, darum geht es absolut 0. Es geht darum, welche Leistung ein Prozessor bringt und nicht, ab wann für dich die Leistungsaufnahme schön ist. Denn dies kannst du mit deinem Kauf und oder Einstellungen dann selber machen.
Letztlich soll und müssen alle Hersteller genau die Vorgaben erfüllen und im PC Bereich beim selber basteln, kann dann nach belieben mit einer K CPU und Z Platine die Einstellungen gesetzt werden. Ausgeliefert müssen aber die Produkte die Vorgaben erfüllen und nicht zuerst selber gesetzt werden.

Müssen nun alles nochmals Testen, wegen Intel neuer Baseline Profile.
Und wenn dann alle Test mit DDR5 6000 veröffentlicht wurden, gibt es den Hinweis, dass die Nutzung von EXPO nicht von der Garantie gedeckt ist. Und nebenbei musste dann noch AGESA angepasst werden, weil CPUs mit zu viel Spannung abgeraucht sind. Wie es beim Ryzen 7000 der Fall war.
 
Wozu überhaupt eine schnelle CPU, wenn das im alltäglichen Gebrauch doch Wurscht ist? Als AMD den Bulldozer erstmals zeigte, lief der gegen einen Sandy i7: im brutalen GPU Limit, sodass -oh Wunder- beide genau gleich schnell waren.

CPU Tests im GPU Limit kann man sich einfach sparen. Punkt!
Beitrag automatisch zusammengeführt:

PS: ich weiss ja nicht wann ihr eure Plattform aufrüstet, aber ich mache das wenn sie zu lahm wird. Also wenn ein CPU, und kein GPU Limit mehr vorliegt.
Der 720P Test zeigt was der maximale Verbrauch bei der Spitzenleistung ist. Leider ist das auch wie beim Auto der Verbrauch bei Top Speed mit 300PS sagt erstmal nichts aus wie hoch dieser bei 80km/h ist.

Der Test macht ja Sinn ich streite dessen Sinnhaftigkeit nicht aus, aber es nicht ausreichend um realen Verbrauch im Alltag vernünftig zu beziffern.

Den hier passiert halt eben genau das: Aber einem gewissen Faktor läuft beim Intel erwartungsmäßig der Cache voll, das heißt der muss das Defizit mit hohem Takt ausgleichen, wenn allerdings beide oder auch ein Ryzen non X3D noch nicht voll gelaufen ist, ist die Anforderung an den Takt weitaus geringer und benötigte Leistung dies zu kompensieren.
Beitrag automatisch zusammengeführt:

Nein, darum geht es absolut 0. Es geht darum, welche Leistung ein Prozessor bringt und nicht, ab wann für dich die Leistungsaufnahme schön ist. Denn dies kannst du mit deinem Kauf und oder Einstellungen dann selber machen.
Das wäre ja falsch, dafür reichen Games aber nicht aus. Die wenigsten Games nutzten das Multithreaded voll aus. Das war das Problem der Ryzen 2000er die hatten viele Kerne aber nicht so hohen Takt die sind abgestunken in Titeln die Dual Core lastig waren und Intel hatte da schon 4,7- 5 Ghz.
 
Weiß garnicht was ich nun von dem Thema halten soll.
Meine die MB Hersteller haben versucht default die beste Performance raus zu holen aus den CPU´s
Manche wie Asus haben bisschen übertrieben. MSI zb. hat es recht elegant gelöst.
Bei den anderen beiden weiß ich grad nicht.

So Intel schaut sich 12.+13.+14. Generation sich das an und die Benchmarkbalken haben denen ja auch so gefallen sonst hätten sie früher reagiert.
Dann hat Intel wohl paar Chargen an CPU´s raus gehauen die so beschissen sind, dass die ausgeloteten Werte der Boardpartner nicht stabil laufen.
Jetzt beruft man sich auf die Baseline Profile um ggf. diverse RMA´s zu entgehen. Macht druck auf die Hersteller der Mainboards um mit ach und krach das umzusetzen.
Finde ist für mich am Ende von Sockel 1700 ein bisschen zu spät. Da hätte man schon spätestens bei release von RPL schon eher mal reagieren müssen.

Im Grunde finde ich es aber richtig , dass Mainboards die Profile von Intel eingespeichert haben. Einmal Baseline @ default nach Cmos Clear.
Dann halt Performance/Extreme von Intel und dann halt die eigenen Profile. So sollte es dann halt von anfang an sein und denke gute Hardwaremagazine würden gerade zu beginn
mehrere Profile testen. Mir persönlich nach 1,5 Jahren nutzt das jetzt auch nichts. Hab jetzt in der Zeit meine Erfahrung mit meinem Board/CPU gemacht und bleibe bei meinen Settings die ich
ausgelotet habe. Wenn man anfängt mit einem System und mehr raus holen möchte ist es grundsätzlich gut mit der Baseline anzufangen und sich dann hoch zu arbeiten.
Bei mir und vielen anderen haben gott sei dank die Asus Profile gut funktioniert und man konnte von da an weiter optimieren.
 
Zuletzt bearbeitet:
Na das ist ja ein Ding, hätte ich so nicht gedacht.

Alle, die damals die CPU zum Testen bekommen hatten, sollten mit PL1 / PL2 253W testen.

Jetzt ist im Performance nur noch PL1 125W

1715010524676.png


Intel Vorgabe Baseline-Profil= PL1 125 / PL2 188W Iccmax 249A würde dann dem Boxed bei MSI entsprechen?

Das ist dann aber wirklich eine Handbremse.
 
Immernoch Schlaganfall bei MSI in Sachen BIOS ?
 
Also wenn das dann wirklich die von Intel vorgeschriebenen werte sind, hätte man einen 12900K behalten können auf die 8 E-Core hätte man dann auch verzichten können.

Wenn man bedenkt, mann schaut sich die Tests an und die Tester sind von Intel dazu aufgerufen mit PL1 / PL2 253W zu testen, man denkt sich oh, na das lohnt sich ja eigentlich vom 12900K zum 14900K zu wechseln, dabei war der Unterschied gar nicht so groß, wenn man unter PL1 125 / PL2 188W Iccmax 249A getestet hätte.
 
Aber sei doch Realistisch wen juckt der Verbrauch bei 720p oder 1080p auf low settings ??? Keinen weil dafür keiner so eine CPU kauft und solche werte Absolut nix mit der Realität zutun haben
und ob die werte mit der realität zu tun haben.

die auflösung hat nichts mit dem verbraucht zu tun

die, die sich so eine cpu kaufen, werden die leistung abrufen, und das geht auch in 1440p, uwqhd oder 4k und dann wird die cpu auch dort den verbrauch erreichen
 
Zuletzt bearbeitet:
Bin gespannt was da raus kommen wir d.
Angefangen hats ja mit Baseline, jetzt kommen noch 3!? weitere Profile.
Jetzt müssten eigentlich alle 13th und 14th gen Besitzer ihre cpu zurücksenden - nicht erfüllen der versprochenen Leistung.
 
Ich werfe nochmal die Frage in die Runde welcher Endverbraucher kauft sich einen 14900k um damit 720p in low zu spielen ?????????? Richtig KEINER!!!!!
Doch, hier zb. Nicht jedes Game, aber die kompetitiven Shooter die ich ab und zu spiel(t)e. Damals war der 13900K das non plus Ultra und ich konnte meinen DDR4 weiter nutzen, als DDR5 noch sehr teuer war.
 
Bin gespannt was da raus kommen wir d.
Angefangen hats ja mit Baseline, jetzt kommen noch 3!? weitere Profile.
Jetzt müssten eigentlich alle 13th und 14th gen Besitzer ihre cpu zurücksenden - nicht erfüllen der versprochenen Leistung.
Ich hab mit Intel Baseline die selbe Leistung wie vorher, um ehrlich zu sein wahrscheinlich sogar durch angepasste VID noch etwas mehr 🤡.
 
tja ... wenn man auf Gedeih und Verderb aus Zitronen versucht Limonade zu machen (mit immer mehr Verbrauch) dann kommt der Punkt wo das Silikon halt mal protestiert

die 12xxx waren noch ok, die 13xxxK durch den höheren Cache etwas besser aber die 14000 sind für den .....
:)

Allein wenn man sich mal die effizienz anguckt: (Quelle: https://www.techpowerup.com/review/intel-core-i9-14900ks/22.html)

efficiency-singlethread.png

efficiency-multithread.png


efficiency-gaming.png
 
Zuletzt bearbeitet:
Jetzt müssten eigentlich alle 13th und 14th gen Besitzer ihre cpu zurücksenden - nicht erfüllen der versprochenen Leistung.

Welche versprochene Leistung wird denn nicht mehr erfüllt?
 
Leute abwarten. Es ist doch alles aktuell Hörensagen. Da kann man sich Gedanken machen wenn Intel mal offiziell sagt was Sache ist, denn dann sind es Fakten.
 
Welche versprochene Leistung wird denn nicht mehr erfüllt?
Prinzipiell sind die Fail Safe Settings von Intel deshalb ein Thema geworden weil die Board Partner mit ihren Profilen übertrieben haben, was bei vielen scheinbar zu Problemen geführt hatte im Edgecase.
Ich meine das gleiche hatten wir teilweise mit AMD auch.
Es ist doch schön das es jetzt per default ein 100% stable profile gibt. Wahrscheinlich ist dies aufgefallen als einige ihre reklamiert hatten und diese im Intel Labor mit eben jenen Settings die jetzt erzwungen werden einfach normal zweckmäßig gelaufen sind.

Auch wenn mittlerweile alle Hersteller OC mit verkaufen, weisen die immer drauf hin es wäre optional und ohne Gewährleistung.
Jetzt kommt halt der Shitstorm das eben jenes Onboard OC von ASUS, MSI, Gigabyte halt zwangsweise wieder gebremst wird um den regulären störungsfreien Betrieb zu Gewährleisten und die Chips nicht einer Beschädigungsgefährdung auszusetzen.

Ja hier und da wird es ein paar Punkte weniger sein, aber das interessiert tatsächlich niemanden.
Ich bin mir auch 100% sicher das moderates OC weiterhin gehen wird und auch stabil laufen wird.
Das Intel default Profile ist auch halt ganz nett um beim debuggen ein wirkliches fail-safe zum testen zu haben. Wenn es damit nicht läuft hat der Chip einen Treffer, läuft es damit muss das OC gezügelt werden. Das ist eigentlich ganz einfach :bigok:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh