DLVR-Bypass: Intel beschränkt Nutzung auf Extreme-Overclocking

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.972
Mit den Core-Ultra-200S-Prozessoren alias Arrow Lake bewarb Intel im Zusammenhang mit dem Overclocking der CPUs auch den Digital Linear Voltage Regulator (DLVR) beziehungsweise die Tatsache, dass dieser Umgangen werden kann, sodass weiterhin das Mainboard die Aufgabe der Spannungsregelung übernimmt.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht gibt es ja Probleme mit der Haltbarkeit, wenn man den DLVR-Bypass dauerhaft nutzt? Ansonsten hätte es ja auch eine dicke Warnmeldung bei Aktivierung der Funktion getan.
 
Vielleicht will Intel nach dem ganzen Desaster mit der vorschnellen Alterung der 13. und 14. Gen. bei dem Thema nun mehr Vorsicht walten lassen. Dann würde die Vorgabe dazu dienen, auch die Mainboard-Partner zum mitziehen zu zwingen.

Die Zeit des Factory-Overclockings bei Intel mit der Brechstange Spannungserhöhung scheint aktuell ein Ende gefunden zu haben. Und das nach vielen Jahren mit der Kulmination in der 14. Gen.

So passt das mit der Philosophieänderung und mit DLVR ja auch ins komplett Bild: Für Raptor Lake sowie Refresh war es die ganze Zeit vorbereitet, aber nie aktiviert. Für die neue Gen wird die DLVR-Regulierung jetzt enforced. 180 Grad gedreht (und gut so!).
 
habe das aktuelle asrock Beta BIOS drauf (z890 Livemixer) und habe mich schon dumm und dämlich gesucht.

undervolting bringt bei arrowlake wegen dem dlvr bei Volllast extrem wenig, weil der dlvr die effizienzgewinne wieder auffrisst. ich kann p und e cores grob um 100mv undervolten, aber die dlvr Inputspannung bleibt bei 1,4v - die leistungsaufnahme an der Steckdose sinkt vielleicht um 30w. das sollten bei 100mv aber eher 50-80w sein. die Abwärme vom dlvr hat man ebenfalls in der CPU.

der dlvr gibt einfach mal grob 300mv auf die tatsächliche Kernspannung oben drauf, das ist einfach viel zu viel Spannungsdifferenz, die bei hohem verbrauch einfach brutal reinkickt.

mit einem dlvr Bypass sind die Wandlerverluste weg, theoretisch verbraucht dann das System einfach mal 50-80w weniger, obwohl die Kerne quasi genau die selbe Leistungsaufnahmenhaben.

das Problem am dlvr Bypass ist aber, dass l3 Cache und Ring ebenfalls direkt die vcore vom vrm Output bekommt, und wer da 1,4v eintippt, overvolted Ring und Cache um etwa 300-400mv. das will Intel vermeiden, weil man so teile der CPU relativ einfach himmeln kann.

was wir aber brauchen ist eine Option die dlvr input spannung zu undervolten. im asrock BIOS gibt's zwar einen spannungsoffset dafür, ABER wenn man hier die spannung reduziert, bricht die Performance komplett weg. wenn man den dlvr input auf 1,35v reduziert, geht gleichzeitig auch die Kernspannung runter, was dann einfach leistung kostet, ggf ist da sogar noch clock Stretching dabei.

ich will aber mit einem dlvr undervolt das fette delta zwischen dem 1,41v Input und den 1,15v tatsächlicher vcore reduzieren. die Kerne sind die Verbraucher mit der höchsten Spannung. ich verstehe einfach nicht, wieso die dlvr Inputspannung so extrem konservativ ist. da ist LLC, tvb, usw usf mit drin, aber da könnte man bestimmt auf 1,25v oder 1,3v dlvr input runter. das würde die Wandlerverluste massiv reduzieren.
 
Ein Linear-Regler ist grundsätzlich eine ziemlich verjährte Sache. Ist zwar nicht schlecht für gewisse Anwendungen, hat aber eben massive Verlustleistung (weil anders als beim gepulsten Regler die ganze Spannungsdifferenz in Verlustleistung übergeht proportional zum Stromfluss).

Von der Energie-Effizienz Seite her ist das schon keine coole Sache undr echt bedenklich, diese immense Verlustleistung ist dann ein reales technisches Problem. Wenn man diese Verluste noch zum ohnehin schon hohen Verbrauch und der Wärmestauproblematk moderner CPUs (aller Hersteller, bedingt durch die Packungsdichte) addiert, endet das ja in einem Super-GAU.
Beitrag automatisch zusammengeführt:

ich will aber mit einem dlvr undervolt das fette delta zwischen dem 1,41v Input und den 1,15v tatsächlicher vcore reduzieren. die Kerne sind die Verbraucher mit der höchsten Spannung. ich verstehe einfach nicht, wieso die dlvr Inputspannung so extrem konservativ ist. da ist LLC, tvb, usw usf mit drin, aber da könnte man bestimmt auf 1,25v oder 1,3v dlvr input runter. das würde die Wandlerverluste massiv reduzieren.
Ja, ich glaube, das Problem ist, dass man hier diverse Funktionen "nachgerüstet" hat in ein recht fertiges Design, und man das grundsätzlich "ganzheitlicher" angehen müsste.

Die Idee vom DLVR ist nicht blöd, aber die Umsetzung in dieser Art imho ein Problem.
 
Hat Intel wirklich nen Linear-Spannungsregler in die CPU eingebaut?
Das kann ich mir auch überhaupt nicht vorstellen.
Übrigens gab es schon öfters Spannungswandler innerhalb der CPU, z.B. bei Xeons. Und bei denen kam es auch auf Effizienz an - also wird es kein einfacher Längsregler gewesen sein.
 
ich bin auch auf Intel default... hm vllt stimmt da was nicht, ich Stelle das mal auf extreme und dann wieder zurück. das Beta BIOS hat noch so ein paar andere Ecken und Kanten.
 
Die Screenshots zeigen das installierte BIOS in der Version 1002 und auch den Microcode 0x112. Allerdings finden wir unter den "Extrem Tweaker"-Einstellungen weiterhin den Power Gate Mode. Die Funktion den Microcode auf eine ältere Version zu wechseln (siehe letzter Screenshot) müssen wir hier also gar nicht nutzen.
1731931300958.png

Prinzipiell sagt Intel hier das sie den Missbrauch oder Falschverwendung einschränken möchten, aber nicht das diese Funktion gänzlich entfernt werden soll - sondern nur schwer zugänglich sein.
Bei MSI Boards gibts einen LN2 Modus wenn es mich nicht täuscht. Ggf wurde diese Funktion unter dieser Modifikation "versteckt".
Natürlich ist auch sehr wahrscheinlich standardmäßig einfach global deaktiviert.
 
DLVR lässt sich zumindest aber noch via Flags ins UEFI dispatchen.

Hier aktueller Auszug der AMITSE aus einem Z790 (ACE) Bios mit 0x12B MC Patch:

dlvr.png

..und hier die UEFI Settings @ default:

MSI_SnapShot.png
 
Zuletzt bearbeitet:
Hatten damals die Haswell CPUs nicht auch schon einen Spannungsregler in der CPU?:unsure: Kann mich noch dunkel daran erinnern als Intel das beim Marketing mit erwähnte...wirklich effizient waren die 4000er Core i CPUs ja leider dadurch nicht ^^
 
Aber mangels Konkurrenz trotzdem vorne.
 
Hier werden die Vorzüge vom PG Modus ziemlich gut erklärt:


Es macht nur in "High Load Szenarien" wirklich Sinn, also ab 150A meint Skatterbencher. o_O

Haswell mit IVR hatte ein Temp Problem, da hatte der Delid schon noch richtig was gebracht, selbst unter Lukü.

@CN-SSD Expert

Rehi dann noch und Gratulation zum neuen Account, hatte nach dem Bann schon eher damit gerechnet. :oops:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh