Update: GTX260 65nm undervolting - Treiber neuinstallation nach Flash?

Skandaloes

LTdW 90k Master, Luxx'scher Zombie
Thread Starter
Mitglied seit
15.12.2006
Beiträge
5.174
Ort
Far far away
Tach zusammen,

ich stelle mir gerade die Frage in wie weit es sinnvoll ist, meine Graka ein modifiziertes Bios zu verpassen?
Speziell im Bereich der Spannungen.
In erster Linie geht es mir dabei primär um die Temperaturentwicklung, der dadurch resultierende gesenkte Stromverbrauch wäre ein positiver Nebeneffekt.

Lassen sich durch solch einen Eingriff überhaupt Temps senken?
Und wie gefährlich ist ein Solcher?
Die Garantie wird ja warscheinlich weg sein, oder?
Hat vllt. jemand ein Tutorial für eine ein solches Vorhaben, da ich im Bereich Grafikkartenmodifikation noch blutiger Anfänger bin.

Danke schonmal
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wegen der besseren ÜBersicht mal nach oben gerückt:

Komplettpaket zum Flashen von NV - Karten mit digitalem Spannungswandler:


http://rapidshare.com/files/256431602/NV_BIOS_Flash_-_Paket_updated.rar


Das Paket enthält (* = updated):

- GPU-Z 0.34
- NiBiTor 5.1 mit 2 Offline Tutorials (für 5.0 - macht aber nichts) *
- NVFlash 5.80
- HP USB Disk Storage Format Tool v2.23 (auch Win 7 ready)
- MSDOS Bootdisk Files für das HP Tool



E: Auf mvk.tech - der HP der NiBiTor - Macher gibt es auch original BIOSe für alle Hersteller:

http://www.mvktech.net/component/option,com_remository/Itemid,26/func,select/id,58/



Folgende NV - Karten haben einen digitalen Spannungswandler:

Karten mit G92 (8800 GT, 8800 GTS 512, 9x00 - mit 65nm auf jeden Fall) oder folgende
GT200 Modelle (65nm: GTX 260 (192 *), GTX 260 (216) und GTX 280 sowie GT200b 55nm : GTX 295 Dual - PCB)

* = Ausnahme Zotac Synergy Edition: Revision Frühjahr 09 - hier wurde der Volterra Chip eingespart !
Zu erkennen an fehlender Backplate und fehlenden VRAM Chips an der Rückseite des PCBs (wie auch bei GT200b 55nm Karten der Fall) !
Update: Die Mindest VCore der neuen Revision ohne Volterra Chip , die auch über NiBiTor geflasht werden beträgt 1.05V !
Dies wurde von sun-man bestätigt -> Einsparung in Furmark gegenüber 1.12V VCore - maximal ~ 40 Watt !

Laut einer Forenaussage kann man auch alle 55nm GT200b Karten auf minimal 1.05V VCore flashen !


PS: G80 Modelle (8800 Ultra, 8800 GTX und 8800 GTS 640 / 320 sollen keinen digitalen SpaWa haben - man kann mit NiBiTor zwar andere VCore Werte eintragen, diese werden dann aber nicht nach dem Flashen übernommen ! Hier braucht es einen Volt - Mod (Löten am PCB ist halt schon deutlich riskanter als ein Flash);
dieser ist auch bei GTX 260 (216) 55nm, GTX 275 und GTX 285 nötig.



GT200b 55nm Software Voltage Tweaking mit RivaTuner Plugin ! :

http://www.xtremesystems.org/forums/showthread.php?t=217002


GTX 285 - Volt Mod:

http://www.xtremesystems.org/forums/showthread.php?t=220607


G80 (hier 8800 GTS 640 / 320) - Volt Mod:

http://www.xtremesystems.org/forums/showthread.php?t=123046


9800 GT (G92b) - Volt Mod:

http://www.xtremesystems.org/forums/showthread.php?t=208471



_________________________________




[GUIDE: Dual - PCB GTX 295 oder auch 9800 GX2 richtig flashen *]

* = die Single PCB GTX 295 sollte aber, wie etwa die HD 4870 X2, auch noch 2 BIOSe haben

Hinweis - wie ich erfahren habe, sind zumindest bei den Single GPU 55nm Modellen (bekanntlich auch OHNE Volterra SpaWa) 1.05V VCore
per NiBiTor möglich, dies sollte auch auf die neue GTX 295 Single - PCB (ebenfalls ohne digitalen Marken SpaWa) zutreffen !




1: Backup unter nvflash beider original BIOSe:

GPU1:

nvflash_-b_-i1_xxx-1.rom (xxx-1 = beliebiger Name -> muss nur unter 8 Zeichen lang sein, ohne Sonderzeichen o.ä. !)

_ = Leerzeichen !

GPU2:

nvflash_-b_-i2_xxx-2.rom

_ = Leerzeichen !


2. Über NiBiTor beide editieren und seperat neu abspeichern, originale sichern !


3. Flashvorgang:

GPU1:

nvflash_-4_-5_-6_-i1_xxx-1.rom

_ = Leerzeichen !

Bei Bestätigungsaufforderung ("Press "Y" for Yes -> "Z" drücken - englisches Layout gilt !)


GPU2:

nvflash_-4_-5_-6_-i2_xxx-2.rom

_ = Leerzeichen !

Bei Bestätigungsaufforderung ("Press "Y" for Yes -> "Z" drücken - englisches Layout gilt !)


Es soll wohl besser sein, wenn man beide BIOSe unter nvflash seperat abspeichert und wieder aufspielt, da es sonst zu Fehlermeldungen beim Flashen kommen kann.

Flasht man bei einer Dual - PCB Karte nur 1 BIOS über nvflash (ohne nvflash mit i1 und i2 Befehl für getrennte GPU BIOSe - sondern gleich über NiBiTor), so betrifft die Änderung nur GPU1 !





_________________________________


Hi - also ich konnte nach dem Undervolten meiner GTX 295 (im Idle um bald 0.2 V !) dort etwa 5°C niedrigere Temperaturen ausmachen. Im 3D Modus hab ich die Spannung aber nur minimal gesenkt - von 1.04V auf 1.01V. Eine GTX 260 / 280 hat aber zumindest standard mäßig höhere Spannungen.

Ist schon mal gut, dass du die 65nm GTX 260 hast - damit geht es !


Wird dort auch etwas kühler.

Das ganze dürfte schon so einige Watt sparen, wenn man GPU-Z da glauben schenken darf (1.5 - 2.2A statt vorher 2.9A im 2D Modus - taktraten jeweils bei 150/300/100 MHz (Core / Shader / Memory).

Die Garantie geht dann flöten - aber bei Probs mit der GraKa kann man ja vorher wieder das original BIOS drauf flashen.


Hier ist ein sehr gutes Tutorial, wie man mit NiBiTor 5.0 und NVFlash ein neues BIOS aufspielt.

http://www.technic3d.com/Forum/graf...vidia-g200-65nm-mit-nibitor-v50-t15010.0.html


Hier ist nochmal ein Tutorial für RivaTuner und NiBiTor (allerdings v3.80 - mit 8800 GT) - auch mit detailierter Angabe zur Änderung der Lüftersteuerung.

http://www.computerbase.de/forum/showthread.php?p=3932836#post3932836


Falls du noch deinen USB Stick bootready machen willst - hab noch die Files dazu.



Wichtig ist, dass man es mit den Spannungswerten nicht zu sehr übertreibt - am sichersten ist es mehrmals zu flashen (in kleinen Schritten) und so die optimale Spannung auszuloten. Das Orignal - BIOS sollte man im Falle von Bildfehlern unter Windows auch immer auf dem Stick haben.

Wenn du auch das Problem haben solltest, dass du dein BIOS nicht über NiBiTor auslesen kannst -> GPU-Z benutzen (Original BIOS dann aber als .rom statt .bin abspeichern) und dann mit NiBiTor öffnen.





MfG
Edge
 
Zuletzt bearbeitet:
Vielen Dank für die Mühe die Du Dir gemacht hast.

Allerdings habe ich ein Problem, und zwar kann ich das Bios nicht über
>Tools >Read BIOS >Select Device a einlesen.
Ich bekomme dann immer die Meldung "Cant connect to Service Manager",
ich vermute mal das es an Win 7 64bit liegt.
Kann ich das Bios dann auch mit GPU-Z auslesen und im Nbitor öffnen?

Edit: ich sollte mal richtig lesen:wall: , steht ja da schon. :d
 
Da Du das Bios sowieso mit nvflash flashen musst irgendwann kannst Du auch gleich damit anfangen und mit nvflash das Bios auslesen.
 
Gut, das geht natürlich auch.

Aber wenn man eh die Vorbereitungen unter Windows macht ist es imho eigenlich ganz praktisch das Auslesen dort auch gleich mitzumachen - ist aber an für sich egal.
 
^^
Das mit dem Dos-Boot ist glaub ich für die meisten Anwender viel schwieriger als die Bedienung vom nibitor, deshalb schmeiss ich das gerne in die Runde.
 
Jupp - hab auch ganz schön gekämpft (war mein erster GPU - BIOS - Flash), bis ich das passende Tool (von HP) gefunden hab.

Ich hatte das "Glück", dass die Version zu alt war (XP) - beim Installieren abekackt.

Nach neuer Version gesucht - die btw. auch Win 7 ready ist.

Die Sys - Bootdateien hat ich aber auch net zur Hand (FDD flog '08 raus) - da dann nochmal gesucht und fündig geworden.

Dann wollt NVFlash mein BIOS trotz .rom net erkennen - hab dann nochmal im Tutorial nachgesehen -> max. 8 Zeichen darf es lang sein.

:fresse:
 
Zuletzt bearbeitet:
kannst ja auch undervolten im windows mit einem tool wie das evga precision tool oder voltag factory z.b., dann brauchst du nix am bios fummeln, hab ich auch so gemacht.

 
Zuletzt bearbeitet:
Ich dachte mit EVGA Precision Tool wär Undervolting nicht möglich - nur VCore - Erhöhung ?! :confused:

Gut - zum Probieren ist es imho in Windows mit passender SW auch ganz praktisch - aber auf die Dauer find ich ein BIOS Flash besser.
Da ist man halt nicht an Tools, die im Autostart sein müssen, gebunden.


E: Mir ist beim Paket erstellen ein recht unbedeutender Fehler unterlaufen - hab es aber trotzdem mal korrigiert.

Natürlich ist NV Flash 5.80 und nicht 2.80 dabei und das Tool für den bootfähigen USB Stick heißt HP USB Disk Storage Format Tool v2.23.
Hab nochmal einen Reupp des Pakets gemacht. ;)
 
Zuletzt bearbeitet:
Morgen zusammen,

und erstmal danke für die Antworten.

Ich denke, dass das flashen unter DOS das kleinste Problem darstellen sollte, habe als Jüngling noch aktiv mit DOS gearbeitet.
Habe das Bios auch schon mit NVFlash ausgelesen, hat alles prima geklappt.

Heute werde ich mich dann mal ans testen machen.

Macht es denn Sinn, auch die 3D Spannung zu ändern, oder bringt das keinen Vorteil in Punkto Temperatur?
 
du kannst natürlich auch die 3d Spannung ändern, allerdings solltest du dann sicher wissen dass die Karte die Taktraten auch mit der niedrigeren Spannung macht ;)
 
Das ist klar, aber würde das etwas Temperaturtechnisch bringen?
 
Die Senkung der 3D Spannung um 0.03V bringt laut PCGHW so um die 20W weniger Verbrauch - ich hab bei meiner GTX 295 in Overlord 2 nun knapp 10 °C weniger auf den GPUs.

Hier die Leistungsaufnahme- und Temperaturunterschiede bei der 8800 GT:

http://www.computerbase.de/forum/showpost.php?p=3932844&postcount=5

0,95V VCore wird der GT200 in 65nm leider nicht schaffen - 1.03V gilt hier als Optimum, ist aber seltener zu erreichen - eher 1.04V. Wenn du auf Nummer sicher gehen willst - versuche es erst mal mit 1.06V.



GTX 280 Load Verbrauchswerte (Furmark) mit unterschiedlichen Spannungen und auch OC auf GTX 285 Niveau - braucht weniger wie default GTX 280 ! ;)

http://www.pcgameshardware.de/aid,6...niger-Stromverbrauch/Grafikkarte/Test/?page=5

Der Unterschied von über 60W Verbrauch von 1.18V (default) zu 1.03V ist mit über 60W schon gewaltig. Die Karte ist dann auch über 10°C kühler - ich denk mal eher 15 - 20°C.



Für, die die flashen wollen - aber mit DOS wenig Erfahrung haben:

Mit meinem geuppten Paket samt beiligenden Tutorial und dem HP Tool für USB Sticks ist es ein leichtes das BIOS mit NVFlash unter DOS auzuspielen.
Hab auch nicht wirklich viel Ahnung von Win Vorgänger und nach Anleitung auch Null Probs gehabt ! ;)



MfG
Edge
 
Zuletzt bearbeitet:
So, hab jetzt mal ein wenig getestet.
Habe folgende Werte eingestellt, Karte läuft noch :d

Aufzeichnen.PNG

Stabilität/Bildfehler habe ich mit Left 4 Dead getestet, ist das ausreichend, oder sollte man etwas anderes nehmen?
Was mir auffällt, ist das die Amperewerte in GPU-Z schwanken, bin mir aber nicht sicher ob das mit dem Original Bios genauso war?
 
Die Spannungswerte sind doch mal, denk ich, fast am 65nm GT200 Optimum ! :bigok:


Bei mir schwanken die Ampere Werte in GPU-Z auch:

Meistens zeigt er 1.5A an - bei kurzen Peaks 2.2A, dann wieder 1.5A.

Ich denk mal, dass das auch mit der original VCore ein wenig schwankt - afaik der Wert aber insgesamt ein wenig stabiler war - nun ja, wenn alles problemlos läuft, auch beim Wechsel von Idle auf Last und umgekehrt - who cares ?! :fresse:


Wenn du im Idle noch ein bisschen was sparen willst - der GT200 läuft dort auch garantiert mit 150 / 300 / 100 MHz (gestest bei GTX 295 und 260 (65nm)).



Ich denk mal L4D @ High geht in Ordnung (ich persöhnlich hab mit Overlord II getestet) - wenn es noch mehr Last sein soll kannste ja zB auch noch Crysis WH, Stalker CS oder 3D Mark Vantage laufen lassen.
 
Zuletzt bearbeitet:
hab ne gtx 280 und die läuft auf 1.03 volt auch unter 3d!müste deine karte normalerweisse auch schaffen.teste mal unter 1.03 volt,karte läuft wesentlich kühler
 
Mit 1.03V ließe sich natürlich noch mehr sparen (10 - 20W geschätzt), nur muss man bedenken, dass dann sicher quasi gar kein OC bzw. nur sehr eingeschränktes OC mehr möglich, wenn mal Bedarf bestehen sollte.
 
Habe eben auch nochmal mit dem Original Bios gegengetestet, die Schwankungen sind dort auch vorhanden, bewegen sich anscheinend immer im 0,7A Bereich.

Temps mit Undervolting:
Last:
GPU 72°
PCB 59°
VDDC Slave #1 Temperature 64°
VDDC Slave #2 Temperature 63°
VDDC Slave #3 Temperature 64°

Im Idle sind die Temps komischerweise identisch mit denen der Original Spannungen. :hmm:

Und 150 / 300 / 100 MHz wären dann Core / Shader / Memory ?

Edit: Graka´s übertakte ich eigtl. nie, weil mir der Zuwachs an Leistung in dem Moment zu gering ist. Dann doch lieber Kühler und weniger Stromverbrauch.

Edit2: 1,03V unter 3D? Müsste ich dann unter 2D nicht auch weiter runter gehen?
 
Zuletzt bearbeitet:
stimmt so nicht ganz,meine erreicht immer noch spielend die werte einer gtx 285 und das mit 1.03 volt.

gibt aber genug berichte im netz das die gtx serie,die gtx 285 werte auch mit 1.03 volt ohne probleme macht.hätte es auch nicht geglaubt bis ich es selbst probiert habe,gibt wie gesagt einige artikel darüber im netz.

eines ist aber auch klar,1.06 sind besser als 1.18 standard vcore!
 
Zuletzt bearbeitet:
Ja - im Idle ist die Temperatursenkung schon bedeutend kleiner als unter Last.

Ich habe da mit meinem "Doppeldecker" so um die 5°C weniger - ist bei einer Single GPU sicherlich noch weniger - unter Last solltest du aber ein spürbaren Unterschied merken (zum Test kannst ja mal RivaTuner HW Monitoring im Hintergrund laufen lassen und dann das Spiel minimieren bzw. rausgehen.

Das sollten dann schon so 10 °C Unterschied (evtl. auch mehr - je nachdem wie gut die Casekühlung ist) sein.


Jo - sind 150 Core / 300 Shader / 100 Speicher.


Evtl. kann man mit dem Core und Shader - Wert noch ein wenig runter, aber so ist es auf jeden Fall stabil. Ich hab mal gelesen, dass die 100 MHz GDDR3 Takt (oder waren es 80 ?!) schon fast die unterste Schwelle sind - würde da also nicht mehr runter gehen.


E: 1.03V und dann GTX 285 Taktraten ? - geht ja erstaunlich gut ! ;)

Hm - gleiche Spannungswerte sollten eigentlich gehen - der Voltage Table Editor meckert aber rum und will diese der Höhe der VCore nach sortiert haben.
Wenn man bei "Exact Mode" alles auf 1.03V stellt und dies auch so in "Voltage IC" (1.0375 V) macht steht dort halt nach speichern und laden des BIOS immer noch 1.03V, aber "VID Mode" zeigt dann überall 1.18V an.

Ich hab kA, ob er das so komplett übernehmen würde - hab bei mir bis jetzt immer etwas ansteigende Werte genommen.


Werte sind natürlich niedriger, da Dual Karte und 55nm (@ stock je 1.0375V).

0.85V - 2D
0.95V - Throttle (in "VID Mode - in "Exact Mode" nichts eingetragen)
1 V - Low 3D (also wohl der Zwischenschritt wenn er aus der Last in den Idle geht)
1.01V - 3D
 
Zuletzt bearbeitet:
Muss ich eigtl. immer erst mit dem Original Bios arbeiten? Oder kann ich das bereits geänderte weiter bearbeiten?
 
Also braucht man wohl den "Voltage Table Editor" nicht umbedingt dafür ?

Denn der mag es ja nicht, wenn die Spannungswerte alle gleich sind.


Jo - den Artikel hab ich verlinkt, macht aber nix - doppelt hält besser. :d


E: Nein, du kannst selbstverständlich ein vorher bearbeitetes BIOS weiter tunen - das original BIOS braucht man halt nur als Backup und zum erstmaligen Starten des Tweakens.
 
Zuletzt bearbeitet:
doch,da bei neueren gtx 280 nur 1.06 als kleinste spannung anwählen kannst.hier mal ein pic von meinem bios,das ich bearbeitet habe

 
Ach so - die Werte im "Voltage Table Editor" und "VID Mode" sind weiterhin auf Standard (hab eben auch mal in nem XFX GTX 260 BE BIOS nachgesehen).
 
ja genau,nur die 1.0375 wurden von mir zugefügt,da bei meinem bios 1.06 die kleinste spannung gewsesn ist

hier ein bios der gtx 280 mit rev 2,hier ist bei 1.06 schluss,sieht man den unterschied zwischen rev 1 und rev 2



 
Zuletzt bearbeitet:
Also 1,03V auf allen dreien packt meine Karte anscheinend nicht.
Habe damit ruckler und hänger, welche ich normal nicht habe.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh