Update: GTX260 65nm undervolting - Treiber neuinstallation nach Flash?

Es würde ja auch schon etwas bringen, wenn die Karte mit 0.03V weniger als auf Standard laufen würde - klar, unter 1.10V wär natürlich für den GT200 wünschenswert.

Wie gesagt, das werde ich morgen nochmal testen.
Hatte ich heute nach knappen 6std. testen keinen Bock mehr drauf. :shake:

Was ich mich allerdings auch frage ist, ob es ohne Probleme möglich ist, den Low 3D Takt auf den 2D Wert runterzuschrauben. Der Taktsprung ist eventuell für die GPU (auf Dauer) zu groß

Du meinst den Taktsprung von 150/300/100 auf 400/800/300?
Wieso sollte der zu groß sein, meinst Du, das das was passieren könnte im Sinne von Defekten?
Könnte man da nicht eine Zwischentaktung mit "Thrtl" einfügen um den Sprung kleiner zu halten?
Weiß aber nicht genau ob das möglich ist?

Im Übrigen ist seid eben der Nbitor 5.1 raus Link
Mal sehen was der besser kann?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kommt hier denn keiner aus der nähe vom emsland ,der mir mein bios flashen kann?
 
Wie gesagt, das werde ich morgen nochmal testen.
Hatte ich heute nach knappen 6std. testen keinen Bock mehr drauf. :shake:

Das glaub ich - wenns schickt, dann schickts !


Du meinst den Taktsprung von 150/300/100 auf 400/800/300?
Wieso sollte der zu groß sein, meinst Du, das das was passieren könnte im Sinne von Defekten?
Könnte man da nicht eine Zwischentaktung mit "Thrtl" einfügen um den Sprung kleiner zu halten?
Weiß aber nicht genau ob das möglich ist?

Nein - ich mein den Taktsprung, wenn man von 3D, sprich "Extra" in 2D kommt. Standardmäßig taktet er dann für 15 Sekunden von 576/1242/999 MHz kurz auf 400/800/300 MHz herunter und geht dann erst in den Idle Takt über. Ich frag mich halt, ob es für die Karte nicht gut wäre, wenn man diesen Zwischenschritt gleich einsparen würde und für den Low - 3D Takt ebenfalls den finalen Idle Takt anvisiert.

Also in unserem Fall gleich auf 150/300/100 MHz. Dieser Taktsprung wäre nämlich schon ziemlich groß.

Hm - Throttle ist glaub ich dafür nicht zu gebrauchen, denn afaik wird diese Funktion genutzt, wenn die GPU Temperatur eine gefährliche Schwelle erreicht hat - müsste beim GT200(b) so um die 105 °C liegen. Dann taktet er die Karte zum Schutz herunter und senkt auch die Spannungen auf den geflashten Wert - wären bei mir dann 0.95V VCore.


Im Übrigen ist seid eben der Nbitor 5.1 raus Link
Mal sehen was der besser kann?

Das ist cool - hoffentlich sind dann meine Probs mit NiBiTor 5.0 bezüglich Lüftersteuerung beseitigt - ich kann bei mir bei "Automatic" und "Dynamic Settings" nicht unterschiedliche Werte einstellen - wenn ich das versuche, werden alle Werte grau unterlegt und sind nicht mehr editierbar.

So lange, bis ich NiBiTor beende ! Danach wieder dasselbe.

Wenn ich zwischendurch etwa ein BIOS einer GTX 260 lad und die Werte dort editier und dann ein GTX 295 BIOS aufrufe, stehen meine Wunsch - Werte noch drin, aber wenn ich dann das BIOS speicher und wieder öffne ist dort ALLES LEER.

Es gibt also Darstellungsfehler bei der Lüftersteuerung mir mit der Version 5.0 und der Kombination Vista x64 SP2.

Leider scheint es noch keine offizielle Changelog zu geben.

E: Mist, hab immer noch denselben Darstellungsfehler bei der Fanspeed IC wie vorher :shake: - gut, ich bin zum Glück mit den default Settings der Karte zufrieden, nicht laut und auch nicht zu heiß unter Last, hätte aber trotzdem, auch wenn nur zum Testen, ein bisschen herum gespielt.

Bei Bedarf gehts ja auch noch über RivaTuner - ist also für mich nicht so schlimm.

E2: Desweiteren krieg ich immer noch eine Fehlermeldung, wenn ich "Read BIOS -> Check the device" auswähl, aber dank GPU-Z oder NVFlash brauch ich die Funktion nicht unbedingt - praktisch wäre es aber trotzdem !


Mal sehen, vielleicht kontaktier ich die Jungs bei mkv.tech mal deswegen !



kommt hier denn keiner aus der nähe vom emsland ,der mir mein bios flashen kann?

Also ich leider nicht - aber ich könnte dir ein neues BIOS über NiBiTor erstellen - du müsstest dann nur einen USB Boot - Stick erstellen und dich einlesen, was du in NVFlash machen musst, damit das BIOS drauf gespielt wird. Ist wirklich nicht schwer, ich hatte bis vor kurzem auch 0 (!) Plan davon, hab mir 1 Guide angeguckt und dann geflasht - wenn du ein bisschen Erfahrung gesammelt hast, gehts quasi fast selbst von der Hand - hier hab ich es ja erwähnt, wie man ein bereits geändertes BIOS auf die Karte flasht:

NV BIOS - Flash Paket:


http://rapidshare.com/files/255425772/NV_BIOS_Flash_-_Paket.rar


enthält:

GPU-Z (zum Auslesen von Taktraten, Spannungen und Temperaturen)
NiBiTor samt Guide (damit wird das BIOS unter Win verändert)
NVFlash (zum Eigentlichen Flashen des neuen BIOS unter DOS)
HP USB Disk Format Tool (um einen USB Stick bootready zu machen)



Ihr braucht hier im Pinzip nur das neue BIOS und einen USB Stick der bootready (etwa mit HP Tool ) ist und das Flash - Tool NVFlash.

Ist alles im Paket enthalten.



1. Macht vorher am besten ein Backup eures jetzigen BIOS per GPU-Z (Dateityp dann von .bin in .rom umschreiben) oder NiBiTor
(maximal 8 Buchstaben darf es lang sein - keine Sonderzeichen).

Das Backup kann man auch direkt über NVFlash im DOS machen - folgendes eintippen:

nvflash -b backup.rom

mit [Enter] bestätigen.


2. Wenn der Stick bootready gemacht wurde und die NVFlash Dateien sowie das neue BIOS auf dem Stick sind dann die Bootpriorität im BIOS umstellen.

3. Zum Flashen muss nun "nvflash_BIOS - Name.rom" eingetragen werden -

_ = Leerzeichen


dann mit Z bestätigen (englisches Layout im Prog)


4. Nach dem Flashen mit STRG + ALT + ENTF resetten.

5. Wenn alles nach Plan lief - Bootpriorität wieder umstellen.

Falls du im eben erwähnten Text was nicht verstanden hast, kannste gerne nachfragen. ;)
 
Zuletzt bearbeitet:
...Ich frag mich halt, ob es für die Karte nicht gut wäre, wenn man diesen Zwischenschritt gleich einsparen würde und für den Low - 3D Takt ebenfalls den finalen Idle Takt anvisiert.

Gute Frage, aber dafür bin ich was Graka´s angeht noch zu Grün hinter den Ohren. :d
Vllt. haben wir ja Glück, und jemand der schon was länger damit zu tub hat hilft uns etwas.

Hm - Throttle ist glaub ich dafür nicht zu gebrauchen, denn afaik wird diese Funktion genutzt, wenn die GPU Temperatur eine gefährliche Schwelle erreicht hat - müsste beim GT200(b) so um die 105 °C liegen. Dann taktet er die Karte zum Schutz herunter und senkt auch die Spannungen auf den geflashten Wert - wären bei mir dann 0.95V VCore.

Ahh ok, aber irgendwie ist bei "Thrtl" bei mir garnichts eingetragen, und die von Dir beschriebenen 0,95V kann ich auch nirgends finden. :confused:

...Es gibt also Darstellungsfehler bei der Lüftersteuerung mir mit der Version 5.0 und der Kombination Vista x64 SP2.

Das ist eigenartig.
Aber an 64bit sollte es nicht liegen, denn ich nutze Win 7 x64 und bei mir wird alles korrekt übernommen.
 
Ahh ok, aber irgendwie ist bei "Thrtl" bei mir garnichts eingetragen, und die von Dir beschriebenen 0,95V kann ich auch nirgends finden. :confused:


Das ist eigenartig.
Aber an 64bit sollte es nicht liegen, denn ich nutze Win 7 x64 und bei mir wird alles korrekt übernommen.


Zum Throtteln - bei "Exact Mode" wird da nichts eingetragen, nur bei "VID Mode" (sollte ja Voltage 2 sein).


Hm...dann ist es wohl irgendwas anderes, wenns es auch mit Win 7 x64 geht - aber ich glaube die älteste Version, die die GTX 295 unterstützt ist ide 4.9er, aber ich glaube nicht, dass es damit dann funktioniert und mit den neueren nicht - nun ja, ich hab trotzdem mal ein bisschen rumgespielt und hätte ein Setting, was ich testen würde - ist für mich aber wie schon erwähnt nicht schlimm, dass er bei mir in NiBiTor da nicht will.
 
Zum Throtteln - bei "Exact Mode" wird da nichts eingetragen, nur bei "VID Mode" (sollte ja Voltage 2 sein).

Meinst Du das? Da ist es bei mir aber Voltage 1. Scheint ja überall anders zu sein.
Aufzeichnen.PNG

nun ja, ich hab trotzdem mal ein bisschen rumgespielt und hätte ein Setting, was ich testen würde - ist für mich aber wie schon erwähnt nicht schlimm, dass er bei mir in NiBiTor da nicht will.

Kannst mir gerne die Settings durchgeben, und ich stell das für Dich ein.
 
Das wär natürlich nicht schön, wenn Zotac das GT200 PCB abgeändert hat und den Volterra Chip zur Kostenreduktion weggelassen haben sollte !

Ich habe bis jetzt angenommen, es wären noch Restbestände von den 1. Revision der GTX 260.

Puh...spontan wüsst ich nicht, wie man das per Software identifizieren kann - und den Kühler deswegen abbauen würde ich auch nicht.


Gut, es gäbe da eine Möglichkeit - flashen und gucken, ob niedrigere Spannungen über GPU-Z angezeigt werden.

Wie gesagt, wenn die Karte eine Backplate hat, die auch zur Kühlung des VRAMs an der Rückseite hat, dann sollte der Volterra auf jeden Fall verbaut sein - fehlt die Backplate und ist dort auch kein VRAM verbaut, dann haben sie das PCB wohl etwas in Richtung GT200b Design verändert.



Meinst Du das? Da ist es bei mir aber Voltage 1. Scheint ja überall anders zu sein.
Anhang anzeigen 99850

Nein, das ist die 2D Spannung - da habe ich ja etwas niedrigere Werte (da GT200b 55nm statt GT200 65nm wie bei dir - der halt halt wie gesagt schon standardmäßig in "Extra" nur ~ 1.04V (1.0375V um genau zu sein)).


Also die Taktunterschiede wären unter "VID Mode" im Detail:

GTX 260 65nm (GT200) <-> GTX 295 55nm (GT200b)

Voltage 1 - 2D: 0.9V <-> 0.85V
Voltage 2 - (Thrtl): 1.11V <-> 0.95V
Voltage 3 - ("Low"-) 3D: 1.12V <-> 1.0V
Voltage 4 - Extra: 1.15V <-> 1.01V



Kannst mir gerne die Settings durchgeben, und ich stell das für Dich ein.

Danke, das wäre echt nett - aber ich wollte halt einfach mal ein bisschen rumspielen und dann im Text darunter die Auswirkungen kennenlernen - das konnt ich ja mit Hilfe eines GTX 260 BIOS testweise tun.

Falls ich das doch mal auf meiner GTX 295 probieren möchte, komm ich gern auf dein Angebot zurück ! :)
 
Zuletzt bearbeitet:
Wär dann bei dir die 1.11V - ich hab dort halt 0.95V eingestellt.

Macht das denn Sinn da weniger einzustellen?

Falls ich das doch mal auf meiner GTX 295 probieren möchte, komm ich gern auf dein Angebot zurück !

Sag einfach bescheid. Hab momentan Urlaub, stecke zwar in Hochzeitsvorbereitungen, habe aber ansonsten viel Zeit und Langeweile.;)
 
Nun ja, im original BIOS steigen die Werte von 2D zu "Extra" auch kontinuierlich an und da ich unter Extra 1.01V erreichen wollte und bei 2D mit 0.85V angefangen hab, hab ich halt immer ein klein wenig dazu gegeben.

So ist es ja auch notwendig, wenn man den "Voltage Table Editor" einstellen und anschließend die neuen Hex - Werte über "Perf. Table Entries" bestätigen möchte.

Ich denke, dass das schon ok so ist.


Du kommst unter die Haube ? Na dann herzlichen Glückwunsch! :wink:
Oder ist es jemand Bekanntes - dann hät ich voreilig gratuliert. :fresse:
 
Zuletzt bearbeitet:
Nun ja, im original BIOS steigen die Werte von 2D zu "Extra" auch kontinuierlich an und da ich unter Extra 1.01V erreichen wollte und bei 2D mit 0.85V angefangen hab, hab ich halt immer ein klein wenig dazu gegeben.

Achso, ok. Muss mich echt mal intensiver damit auseinandersetzen.

Du kommst unter die Haube ? Na dann herzlichen Glückwunsch! :wink:
Oder ist es jemand Bekanntes - dann hät ich voreilig gratuliert. :fresse:

Vielen Dank!
Ne, passt schon. Bin dann wirklich ich, der sich in die Ehe stürzt. :coolblue:
Hab noch knapp 2 Wochen, dann wirds ernst.
 
Ach mann, das kann doch wohl nicht wahr sein. Hab mich gerade etwas schlau gelesen udn erwarte zu Hause ne 260GTS 65nm ohne Backplate und Speicher auf der Rückseite.
http://www.pcgameshardware.de/aid,6...oduktionskosten-der-GTX-260/Grafikkarte/News/

Das ärgert mich ja schon wieder. Ich will die Karte doch einfach nur leiser im idle machen. Aso teste ich das heute mal aus udn erwarte kene "alte" Karte. So gesehen wird die dann wohl auch zurückgehen. Schade drum.
 
Also der Table Editor hat anscheinend doch nur Auswirkungen was unter "VID Mode" angezeigt wird - nicht die eigentlichen Spannungen an sich, wie sie unter
Exact Mode definiert werden.

Hab die Aussage in einem Guide gefunden (glaub den werd ich mal mit dem neuen BIOS Pack inkl. NiBiTor 5.1 mit uppen (da ist das mit den Voltages etwas besser erklärt wie bei dem anderen):

Im Tableeditor kann man lediglich die "Anzeige" der hier in dem Fall 1.18V, 1,06V, 1,03V ändern !! Nicht aber die VCore selbst, wie sicher viele von euch schon festgestellt haben.



Ach mann, das kann doch wohl nicht wahr sein. Hab mich gerade etwas schlau gelesen udn erwarte zu Hause ne 260GTS 65nm ohne Backplate und Speicher auf der Rückseite.
http://www.pcgameshardware.de/aid,6...oduktionskosten-der-GTX-260/Grafikkarte/News/

Das ärgert mich ja schon wieder. Ich will die Karte doch einfach nur leiser im idle machen. Aso teste ich das heute mal aus udn erwarte kene "alte" Karte. So gesehen wird die dann wohl auch zurückgehen. Schade drum.


Diese Einsparmaßnahme betrifft laut Artikel aber nur PCB P654 (GTX 260 55nm), nicht das PCB P651 (GTX 260 65nm) ;) :

Wie die Kollegen von Expreview berichten, erfährt das P654-Design nun eine weitere Vereinfachung: das P897-Design.

Von daher würde ich an deiner Stelle die Karte doch mal auspacken und gucken, was Stand der Dinge ist und auch mal das ganze über NiBiTor probieren. Wenn GPU-Z nach dem Flashen keine Änderungen in VCore anzeigt, kannste immer noch das original BIOS zurückflashen und die Karte wieder einschicken.

Afaik wurde das alte PCB von den Herstellern selbst auch nicht verändert - wie dies heutzutage teilweise bei speziellen OC Versionen der 55nm Karten der Fall ist (etwa bei ASUS mit einem hochwertigen Fujitsu Kondensator und allgemein höherwertigeren Bauteilen für die Spannungsversorgung).
 
Zuletzt bearbeitet:
Nein - ich mein den Taktsprung, wenn man von 3D, sprich "Extra" in 2D kommt. Standardmäßig taktet er dann für 15 Sekunden von 576/1242/999 MHz kurz auf 400/800/300 MHz herunter und geht dann erst in den Idle Takt über. Ich frag mich halt, ob es für die Karte nicht gut wäre, wenn man diesen Zwischenschritt gleich einsparen würde und für den Low - 3D Takt ebenfalls den finalen Idle Takt anvisiert.

Also in unserem Fall gleich auf 150/300/100 MHz. Dieser Taktsprung wäre nämlich schon ziemlich groß.

Wollte nochmal kurz hier drauf eingehen.
Im Klartext meinst Du ja, das die Karte dann direkt von 576/1242/999 direkt auf 150/300/100 runtertaktet.
Allerdings wäre doch dieser Sprung noch viel größer als vorher.
Oder ich kann Dir gerade nicht ganz folgen? :wink:
 
Wollte nochmal kurz hier drauf eingehen.
Im Klartext meinst Du ja, das die Karte dann direkt von 576/1242/999 direkt auf 150/300/100 runtertaktet.
Allerdings wäre doch dieser Sprung noch viel größer als vorher.
Oder ich kann Dir gerade nicht ganz folgen? :wink:

Genau das meinte ich - ich glaub ich belass es bei den etwas niedrigeren Werten von 300/600/300 MHz -damit läuft auf jeden fall alles 1A.

Außerdem spart man da bei der kurzen Dauer sicherlich kaum was.
 
@sun-man Das ist ja echt blöd. :(

Ich habe jetzt auch nochmal getestet, ob ich die 3D Werte nicht wenigstens etwas senken kann.
Leider quitiert mir die Karte alles was nur ansatzweise unterhalb der Standardspannung liegt mit Rucklern und Laggs.

Naja, nicht soooo tragisch. Da ich eh nur im schnitt 1-1,5std am Tag spiele.
Das hole ich dann mit den 0,9V im 2D wieder raus.

Edit: Anscheinend läuft die Karte doch mit 1,03V. Habe glaub ich den Übeltäter gefunden.
Die Ruckler treten auf wenn ich GPU-Z im Hintergrund laufen lasse.
 
Zuletzt bearbeitet:
Hi,

hab das vorhin von Handy geschrieben. Hab erstmal 20 Minuten die Augen zu gemacht da Frühdienst ;)

Also, die karte hat weder Backplate noch hat sie Speicher hinten....leider.
Dafür ist die Gegensatz zur 250GTS im idle wirklich verflucht leise ! und braucht gegen meine Gainward auch ~10W im Idle weniger (Gesamtsystem mit GTS ~166W, mit GTX ~154W, mit 9600GT ~140W).
So sieht das ganze unter XP im Moment aus:


Na was ein Mist. Welchen Vorteil zu den 55nm Karten hab ich denn nun nochß Bleibt ja wohl kaum was übrig außer das die Karte evtl nicht fiept.
 
Das ist natürlich wirklich sehr ägerlich.

Ist halt fraglich, ob die Synergy dann noch höherwertige Bauteile zur Spannungsversorgung im Vergleich zur 55nm Revision aufweist und keine Probleme mit Spulenfiepen hat, wenn sie vom Aufbau her schon ein Zwitter aus 65nm und 55nm Modell ist (wie ich eben gelesen hab - Kühler der 55nm mit Speicherausführung an der Vorderseite wie bei der 55er, PCB mit der Außenform der 65er und zumindest auch kein Volterra SpaWa mehr).

Ich persöhnlich würde die Karte wegen, um es mal hart zu sagen " ****** am Kunden" umtauschen - man hat sich halt darauf verlassen, dass Synergy Edition = vollwertige GTX 260 (192) 65nm - gegen eine GTX 260 (216) 55nm tauschen - ich meinte ja, die andere, die du erst evtl. auch im Sinn hattest kostet 3€ mehr wie die Synergy - diese würde dann auch um die 40W weniger verbrauchen und gleichzeitig ein Quäntchen schneller sein.

Aber wenn du zufrieden mit der Karte bist...musst du entscheiden.


E: lol - er zensiert Betru g ! :fresse:


Die GPU-Z Werte sind aber kurz nach dem Zocken oder?

Denn im Idle sollte er ja normal mit 300/600/100 MHz laufen - 400/800/300 MHz (Low - 3D) ist ja nur der kurze Zwischenschritt, wenn das Spiel oder auch das Video geschlossen wurde.
 
Zuletzt bearbeitet:
Naja, ich hab gerade anno angeworfen und der Lüfter ging auf Drehzal. Uncool irgendwie. Lüfter auf 50% gefixt (ist leise) und ? 103°C laut RT. Geht mir das vielleicht auf die....nüsse :d. Ich glaub ich schicke die auch wieder zurück und gehe dann erstmal 2,5 Wochen in den wohl verdienten Urlaub. Danach seh ich weiter. Fest steht aber das mir keine ATI in den Rechner kommt.
 
103 °C - Furmark Stresstest war es aber nicht oder ??? Das ist schon heftig.

Jo mach das - dann kannste dich kurz von dem K(r)ampf mit der HW erholen. :d

Also ich würde stattdessen wie oben beschrieben erwähnt entweder die GTX 260 (216) 55nm zum fast identischen Preis nehmen, oder,
wenn noch ein paar € mehr drinne sind eine GTX 275, die quasi durchgängig schneller als die alte GTX 280 ist - höchstens vll. in besonders
VRAM lastigen Anwendungen wie GTA IV nicht.

Ich denke mal es wird schwer, eine gute gebrauchte GTX 260 (216) 65nm zum anständigen Preis aufzutreiben (ich würde eine neue natürlich auf jeden Fall bevorzugen).


E:

Skandaloes schrieb:
Edit: Anscheinend läuft die Karte doch mit 1,03V. Habe glaub ich den Übeltäter gefunden.
Die Ruckler treten auf wenn ich GPU-Z im Hintergrund laufen lasse.

Dacht ich mir, dass die Karte in 3D normal auch 1.06V und weniger schaffen sollte.

Das erinnert mich daran, als ich mal Oblivion gezockt habe (hatte Fraps laufen) und das Spiel dann auf einmal fürchterlich geruckelt hatte - habe wohl beim Quickload eine andere F Taste (glaub F12 war es) gestreift und mehrere zig GB große Ingame - Movies mitgedreht ! :fresse:
 
Zuletzt bearbeitet:
Ich zitiere mich mal selbst.

Anscheinend läuft die Karte doch mit 1,03V. Habe glaub ich den Übeltäter gefunden.
Die Ruckler treten auf wenn ich GPU-Z im Hintergrund laufen lasse.

Kann das evtl. sein? Wenn GPu-Z im Hintergrund weiter misst und ein Log erstellt?
 
Ist schon wahrscheinlich, dass es am Log + Refreshing liegt - frisst zwar nicht so viele Resourcen wie Ingame Movies zu erstellen, aber ich denke, dass der Unterschied auch spürbar ist.

Kam das Ruckeln nur in L4D zum Tragen oder auch in anderen Spielen?

Ich teste das bei mir auch mal - Overlord II nutzt ja auch nur 1 GPU, mal sehen.

E: Also in Overlord II war höchstens die Darstellung der Ladesequensanimation zum Teil langsamer - im Spiel selbst hab ich nichts gemerkt.
 
Zuletzt bearbeitet:
Habe bisher nur mit L4D getestet, hab im Moment nichts anderes auf der Platte.

Ist halt ein ganz komisches ruckeln, nicht permanent oder in regelmäßigen Abständen.
Ich laufe halt, und irgendwann hängt das Bild dann für ne Sekunde, und wenn es weiter geht bin ich schon nen Stück weiter.
Ist schwer zu erklären.

Wäre echt nett wenn Du das mal testen könntest.
 


ich hab mit dem evga gvt tool die niedrigste spannung ausgelotet unter last. alle v schritte die es in dem tool gibt kannst du auch per bios flashen(gibt noch mehr im bios) musst aber in dem voltage ic und voltage table editor ein wenig was umbauen.

sieht dann so aus idle


last


btw kennt jemand die niedrigsten idle taktraten die ich einstellen kann ?

meine taktraten sehen folgendermaßen aus
 
Zuletzt bearbeitet:
@uh-insane ist das jetzt auf mich bezogen, oder allgemein?
Ich denke das der Unterschied von 0,825V zu 0,9V eher maginal ist.
Hatte zwar auch schon überlegt, hatte aber keine Lust mehr zu testen.

Zu den restlichen Spannungen, wie gesagt quitiert mir die Karte alles unterhalb von der Standardspannung mit rucklern/laggs.
Habe von 1,03V über 1,06 bis hin zu 1,10V schon alles durch probiert.
Kann natürlich sein, dass der Fehler wo anders liegt. Wobei ich es mir nicht vorstellen kann, da die ruckler sonst auch mit Standardspannung auftreten sollten/müssten.

Ich habe ja auch keine exotische ausführung der 260, ist im Referenzdesign von PNY, allerdings nicht wie Deine XLR8.
Die Version die ich habe ist bei PNY allerdings nicht gelistet.

Edit: Ich sehe gerade, das Du auch etwas bei "Thrtl" eingestellt hast, kannst Du dazu etwas näheres sagen?
 
Zuletzt bearbeitet:
Wäre echt nett wenn Du das mal testen könntest.

Hm - das klingt wirklich seltsam.

L4D hab ich leider nicht, das einzige halbwegs neue Spiel mit Source Engine, was ich habe, ist HL² Episode 2 - allerdings brauch ich das gar nicht zu testen.Die allgemeine Performance ist dort ja locker 40% höher als bei Left 4 Dead.

Ich kann aber erstmal ein paar andere Sachen mit aktivem GPU-Z Log ohne SLI testen, wie Sacred 2, Call of Juarez , F.E.A.R. 2, Cryostatis oder Dawn of War 2.


@ uh-insane:

Diese Taktraten laufen ohne Probleme im Idle:

Core: 150 / Shader: 300 / Memory: 100 MHz.

Der niedrigste mir bekannte Speichertakt, der beim GT200 erreicht wurde liegt bei 80 MHz - aber ich denke, dass das alles schon sehr grenzwertig ist.

Die 3D Taktraten (Low 3D - Zwischenschritt von der Runtertaktung von 3D zu 2D) hab ich bei mir auch ein wenig reduziert - auf 300 / 600 / 300 MHz.

Wenn 0.825V VCore unter 2D stabil laufen sollten, würde das sicherlich nochmal einige Watt gegenüber etwa 0.9V ausmachen.
 
Zuletzt bearbeitet:
Die thrtl einstellung ist standart war schon so vorgeben beim originalbios.

bei 2d und 3d konnte ich jeweils 0,825 v einstellen
die extra voltage lies sich recht einfach ausloten mit l4d oder crysis oder anno1404

die 0,825 laufen ohne probleme im 2d und low 3d modus.
 
Eigenartig, bei mir war unter "thrtl" nichts eingegeben, und ich hab ja auch ne PNY. Nicht das meine Probleme etwa daran liegen?

Da Du L4D spielst, kannst Du mal bitte schauen, ob Du ruckler/laggs i bekommst wenn Du GPU-Z im Hintergrund mit loggen lässt.

Das kann doch nicht sein, dass meine Karte keinerlei Spannungssenkung zulässt.:wall:
 
150 / 300 / 100 läuft problemlos danke gerade geflashed l4d test ich gleich mal log 2 file soll dabei sicher angekreuzt sein wenn du was von loggen schreibst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh