***GeForce 7950GT/7900GS/GTO OC Thread***










Erst das BIOS eurer Grafikkarte in Nibitor laden, dann auf "Timings" klicken und "Autoselect Timings". Bei der 7900GS dürfte es Timingset 7 sein.

Anschließend unter "Detailed Timings" einige Werte abändern und "Ok" klicken. Es ändern sich nun einige Hexcodes im Hauptfenster. Unter "Test Timings" einmal auf "Get Timings" klicken und die Werte mit denen aus dem Hauptfenster ersetzen (copy & paste ) und "Set Timings" klicken.

Nun hat er die neuen Timings übernommen und ihr müsst die Karte testen. 3D Murks, Games etc.

:angel:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für die, die es interessiert hab mit der 7900GS und den Singlecore 4925 Punkte im 3d Mark 2006.
Sm 2.0 2292
Sm 3.0 2320
CPU 1079

So denke die Graka braucht nen neuen Lüfter, komme mit dem Stock Kühlerchen während dem 3DMark auf 90 Grad =S Naja mal schaun was für ne Konstruktion die drauf muss.

Gruss an alle.

P.S. Wieviel punkte im 3dMark 06 hast du (GTO@GTX), namen ist mir entfallen! =)
 
Die 10.000 Punkte sind gefallen :teufel:


X2 @ 2700 MHZ 1,25V
2 x 512MB DDR PC3200 @ 221 MHZ
7900GS @ 648 / 747 (14xx irgendwas)

 
Sagt mal Jungs !

Hab zwar keine GTO aber ne GTX .... Womit lasst ihr die maximalen Taktraten eurer Karten rausfinden ? Ist das nicht im Treiber integriert bei nVIDIA wie Overdrive bei ATi ? Wenn ja , mit welchem Treiber ist das möglich ? Hab derzeit den 91.33 drauf und da finde ich so eine Option nicht ! Brauche dringend Hilfe will jetzt formatieren !!!
 
kann mal einer ein pic vom original Kühler der Palit 7900gs machen.
Und gehen die Palits wircklich besser als die anderen?

mfG
 
Sagt mal Jungs !

Hab zwar keine GTO aber ne GTX .... Womit lasst ihr die maximalen Taktraten eurer Karten rausfinden ? Ist das nicht im Treiber integriert bei nVIDIA wie Overdrive bei ATi ? Wenn ja , mit welchem Treiber ist das möglich ? Hab derzeit den 91.33 drauf und da finde ich so eine Option nicht ! Brauche dringend Hilfe will jetzt formatieren !!!

hört sich an, als ob Du coolbits nicht "installiert" hast:

http://www.hardwareluxx.de/download.php?det=225
 
@KGB44

Ist 648 Core das Maximum was du inc. Voltmod stable hinbekommst?

Und wenn ja woran liegt das?
 
1) Ja, das ist dass Limit

2) Wenn ich es wüsste würde ich es ändern

3) Hab ich jetzt auf 560 OHM gemalt und 675 MHZ GPU-Takt :bigok:
 
Kannst du messen wie viel V du der GPU bei 560Ohm gibst? Vielleicht musste ja einfach nur mehr Saft geben ;p
 
Achso ja ... stimmt =)

600 OHM = 1,37V
580 OHM = 1,40V
560 OHM = 1,43V
550 OHM = 1,45V
 
ne GTX hat ja 1,4V default vgpu oder? Dann sollte bei entsprechender Kühlung doch bis zu 1,6V oda so drinn sein? ^^
 
Richtig!

1,50V oder 1,55V sollten sogar mit Luft machbar sein. :eek:


Edit:

VMEM Mod ist FAST ausgearbeitet:



An dieser Stelle muss ein Widerstand mit x kOHM gegen Ground gelegt werden. Und wir brauchen noch den Messpunkt für die Spannung des Speichers...
 
Zuletzt bearbeitet:
hrhr... :-)

Ich bekomm meine letzten sachen Wohl erst nächste Woche...passt eigentlich nen GeForce4 Kühler (Twinplex Wakü) auf die Karte?

Wollte GPU mit wasser und RAMs mit großen Kühlsteinen + eventuell Lüfter kühlen!
 
stimmt es das sich ne gto mit gto bios besser übertakten lässt als mit gtx bios?
 
kann ich nicht sagen, nur sieht GTX schöner aus:bigok:
Habe jetzt mal meiner GTO mit Powerstrip oced, und habe nun bei 1,4V standartspannung sehr schöne 735Mhz erreicht, mit GTX-bios.
Was macht die GPU nur bei 1,5V:stupid:

Was ist wenn ich die 3,3V von der Karte abknappse und dort nen Widerstand dazwischen löte, so das dann 1,5V herauß kommen?
KGB44, hast du ne ahnung wie groß der Widerstand sein muß?
 
Richtig!

1,50V oder 1,55V sollten sogar mit Luft machbar sein. :eek:


Edit:

VMEM Mod ist ausgearbeitet:



Vielleicht macht es ja ein Palit/Xpertvision's Besitzer noch heute. Ich hab nur keine Lust jetzt wieder die Wakü abzulassen...

Leute, der VMem Mod ist keinesfalls ausgearbeitet!!! Das steht in den Sternen obs wirklich klappt. Siehe unseren Entwicklungsthread @ Vr-Systems :)

mfg aLVaMaN
 
:hmm: Wie bitte? Ich versteh gerade nur Bahnhof...
<br>
Hinzugefügter Post:<br>
Leute, der VMem Mod ist keinesfalls ausgearbeitet!!! Das steht in den Sternen obs wirklich klappt. Siehe unseren Entwicklungsthread @ Vr-Systems :)

mfg aLVaMaN


Es klappt :xmas: auch hier wieder ein dank an VR-Systems.org bzw. SHAMINO!
 
Zuletzt bearbeitet:
:hmm: Wie bitte? Ich versteh gerade nur Bahnhof...
<br>
Hinzugefügter Post:<br>



Es klappt :xmas: auch hier wieder ein dank an VR-Systems.org bzw. SHAMINO!
Wenn du den Messpunkt für VMem gefunden hast sag Bescheid. Ohne den geht doch gar nix, da du so den variablen Widerstand nicht entsprechend anpassen kannst. Willst du blind einen VMod machen?!
ich lege keinen Wert darauf wieder als erster Messergebnisse zu posten. Also wenn du ihn gefunden hast nur her damit.
 
Nein Nein, ich hab ihn noch nicht gefunden - aber wie ich Shamino kenne (von früheren Mods) wird das schon die richtige Stelle sein. Jetzt ist nur noch die Frage bei wieviel kOHM wieviel Volt am Speicher anliegen.

Aber ich denke da wird sich noch eiiiiniges tun. Der Infineon RAM hat deutliche Reserven. :teufel:
 
Wieso macht ihr euch das Leben so schwer?
Die Vcore kann man auch bequem mit NiBiTor ändern und dann einfach flashen.
 
kann man...bewirkt aber nix ;p

Und nochma meine Frage: passt eigentlich nen GeForce4 Kühler (Twinplex Wakü) auf die Karte?

Wollte GPU mit wasser und RAMs mit großen Kühlsteinen + eventuell Lüfter kühlen!
 
Dann flash du mal deine 1,35V die Nibitor so sagt :eek:

Anschließend versuch mal bitte weiter zu übertakten :teufel::hmm:





PS.: ...Es wirkt nicht. Die GS'es sind geschützt ... gegen Overvoltage :wall:
 
Und beim G71 im falle der GTO/GTX ist bei 1,4V schluss, der rest muß Hardwareseitig geändert werden, wie weiß blos keiner .
 
PS.: ...Es wirkt nicht. Die GS'es sind geschützt ... gegen Overvoltage :wall:

Um das Phänomen mal richtig zu beziffern: Die meisten neuen Karten werden durch Spannungswandler, etc. einfach mit bestimmten Spannungen gebaut. Die Software hat darauf keinen Einfluss - Die GPUcore wird einfach nur zu Informationszwecken ausgelesen - ist aber nicht änderbar.

"Overvoltage-Protection" klingt zwar toll - existiert so aber nicht ;)
 
Naja, bei den GTX'es kann man per BIOS schon die Spannung runterdrehen. Aber hoch gehts nicht.
 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh