GTX260 OC + Benchmark Thread + Liste (Bitte bei Fragen die erste Seite lesen) Part 1

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tolles Ergebnis!
Bei der Karte hattest du ja ein riesen Glück.
Was für eine Spannung liegt an?
Für den Takt bleibt die ja richtig kühl (Chiller?).

Hast du schon mit mehr Spannung versucht?
 
Es liegen 1,18v an.
Mehr kann man den Karten ja ohne weiteres nicht geben.
Es gibt zwar eine Möglichkeit, bis zu 1,35v zu geben, aber da bräuchte ich mal euer Hilfe !
http://www.xtremesystems.org/forums/showpost.php?p=3600426&postcount=103
Meine Frage ist jetzt, wo genau ich die CLI Commands eingeben muss.
Bei CMD.exe oder wo ?
Oder gibt es irgendwo im rivatuner ne Kommandozeile ?

Die Karte wird mit einer Wasserkühlung betrieben (Mora2+360mm Radiator+Laing DCC Pro)
Es ist aber der in meinen Augen beste Wakühler verbaut :
http://www.aquatuning.de/product_info.php/info/p4494_Koolance-NVidia-280-260GTX-Komplettk-hler.html
 
Die CLI-Commands must du bei cmd.exe eingeben. Aber vorher musst du es in den Ordner von Riva Tuner navigieren unter Vista 64 ist es ganzschön schwer in den Programme(x86) Ordner zu navigieren. Meine einzige Lösung war:
Code:
cd C:\Program Files (x86)\

Es kann nützlich sein sich ein paar Batch-dateien zu erstellen.
 
Also bei mir ist Rivatuner in D:\Program Files (x86)\RivaTuner v2.22 installiert.
Wie kann ich cmd.exe denn jetzt da hin navigieren ?

edit :
Ich installiere den Rivatuner jetzt einfach mal in C:\....
 
Zuletzt bearbeitet:
Ich würde es mit
Code:
cd D:\Program Files (x86)\RivaTuner v2.22\
machen.

Ne Idee für ne Batch wäre:
Code:
cd D:\Program Files (x86)\RivaTuner v2.22\
@echo 1,xxxVolt
RivaTuner.exe /wi3,70,[Registernummer],[Hexadezimale VID]
@echo FERTIG!
pause
 
Zuletzt bearbeitet:
Also der Code oben funktioniert leider nicht, da bleibt er trotzdem immer bei C:\Users\xxxxx
Wenn ich diesen hier nehme :
cd C:\Program Files (x86)\

funktioniert es, aber wenn Rivatuner in C:\ installiert ist, gibt es Probleme mit der digitalen Treibersignierung...

edit :
habs jetzt mit nem Youtube - Tutorial von irgend einem Noob-Kiddie geschafft !
 
Zuletzt bearbeitet:
Hab die Lösung
Geh mit den Explorer nach
C:\Windows\system32\
und kopier die cmd.exe nach D:\Program Files (x86), dann must du sie starten und nur noch
Code:
cd RivaTuner v2.22
eingeben und schon bist du im RT-Ordner und kannst deine CPI-Commands eingeben.

Edit: Mist zu lahm!

Was bringt die Spannungserhöhung?

Edit2: Bringen 3Mhz Ram-Takt mehr irgendeine spührbare Mehrleistung?
 
Zuletzt bearbeitet:
Finde der Erfolg der Speichertakt erhöhung hält sich zumindest bei spielen in Grenzen.. hatte aber auch mal benchmarks results gepostet von 1000 1200 und 1350 mhz wenn ich mich recht entsinne..
 
Also weiter als 849/1700 komme ich auch mit mehr Spannung nicht...
Selbst bei 1,3v packe ich die 864/1728 nicht.
Mehr will ich der Karte auch nicht geben, ich will ja nicht die WR-Karte schrotten ;)
Danke trotzdem für die Hilfe "Faild" !

mfg
 
Liegt die Spannung denn per CLI-Commands auch tatsächlich an, hast du das mal nachgemessen?
 
Laut jemandem bei 3D-Center liegen die mit einem vDrop von 0,01-0,02 Volt an. klick

Hab ich aber schon auf der letzten Seite geschrieben.
 
Hi,
hier mein Ergebnis:

ARIELLE_MERMAID/Zotac GTX 260 Amp²/756/1566/1269/1,06/-/44/38,5/Watercool Heatkiller GPU-X²


Viele Grüße
 
Zuletzt bearbeitet:
Hab mal wieder mit der vGPU gespielt. vGPU:1,25Volt und Core:432 Shader:1620 und Mem:756 um die Spawas zu entlasten. Also ATi-Tool gestartet und getestet nach ~1,5Min Artefakte und unten der Hinweis.
ATi Tool nochmal gestartet und siehe da nur alle ~30Sek ein Haufen Pixelfehler und KEINE Nachricht unten. Hab sogar ein Screen wo das Intabiele stabiel aussieht. Ist ATi-Tool also noch zuverlässig?
Bei interesse mach ich 2 Vergleichsbilder mit und "ohne" Pixelfehler.

Edit: Geht nicht mehr da überhaupt keine Pixelfehler mehr kommen! Darf ich das Ergebnis jetzt posten?
Edit 2: Erster nach 7 Minuten! Ich glaub ich start ATi-Tool noch ein paar mal neu und dann dauer es stunden bis Pixelfehler kommen :shot:

@ARIELLE_MERMAID
Nicht schlecht!
Versuch nochmal bei unlinked Shader den Core auf 783 Mhz zu "prügeln" was wohl gehen sollte da beim GT200 (fast?) immer der Shader limitiert. Die vGPU findest du herraus wenn du bei GPU-Z unter last bei den Sensoren nach unten scrollst.
 
Zuletzt bearbeitet:
Und was bringt es dir dann, wenn du Core und Speicher so weit runterdrehst, damit der Shader (dann noch nicht mal stabil) läuft?
 
Wollte blos testen ob die Shader 1620 Mhz hinkriegen, denn wenn ich 783/1620/1152 einstelle geht sofort der Bildschirm in den Standby. Eigentlich sollte das auch auf das merkwürdige Verhalten von ATi-Tool hinweisen.

Da Spannung hoch treiben nichts bringt (zumindest in normalen mengen) versuche ich mich im Spanung runet setzten.
Kann man eigentlich die Mem-Spannung auch über software ändern?

Wie wäre es mit einer Liste im ersten Post wer einen bestimmten Takt mit der niedrigsten Spannung schafft?
 
Zuletzt bearbeitet:
Also ich sag es mal so :
Neue Karte, neues Glück ! :d
Habe jetzt eine EVGA-Karte und habe damit eben den Vantage Weltrekord für die GTX 260er gebrochen !

KabaFit Erdbeer | 1280x1024 | - | EVGA GTX260 192 | 849MHz | 1700MHz | 1306MHz | Q6600 | 3806Mhz | 8192MB Mushkin X2 PC2-8000 | Vista | DX10 | 181.22 | 11846 | Screen

Achja und hier könnt ihr sehen, dass es wirklich der GTX260 OC-Weltrekord ist :



Wäre schön, wenn Vantage auch auf der ersten Seite eingetragen wird !

mfg

Punktetechnisch aber nicht so der Kracher hatte bisschen was über 14k mit 810 Core.
LINK

aber nice ergebniss:-)
 
Zuletzt bearbeitet:
mal ne frage:

n kumpel will sich dich Gainward BLISS GeForce GTX 260 Golden Sample kaufen.
jetz hat die ja 55nm.

gibts für das teil einen softwarevoltmod? hab gelesen, dass das mit dem rivatuner klappen sollte?!
 
Nein das geht nicht bei den 55nm Karten, da der Volterra Chip fehlt..
 
Ey einer von euch hatte doch Wakü auf seiner Karte,ich hatte Grade meinen Kühler ab,nur den Lüfter Stecker hab ich nich ab bekommt,der wa sowas von BOMBEM fest das gibts nich,wollte aber auch nichts kaputt machen.

Tipps dazu?
 
Ey einer von euch hatte doch Wakü auf seiner Karte,ich hatte Grade meinen Kühler ab,nur den Lüfter Stecker hab ich nich ab bekommt,der wa sowas von BOMBEM fest das gibts nich,wollte aber auch nichts kaputt machen.

Tipps dazu?

ich hab einen ganz kleinen schlitzschraubenzieher zu hilfe genommen, damit ging es dann gut
 
Ziehen^^ Wenn de Pech hast kommt der weibliche Stecker mit, musste dann auseinanderfrickeln (Zange) und wieder auf die 3 Pins stecken...
 
Gibts da keinen trick für?

Ist echt sowas von bomfest ich dachte erst ich bin zu doof alter^^

@Roach ah danke,guter Tipp ich hoffe das hilft dann^^

Fekl seine Mehtode macht mir schiss-......
 
Zuletzt bearbeitet:
Hier mal die Taktraten meiner Zotac GTX260² 55nm:

dr-ami/Zotac GTX260² (55nm)/776/1568/1147/1,06/89/59/49/Stock

 
Leider erkennt man nicht ob real 756Mhz oder 783Mhz anliegen. Benutz mal RT un die realen taktraten zu zeigen. Spannung wäre auch ganz interessant, kann man ja leider nicht mehr bei den 55nm auslesen. Ist aber ein richtiger Fön. Benutzt du das auch so permanent?
 
Faild, ich bin der meinung das das Nvidia Systemcontrol ding den wahren Takt der anliegt anzeigt. Kanste dir ja mal anschauen. Die Rubrik unter ders zu finden ist is schnell zu finden, sollteste dich schwer tuen kann ich auch nochmal nachschauen..
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh