GTX260 OC + Benchmark Thread + Liste (Bitte bei Fragen die erste Seite lesen) Part 1

Status
Für weitere Antworten geschlossen.
so habe mich auch mal an das ocen rangewagt und musste gleich wieder ein wirklich sehr komisches problem feststellen ..

und zwar habe ich angefangen mit dem riva tuner +ati tool z übertakten , indem ich bei RT den shadertakt und core takt erhöht habe. habe dann versucht mit dem atitool den artifacts scan zu machen, was auch 3 minuten lang gut ging , ABER auf einmal fängt mein monitor in unregelmäßigen zeitabständen an so komische kurze laute von sich zu geben , vergleichbar mit einem sehr kurzen rauschen oder sowas.

ist immer nur ein ganz kleiner "schhhhhhp" ton...
der artifact scan geht jedoch ohne fehlermeldungen oder sowas weiter.

hat jemand schon mal den gleichen mist gehabt?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@chrisch:; wa smacht diene mit 1,06V? Meine macht mit 1,12V genau deine taktung unter luft mit. aber dein speicher gehtnicht weiter hoch oder?
 
Das Problem, was ich sehe ist, das wenn ich einen falschen Wert eingebe, und die Karte schon bein starten abstürzt, ich das Ding aus dem Fenster werfen kann. Mir ist ähnliches mit MemSet und Vista passiert, nur das ich Vista im abgesicherten Modus starten konnte.

Sollte mit ner Startdiskette mit Batchdatei wieder fit zu machen sein. Also das der automatisch nach dem booten das Bios flashed. Werde aber selber da nichts in der Richtung unternehmen, bringt mir einfach nicht genug.

@Chrisch: 38° ist ja echt der Hammer. Meine 65nm wird schon bei weniger Takt deutlich heisser. Werd wohl auch mal schauen wie weit ich mit meiner komme...
 
bei den Atis hat das docj einen kleinen sauberen Geschwindigkeitsschub gebracht. Hab gestern mal ein bischen rumgegoogelt. Werds aber auch sein lassen
 
so habe mich auch mal an das ocen rangewagt und musste gleich wieder ein wirklich sehr komisches problem feststellen ..

und zwar habe ich angefangen mit dem riva tuner +ati tool z übertakten , indem ich bei RT den shadertakt und core takt erhöht habe. habe dann versucht mit dem atitool den artifacts scan zu machen, was auch 3 minuten lang gut ging , ABER auf einmal fängt mein monitor in unregelmäßigen zeitabständen an so komische kurze laute von sich zu geben , vergleichbar mit einem sehr kurzen rauschen oder sowas.

ist immer nur ein ganz kleiner "schhhhhhp" ton...
der artifact scan geht jedoch ohne fehlermeldungen oder sowas weiter.

hat jemand schon mal den gleichen mist gehabt?


kann mir keiner helfen? es kommt defintiv vom monitor, welcher auch boxen hat, jedoch sind diese nicht angeschlossen, trotzdem hört es sich so an als ob da nen ton rauskommen würde...

wenn ich den moni ausmache beim artifact scan, sind die geräusche auch verschwunden...
 
Guten Abend!

Meine alten 3D Mark 06 Werte wurden leider noch nicht übernommen? :confused:

aquaduct | 1280 * 1024 | 0x | Gainward GTX 260 | 756 | 1512 | 1224 | Q6600 | 3816 | 8GB | Vista X64 SP1 | DX 9 | 180.84 | 18144 | screen
Link zum Beitrag ! ...Klick...


Hier nun meine Ergänzung zu 3D Mark Vantage...



12719 Punkte :asthanos: - Systemwerte siehe oben

mfg
aquaduct

Sorry, hab Dich anscheinend vergessen...

@Chrisch:

Du bist nun auch drin :wink:
 
Hallo liebe Community, bzw alle GTX 260 Liebhaber =)

Ich habe mich ebenfalls an Übertakten gewagt und habe meine INNO 3D GTX 260² OC
(werkseitig auf 620/1050/1242) auf 740/1272/1481 stable laufen.

1 Std Crysis macht bei 100% 52 Grad
1 Std CoD 5 50 Grad
3d Mark 06 15334 P

Sobald ich jedoch den Shader auf 1512 anhebe, kann ich ein paar min auf dem Desktop und in Games interagieren, dann friert jedoch das Bild ein ( Keine Grafikfehler).

In dem Min zeigt ATI Tool keine Artefakte an.

Frage 1: Bringt es was, den Shader so zu lassen und den Core und Mem anzuheben?
Frage 2: Würde es was bringen, die Spannung von 1,06 auf 1,12 mit Nibitor anzuheben?

(Natürlich alles erstmal auf rein theoretischer Ebene :d )


MfG Thermikus


EDIT: Sig wird noch nicht angezeigt:

SYS:
Asus P5K auf P35-Basis
2Gb 800mhz
E5200@3,51
XP Home
 
Zuletzt bearbeitet:
@ap - Vielen Dank fürs Eintragen!

@ Thermikus - Ob deine Karte die 1,12 Volt anbietet, kannst du ja ersteinmal mit dem Nibitor auslesen und prüfen, ob du überhaupt die Spannung erhöhen kannst.
Zu den Freezes kann ich nicht viel sagen, wenn dann hatte ich bei zu hohem OC bei Furmark immer einen Blackscreen!

mfg
aquaduct
 
@ Thermikus

Takte vielleicht mal den Speicher runter.
Friert das Bild auch im idle?
 
Hallo liebe Community, bzw alle GTX 260 Liebhaber =)

Ich habe mich ebenfalls an Übertakten gewagt und habe meine INNO 3D GTX 260² OC
(werkseitig auf 620/1050/1242) auf 740/1272/1481 stable laufen.

1 Std Crysis macht bei 100% 52 Grad
1 Std CoD 5 50 Grad
3d Mark 06 15334 P

Sobald ich jedoch den Shader auf 1512 anhebe, kann ich ein paar min auf dem Desktop und in Games interagieren, dann friert jedoch das Bild ein ( Keine Grafikfehler).

In dem Min zeigt ATI Tool keine Artefakte an.

Frage 1: Bringt es was, den Shader so zu lassen und den Core und Mem anzuheben?
Frage 2: Würde es was bringen, die Spannung von 1,06 auf 1,12 mit Nibitor anzuheben?

(Natürlich alles erstmal auf rein theoretischer Ebene :d )


MfG Thermikus


EDIT: Sig wird noch nicht angezeigt:

SYS:
Asus P5K auf P35-Basis
2Gb 800mhz
E5200@3,51
XP Home

Ausprobieren kannst du es mit den 1,12V, aber ob es Sinn macht für 31 MHz mehr Shadertakt die Spannung gleich um 0,06V zu erhöhen sei mal dahin gestellt. Von der Leistung her wirst du kein Unterschied spüren, die Karte wird aber heißer, lauter und verbraucht mehr Strom.
 
Core anheben ohne Shader bringt nix du brauchst mindestens ein verhältnis von 1:2.
Mem kanste anheben wobei 1272 schon nicht schlecht sind, schaffen nicht viele. Zum Benchen hab ich mal iwas um die 1350 gegeben, aber ansonsten nie mehr als 1300.

Aber krass das du die Probleme bei den guten Temps hast, die 1512 haben sehr viele x260er geschafft.
 
Konnten? Was kannst du denn jetzt einstellen?


Hab noch nichts weiter getestet, wenns Neuigkeiten gibt werd ichs hier posten :)
Aber ich verfolge jetzt schon ein paar Tage diese Sache mit dem EVGA Tool und ich glaub ich werd ma versuchen den Chip per RT anzusprechen wie das im XS zu lesen ist. Wäre ja echt cool wenn man im Idle noch weiter runter mit der Spannung gehen könnte und unter last dann eben ne Schippe mehr...halt so für ~800 Core oder so :)
 
Ohne Hardware-Mod lässt geht aber nur der Bereich zwischen 1,03V und 1,18V. Aber per RivaTuner kannst du die Spannung ohnehin nicht verändern.
 
Zuletzt bearbeitet:
Osiris3D/Zotac/783/1566/1188/1.12/0/46/38/Watercool Heatkiller

3DMark06

Osiris3D | 1280x1024 | 0x | Zotac | 783 | 1566 | 1188 | Q9650 | 4230 | 4GB | WinXP | 9.0c | 181.20 | 21237 | screen


 
Zuletzt bearbeitet:
Vielen Dank vorbab für eure vielen Antworten, leider momentan nicht viel Zeit, werde alles übers WE testen.


@ Thermikus

Friert das Bild auch im idle?

Nein, nur wenn die GraKa eben jene Taktraten taktet.

Im Grunde habt ihr Recht, dass ich nur mehr Hitze und Lautstärke produziere, aber ich bin nunmal so ein verflucht verklemmter Theoretiker :-)d:stupid:) und interessiere mich auch ein wenig für den Hintergrund der ganzen Sache... Bla Bla ....Schwafel ....Gesülz ...He Aufwachen!

Nein im Ernst, ich kann mir das auch nicht erklären. Das BIld friert einfach ein... Temps i.O., keine Artefakte oder ähnliche Bildstörungen.
Und meine Gleichung lautete: Mehr Spannung=Mehr Stabilität:confused:


Anyway bis die Tage

Thermikus
 
Mehr Spannung = Mehr Leckströme = mehr Hitze = keine Stabilität
Um deine Gleichung mal ad absurdum zu führen :)
 
Man braucht das EVGA-Tool nicht umbedingt um die Spannungen zu ändern. Auf XtremeSystems gibts ne Anleitung zum manuellen Einstellen.

Hat nur einen kleinen Fehler bei:
5. Setting a new voltage
You can set the voltage by writing the new VID in hexadecimal form to the register.
A. Run the CLI command: (replace # with IC2 bus number, and VID with the VID in hexadecimal form)
RivaTuner.exe /wi#,70,17,VID

Anstatt der 17 muss man die Nummer des Registers eingeben, welches die passendste VID hat.
Die Register-nummern sind die roten Zahlen hier:

RivaTuner.exe /ri#,70,15
RivaTuner.exe /ri#,70,16
RivaTuner.exe /ri#,70,17
RivaTuner.exe /ri#,70,18

Da ich das ziemlich schlecht erklärt hab guckt lieber hier.

Bei mir hat die erhöhung von 1,125Volt auf 1,2Volt keine Besserung gebracht. Soll ich noch höher gehen?
Edit: Selbst 1,25 Volt hat nichts gebracht :heul:
 
Zuletzt bearbeitet:
Da bist du nicht alleine. Selbst 1.35 hat nichts gebracht bei mir. Eventuell kann das jemand mit nem Multimeter nachmessen. Knn das nicht glauben, dass die GTX nicht mit mehr V skaliert.
 
Also wenn das stimmt, dann läuft Furmarkt bei mir mit dem Standardtakt von 666MHz selbst noch bei 0,98V problemlos.
1,25V hat meine Karte nicht angenommen -> Black Screen --> pfui :kotz:

Edit:
Bin bei 0,93V und 666MHz läuft noch...
Ich such mal mein Strommessgerät

mfg
00riddler
 
Zuletzt bearbeitet:
Anscheinend liegen die wirklich an. Bei 3DCenter hat jemand nachgemessen. klick

Edit: Bei 1,35Volt gibts sofort einen Blackscreen wenn ich die Spannung änder bei 1,25Volt jedoch nicht.
 
Zuletzt bearbeitet:
Es scheint wirklich zu funktionieren.
Die niedrigste Spannung für Furmark für 666MHz sind bei mir 0,93V, also HEX 26.
Wenn ich weiter runter geh seh ich Bildfehler (schwarze Dreicke usw.).
Tolles Nebenergebnis:


Furmark @ 666MHz GPU, 1404MHz Shader und 1152Mhz Speicher ergibt folgenden "Gesamtstromverbrauch des PCs" (Intel Q6600)

1,15V 352 Watt
1,06V 315 Watt
1,02V 303 Watt
0,93V 275 Watt


Idle: (@ 300MHz GPU, 600MHz Shader und 100MHz Speicher)

1,15V 162 Watt
1,06V 156 Watt
0,93V 150 Watt

Na dann wünsch ich mal viel Spass beim Rumspielen :d

mfg
00riddler
 
Zuletzt bearbeitet:
@00riddler: Mal versucht noch weiter runter zu gehen, also zB. für nen 2D Mode müsste ja noch deutlich weniger gehen als 0.93, da die Karte ja extrem runter taktet. 75 Watt Ersparnis bei 3D sind allerdings auch nicht zu unterschätzen :)
 
Es scheint wirklich zu funktionieren.
Die niedrigste Spannung für Furmark für 666MHz sind bei mir 0,93V, also HEX 26.
Wenn ich weiter runter geh seh ich Bildfehler (schwarze Dreicke usw.).
Tolles Nebenergebnis:


Furmark @ 666MHz GPU, 1404MHz Shader und 1152Mhz Speicher ergibt folgenden "Gesamtstromverbrauch des PCs" (Intel Q6600)

1,15V 352 Watt
1,06V 315 Watt
1,02V 303 Watt
0,93V 275 Watt


Idle: (@ 300MHz GPU, 600MHz Shader und 100MHz Speicher)

1,15V 162 Watt
1,06V 156 Watt
0,93V 150 Watt

Na dann wünsch ich mal viel Spass beim Rumspielen :d

mfg
00riddler

Schöner Test, aber diese Werte erreicht man ja auch mit dem Nibitor bis auf die 0,93. Teste doch bitte mal was du noch aus deiner Karte mit 1.25rausholen kannst. Bei mir bringen die nämlich nichts.

Habt ihr beim Übertakten mit höheren Volts bessere Ergebnisse erreicht?
 
Ich kann nicht auf 1,25V hoch, gibt nen Blackscreen. Bei 756 MHz ist bei meiner Karte wohl Ende, kein Unterschied zwischen 1,06V oder 1,2V, die Karte geht nicht weiter.

In 2D war ich auch schon tiefer als 0,93V, aber das waren im Idle nur 1 maximal 2 Watt Unterschied, das lohnt sich nicht mehr groß.
Die 0,93V kann ich wohl überall verwenden, mach bisher in den Spielen auch keine Probleme.

Hab wohl ne LOW-Voltage-Karte erwischt :d

mfg
00riddler
 
So hab heute den HR03 GTX raufgeschnallt und nun die Karte bei Last max. 57°C und läuft endlich auch gamestable mit 765/1512/1200 Mhz und das bei 1.03v :cool: 65nm ftw :d
 
Also ich sag es mal so :
Neue Karte, neues Glück ! :d
Habe jetzt eine EVGA-Karte und habe damit eben den Vantage Weltrekord für die GTX 260er gebrochen !

KabaFit Erdbeer | 1280x1024 | - | EVGA GTX260 192 | 849MHz | 1700MHz | 1306MHz | Q6600 | 3806Mhz | 8192MB Mushkin X2 PC2-8000 | Vista | DX10 | 181.22 | 11846 | Screen

Achja und hier könnt ihr sehen, dass es wirklich der GTX260 OC-Weltrekord ist :



Wäre schön, wenn Vantage auch auf der ersten Seite eingetragen wird !

mfg
 
Zuletzt bearbeitet:
Mit Vmod oder ohne? Also 849 Core und vorallem 1700 Shader ist ja mal irre heftig.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh