GTX260 Overclocking

Hallo, könnt ihr mir mal bitte erklären wie ich mit Rivatuner meine neue GTX 260 übertakten kann. Ich lese immer von 3 Werten z.B Und läuft mit 702/1458/1269, aber ich dachte man kann nur zwei verstellen. Sorry, aber bin Newbie. Danke im voraus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo, könnt ihr mir mal bitte erklären wie ich mit Rivatuner meine neue GTX 260 übertakten kann. Ich lese immer von 3 Werten z.B Und läuft mit 702/1458/1269, aber ich dachte man kann nur zwei verstellen. Sorry, aber bin Newbie. Danke im voraus.

die 702 in dem beispiel ist der takt der gpu (core), die 1458 sind shader und die 1269 ist der ram. übertakten kannst du alle 3 werte einzeln. standardmäßig ist aber aktiviert, daß der shader linked also in abhängigkeit vom coretakt übertaktet wird. du kannst den shader auch unlinked takten, aber der shadertakt muss im verhältnis zum core trotzdem immer passen (darf also nicht zu niedrig sein) sonst wird der zu hohe coretakt nicht übernommen. ram kannst du immer unabhängig von den anderen werten takten.
 
@Roach, danke für die Erklärung. Aber wie mache ich das? Kannst Du mir da eine Anleitung geben? Das wäre super und danke im voraus.
 
Und langsam vorgehen.. die 700 schaffen schon nicht alle karten.
Oftmals ist das verhältnis 1:2 also core takt auf 700 und shader auf 1400.
Bei den OC varianten der 260 sind die verhältnisse jedoch definitiv anders.
 
Das hier ist ein Traum-Forum. Super schnelle Antworten. Danke an Euch allen...
 
Wenn du so hoch clockst solltest du auch ggf. den Lüfter manuell raufsetzen.
Doch wie das geht weis ich nur im Riva Tuner, denke aber das andere Tools kans auch.

Das zocken von Games ala Crysis zeigt dann sehr schnell ob deine Settings stabil sind bzw. Artefakte verursachen, also Bildfehler.

Btw. Im anderen Thread sind wir der Meinung das sobald die Karte mit OC in den Bereich 65° Grad kommt (was eigentlich nicht viel ist) Bildfehler verursacht. Also halt solange "auspendeln" bis man die optimalen Settings ohne Bildfehler hat. Ohne OC sind 80° Grad auch kein Problem.
 
Zuletzt bearbeitet:
Also, ich bekomme mit OC aber auch über 80°C ohne Bildfehler hin. Aber temperaturabhängig ist OC trotzdem, denn mit 100% Lüfter komme ich noch weiter mit dem OC..
 
hmm.. also 756/1512 ist bei mir das maximum mit 70% Lüfter knapp unter 65 Grad @Crysis sobald ich mehr geb packt er das mit 70% net mehr.. wobei ich sicherheitshalber auch die 100% lüfter nehmen.. weil boxen übertönen eh.. oder ich nehme einfach die AMP Settings.. die reichen ja auch locker..
 
Hoch interessante Diskussion!

Ich habe gestern auch mal versucht auf 1512 shader zu takten, nachdem der erste Versuch direkt zu Bildfehlern im ATItool führte.

Bis ca. 64° lief die Karte ohne Fehler mit 729/1512. Wieviel Drehzahl der Lüfter braucht, um drunter zu bleiben, konnte ich leider nicht testen, da ich eine automatische Lüfterregelung konfiguriert habe mit rt. Habe es nicht geschaft die auszuschalten. D. h. der Lüfter lief auf 40%.

729/1458 schafft die Karte auch bei Temperaturen um 76° und ca. 45% Lüfter.

Vielleicht könne wir ja mal ne Liste erstellen:
Code:
User/Karte/Core/Shader/Lüfter[%]/Temp
ap/xfx xxx/729/11458/45/76
Was haltet Ihr davon?
Testbedingungen: AtiTool (keinen Bock auf fm), 10 min, vielleicht noch crysis bench avg fps?
nachweis per screen

Dann würde das hier auch mal ein oc thread. Threaderstelle müsste dann natürlich die erste Seite uppen...
 
An so einer Liste hätte ich auch großes Interesse. Oder aber es macht jemand einen neuen "offiziellen" GTX 260 OC-Thread auf.

FM ist auch nicht so der Stabilitätsbenchmark, damit kannste eigentlich nur gut Hitze produzieren.

1512 MHz Shader habe ich mal für nen Crysis und 3DMark06 Bench geschafft, im ATITool gibts aber sofort massive Bildfehler und nicht erst bei steigender Temperatur. Ich könnte natürlich mal testen, wenn ich die GPU mit 100% gut runtergekühlt habe, wie es dann aussieht.
 
Mit den OC werten find ich ganz gut. Diese 65° Grenze, vielleicht tritt die nur ein bei voller bzw. sehr hoher Lüfterleistung?!?! Ich denke mal wenn du deinen Lüfter was höher stellst geht bei dir nämlich bestimmt auch noch einiges :)
Ich hab meine 756/1512 noch nie durchs ATI Tool laufen lassen, weil ich zu oft gelesen hab das es Murx ist mit der Karte. Kans mir aber auch mal drauf machen. Bei allen Games habe ich auf jedenfall keine Bildfehler mit den Settings. Sobald ich ein bissel höher geh schon.
 
Zuletzt bearbeitet:
702/1458 hatte ich schonmal für eine Weile mit 100% Lüfter laufen gehabt, bei 1512 gabs aber dann gleich Bildfehler, allerdings habe ich diesen Takt während der Stabilitätstest lief, eingestellt, d.h. der Chip war schon gut temperiert.
 


:bigok:

mit lüfter @ 100%

ca. 20 minuten grid gezockt damit, keine bildfehler oder abstürze.

war aber nur ein kleiner test, absolute stabilität beweist das natürlich nicht.
 
Zuletzt bearbeitet:
Tja, die GTX260 schreit förmlich nach einer besseren Kühlung. Allerdings, ich habe gestern Abend mal die EE von The Witcher gespielt und den Lüfter habe ich unter Last als nicht störend wahr genommen, lief aber auch nur knapp über 40% und die Laustärke geht im Sound vom Spiel unter. Wahrscheinlich werde ich den Kühler also wohl garnicht austauschen, zumindest nicht gegen einen Kühler der über 30€ kostet. Was her muss, ist ein AC S1 für die GTX 200er Reihe.
 
Tja, die GTX260 schreit förmlich nach einer besseren Kühlung. Allerdings, ich habe gestern Abend mal die EE von The Witcher gespielt und den Lüfter habe ich unter Last als nicht störend wahr genommen, lief aber auch nur knapp über 40% und die Laustärke geht im Sound vom Spiel unter. Wahrscheinlich werde ich den Kühler also wohl garnicht austauschen, zumindest nicht gegen einen Kühler der über 30€ kostet. Was her muss, ist ein AC S1 für die GTX 200er Reihe.

ich hab meinen wasserkühler schon hier liegen, war bisher nur zu faul zum umbauen :d
 
Na super!
Dann lasst uns das mal angehen.
Soll ich nen neuen thread eröffnen?

Und: Weiß jemand, wie man die Lüfterprofile im Scheduler wieder deaktivieren kann ohne sie zu löschen? Hab keine Lust wieder alles neu zu machen...
 
Hi Leute,
kann man die Spannung der GPU mit Nibitor erhöhen?
Auswählen kann ich ja statt 1,12V 1,18V.
Weis jemand ob er die Werte dann auch übernimmt?
 
So Leute!
Habs gewagt und nen neuen Thread eröffnet.

Feedback und Beteiligung erwünscht:hail:

@farscape one:
kannst Du, musst du aber auch flashen!
die user hier im luxx haben aber eher die erfahrung gemacht, dass 1,06V gute ergebnisse produziert, aber lass dir das mal lieber von denen sagen, die es schon gemacht haben...
 
Zuletzt bearbeitet:
Overvolten hat wohl bisher keine nennenswerten Verbesserungen gebracht bei der x260.
Bei der 280 jedoch schon. Aber es waren nicht soviele dies bisher gemacht haben, also kann man daraus net erheben das es immer so ist.
Der großteil hat die Karte eher runtergesetzt und spart strom und hat dabei OC laufen.
 
Hi Leute,
kann man die Spannung der GPU mit Nibitor erhöhen?
Auswählen kann ich ja statt 1,12V 1,18V.
Weis jemand ob er die Werte dann auch übernimmt?

Klar kann man die Spannung hoch setzen, bringen wird es dir wahrscheinlich aber nichts. Ich habe es bei 2 Karten ausprobiert und keine ging mit 1,18V besser zu ocen.
 
ich krieg bei meiner den memory, wenn clock und shader @ standart sind nicht über 1090mhz und wenn clock und shader auf 685mhz und 1485mhz sind nicht über 1065 :(
 
Na so ein Mist hab gestern geschaut was bei meiner Asus Max geht.Aber ich komme nicht über die 729/1458/2300 drüber, 1512Mhz shader hab ich gestern schon Probiert aber die will die Karte nicht laufen.

Laut RT Dianostic hat die Karte im Bios :

  • $1100020100 Voltage level 0 : 1.06V, VID 00000011b
    $1100020101 Voltage level 1 : 1.11V, VID 00000010b
    $1100020102 Voltage level 2 : 1.12V, VID 00000001b
    $1100020103 Voltage level 3 : 1.15V, VID 00000000b

Aber im Statistic Server stehen 1,13V und alle 60sek. gibt es einen Sprung auf 1,24V für 1sek. und geht wieder auf 1,13V zurück warum auch immer.
 
Die OC-Werte sind doch ok! Komisch sind nur die Spannungen, dachte das bislang da nur Leadtek Karte aus dem Rahmen fallen. Mich würde so langsam mal der Grund interessieren, warum die Karten im 2D mit 1,11V befeuert werden.
 
"ERROR: no supported eprom found" steht bei mir auch
und ich habe alles versucht

Nimm mal diese Version(http://www.techpowerup.com/downloads/1127/mirrors.php), weil die von CB Base hat bei mir irgendwie auch nicht gefunzt. Und dann gib mal als Befehl nvflash -4 -5 -6 namedesfiles.rom ein

Tja das Problem hab ich immernoch, nur das es sich irgendwi nicht lösen lässt, möchte meine Karte auf 1.03V trimmen .
Weiss wer was?? Mein Mobo ist ein Asus P5N-D. Mein Netzteil kreischt schon leise, ich wills mit 1.03V weniger belasten.

Kann mir im übrigen jemand beantworten, warum ich durch Mobo- und Grakawechsel von 8800gts mit xfx 680i lt sli zu gtx260 mit ASUS p5n-d 750i nur einen 3DMark06 zuwachs von 1000 punkten habe??müsste das nicht mehr sein?

Thx schonmal
 
Zuletzt bearbeitet:
Hallo

wo kann ich eine Anleitung finden. Wo ich meiner Graka eine Dynamische Lüftersteuerung verpassen kann. Hab eine GTX 260 von Leadtek.
Den BIOS Editor hab ich mir zumindest schonmal angeschaut, die Funktionen angeschaut. Nun bin ich aber etwas unsicher...
 
Die GTX260 hat doch eine dyn. Lüftersteuerung, oder was genau möchtest du?
 
"ERROR: no supported eprom found" steht bei mir auch
und ich habe alles versucht



Tja das Problem hab ich immernoch, nur das es sich irgendwi nicht lösen lässt, möchte meine Karte auf 1.03V trimmen .
Weiss wer was?? Mein Mobo ist ein Asus P5N-D. Mein Netzteil kreischt schon leise, ich wills mit 1.03V weniger belasten.

Kann mir im übrigen jemand beantworten, warum ich durch Mobo- und Grakawechsel von 8800gts mit xfx 680i lt sli zu gtx260 mit ASUS p5n-d 750i nur einen 3DMark06 zuwachs von 1000 punkten habe??müsste das nicht mehr sein?

Thx schonmal

Welche nvflash und nibitor Versionen verwendest du denn und hast du dein Originalbios-rom benutzt?
 
Auch unter Last? Wie sehen denn dann die Temps aus?

Kannst du mal von deinen Lüftersteuerung im nibitor einen Screenshot machen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh