8800 GTS / GTX OC Thread (Part 4)

Status
Für weitere Antworten geschlossen.

annixp

Enthusiast
Thread Starter
Mitglied seit
18.11.2005
Beiträge
8.808
Ort
Eningen
Hier soll ein kleiner aber feiner Thread entstehen um die OC Ergebnisse der neuen G80 GPU zu sammeln.

Was packen denn eure Karten maximal an GPU/RAM Takt und mit welcher Kühlung ?




Riva Tuner 2.01 erschienen !
Download Link:Riva Tuner 2.01

Eure OC Ergebnisse könnt ihr ab sofort unter der neuen Liste selber eintragen

http://www.oc.xise.de/

Happy OCing :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Thx
Es geht hier ja nicht darum, das meine 8800 GTS nicht "diesen" oder "jenen" takt schafft. Wenn ich woanders eine bessere bzw. neuere karte, sogar für weniger geld bekomme, dann nehme ich das natürlich an ;)
Das ich mir 10 verschiedene Grakas, von 10 verschiedenen herstellern zuschicken lasse und mir die beste davon raus suche, so nötig habe ich es nun wirklich nicht,....kennst du jemanden der sowas macht? :stupid:
 
Es gibt leider denn ein oder anderen Kandidaten , auch hier im Forum der sowas Handhabt.

Und als Kunde wundert man sich wenn man gebrauchte Ware auspackt :stupid:
 
Wie bekommt man denn nochmal die "Übertaktungssperre" weg ?

Kann nur bis maximal 650 Core Clock !
 
Zuletzt bearbeitet:
Wie meinen? Versteh nicht was du meinst mit Übertaktungsgrenze meinst?
 
Wie meinen? Versteh nicht was du meinst mit Übertaktungsgrenze meinst?

Na alles über 650 MHZ Core Clock wird "ignoriert" ..... egal ob rivatuner, expert-tool, ati-tool oder n-tune

EDIT:

Bin nun bei 650/2000 .. kann mir mal noch schnell einer sagen wie ich den "Shader" erhöhe ?

Danke
 
Zuletzt bearbeitet:
Sorry vielleicht bin ich einfach zu müde aber wie meinst du das? Wie nicht übernommen oder wie?
 
@eagle: Noch nie gehört :hmm:
Den Shader selbst erhöhen geht mit den neuesten Treibern (bei mir 163.71) und Version 2.05 von RivaTuner.

Wie gesagt, ich selbst hatte A2 und A3 und kann keine wirklichen Unterschiede feststellen.
Temperaturen sind idle fast gleich, unter Last auf jeden Fall gleich.

Und Takt ist meine A2 bei 675 gefreezed und die A3 kann man mit 675 laufen lassen, aber Ati Tool spuckt irgendwann Artefakte aus.
D.H. bei beiden könnte/kann man 648mhz dauerhaft laufen lassen.

Schon komisch, dass ich der einzige mit ner "schlechten" A3 sein soll :stupid:
Mir kommts manchmal so vor, als würde hier wirklich so nach dem Motto 7mins Ati Tool reichen getestet werden... da kann ich auch noch nen Schritt mehr einstellen :fresse:

Übrigens noch zum Thema Temperaturen: Bei mir wird die Karte mit dem Ati Tool lange nicht so heiß wie in Games!
(Ignoriert den 3dmark im Hintergrund, das war weniger Takt)




In Spielen habe ich ja schon mit 594mhz bis zu 84° gehabt. Deshalb erhöhe ich jetzt manuell beim übertakten auch den Lüfter auf 70%.

Aber schon witzig mit dem Ati Tool. Startet zum Beispiel mal während das läuft Paint! Und ihr werdet sicher so wie ich sehen, dass plötzlich im Hintergrund die Temperatur der Karte steigt... :stupid:
 
Also :) :

Ich stell z.b 680 ein, dann bleibt es aber bei Standart 575 ... Stell ich auf 630 wird auch auf 630 gestellt ... Alles ab 650 wird sozusagen ingnoriert ....

hatte ich auch kurz, hast mal geändert und neugestartet danach?

Mir kommts manchmal so vor, als würde hier wirklich so nach dem Motto 7mins Ati Tool reichen getestet werden... da kann ich auch noch nen Schritt mehr einstellen

nicht nur dir, ich lasse es mindestens eine stunde laufen und schaue erst dann ob fehler zu sehen sind

lg chris
 
Zuletzt bearbeitet:
Ich glaube das schon, wenn du mal die Sache beobachtest sind es grade die Rev03 die Kühler bleiben und weißt du warum?

Ich denke:

Der Chip ist ja eigentlich die Ultra Rev die mit ein wenig mehr Spannung läuft bei der Ultra, was ja bei der GTS nicht der Fall ist. Läuft also mit weniger Spannung als ausgelegt bleibt darum etwas kühler.

Dann erkläre mir doch mal bitte, wieso meine erste GTS (November/Dezember ketztes Jahr) annähernd die gleichen Temps hatte. Und ich bezweifle das es Nov/Dez schon eine Rev. 3 gab. Das mit den Temps ist reine Glückssache, dazu zählt nun mal auch wie die Schutzkappe auf der GPU sitzt. Kennt man ja schon von dem Core Duo. Und ohne den beiden 60ern würde meine GTS (Rev. A3) auf über 85C gehen.
 
Zuletzt bearbeitet:
Und was hat es gebracht? Würde mich interessieren. Bitte NUR mit AA + AF benchen. Und FPS-Angabe.
Interessiert aus zweierlei Gründen nicht:
1: 3dmark ist fürn Ar*** - mich interessiert Schaderperformance bei Spielen.
2: AA und AF sind Speicherbandbreiteliitiert. Wenn ich das raufdrehe und die Karte dadurch bandbreitenmäßig limitiere hilft das wenig um den Unterschied ind er Shaderperfomrance zu sehen.

Hab die Zahlen nicht mehr im Kopf. SM 3.0 Shaderscore im Schwanzmark ist aber ganz deutlich höher.
Viel wichtiger: Ich spür einen Unterschied in World in Conflict.

Ich hab leider keine FPS Angaben order WIC Benches zur Hand. Mir ist das alles zu blöd geworden. Ich will einfach nur zocken und dabei keinerlei Power der Karte brachliegen lassen.
Da ich dank 24 Zoll TFT bei 1920x1200 zocke muss ichd ie GTS etwas quälen. :d
 
Zuletzt bearbeitet:
Das gleiche Problem hab ich auch,hab beim 2.05-er nur die beiden Balken zum Clocken. Wo kann ich den 3. Balken aktivieren? Nutze de 163.71 Treiber,aber nicht in der WHQL-Version.
 
Wie könnt ihr denn die shader verstellen. Ich habe nur Clock u. Memorie zur auswahl? Ich benutze den riva tuner v2.05.

Das gleiche Problem hab ich auch,hab beim 2.05-er nur die beiden Balken zum Clocken. Wo kann ich den 3. Balken aktivieren? Nutze de 163.71 Treiber,aber nicht in der WHQL-Version.

ich hatte dasselbe problem. hier ist die lösung:

New user interface is provided by default under ForceWare 163.67 and newer drivers under Windows Vista, however Windows XP owners can also force Vista specific overclocking interfaces usage by setting NVAPIUsageBehaviour to 1. If needed, shader clock control can be forcibly disabled and old traditional overclocking module UI appearance can be forced by setting NVAPIShaderClockControl to 0.

bei vista sind die 3 balken standardmäßig aktiviert. unter xp muss man den shader balken erst aktivieren. dazu geht man in das power user tab und dann unter system. dort sucht man den eintrag NVAPIUsageBehaviour und setzt den auf 1. fertig.
 
Danke ich werds später testen.
Sagt mal, reicht meinem Seasonic S12 430 da nicht langsam die luft aus? CPU, GPU, RAM, übertaktet...

Kann mir wer ein gutes programm empfehlen, das den stromverbrauch anzeigt oder braucht man da so einen adapter für die steckdose? bis dahin werd ich mal googlen, vielleicht werde ich ja fündig :)
 
Zuletzt bearbeitet:
Kann mir wer ein gutes programm empfehlen, das den stromverbrauch anzeigt? bis dahin werd ich mal googlen, vielleicht werde ich ja fündig :)

Erfinde das und du kannst es sicher gut verkaufen :)

Für nen ungefähren Wert tuts auch der günstige Strommesser zum Zwischenstecken ausm Baumarkt. Meiner ist auch nur ausm Supermarkt und zeigt mir denke ich ganz brauchbare Werte zum abschätzen an.

mfg
 
Ich kenn ja deinen PC nicht...

Würde sagen man könnte das (Ampere vorausgesetzt) schon mit 430W versuchen. Schließlich ist das was ich auf der Anzeige sehe ja auch nur der Brutto-Wert, wenn man die Effektivität des Netzteils (sagen wir mal 85%) einrechnet muss es ja weniger abgeben als angezeigt.

Wichtig zu sagen wäre noch, dass ich da jetzt nicht lange rumgetestet hatte. Angenommen ich treibe den Quad auf 3,7Ghz und die GTS auch ans Limit, dann dürfte das schon etwas höher ausfallen. Zumal ich mich zu erinnern glaube, dass ich bei Spielen oft mehr Verbrauch sehen konnte als auf obige Art mit Prime und Ati Tool.

Mit einem 480W Tagan habe ich auch das System mit E6600 @3,6 statt Q6600 und dafür 8800 Ultra statt GTS schon am laufen gehabt.

Also ohne deinen PC jetzt genau zu kennen... könnte gehen. Wenn du genau sagst was drin ist kann man sich sicherer sein. ;)
Oder anders gesagt, meinen PC würde ich mir zutrauen damit zu betreiben, aber auf lange Sicht hätte ich ein ungutes Gefühl und würd eher in Richtung 500W Netzteil schauen.

Ahja, jetzt habe ich ein Corsair HX620 verbaut, welches bei der geringen Auslastung eigentlich auch eher in dem nicht so effizienten Bereich laufen dürfte.
 
Ich würde mal pauschal behaupten das leistung/verbrauch mäßg, mein system bei weitem nicht an deinem rankommt, aber siehe selbst :)

Mein Sytem:
C2D 4300 @ 3,3 Ghz (so hoch fahre ich eigentlich nur im 3d mark, in 99% aller fälle spiele ich mit 3,0 Ghz)
2gb MDT 800
Gainway Geforce 8800 Gts 320mb (habe ich noch fast nicht getestet, aber du weist ja bestimmt wie viel da ca. geht)
Gigabyte P35 Ds3
Seasonic S12II 430W
 
...bei vista sind die 3 balken standardmäßig aktiviert. unter xp muss man den shader balken erst aktivieren. dazu geht man in das power user tab und dann unter system. dort sucht man den eintrag NVAPIUsageBehaviour und setzt den auf 1. fertig.

Thx a lot!
 
was geht bei euren GTX so an Shadertakt?

bei mir ist bei 1452 ende :(
sobald ich mehr gebe friert es nach 1 min ein das Bild.
Hab ich wirklich so eine Gurke erwischt oder woran kann es liegen ?
Kühlen tus ich die Karte mit nem Thermalright HR03+ wo 2x 120mm Lüfter drauf sind.
42° IDLE
Load 67°

Also an den Temps kanns ja net liegen.
 
so ich schaff jetzt mit dem Murks Mark 06 auf nette

11790 Murkspunkte

mit 648/1674/1080
 
Mal eine frage: mit was oced ihr unter Vista x64? Ich habe bisher immer coolbits genutzt und das alte Treiberpanel bei WinXP, geht das immer noch?
 
Bei mir werden die Taktraten die ich mit rivatuner 2,05 einstelle nicht übernommen.... hab auch die neuen treiber drauf.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh