8800 GTS / GTX OC Thread (Part 3)

Status
Für weitere Antworten geschlossen.
@bichla: Mit dem Treiber 163.69 und RivaTuner 2.04 lässt sich auch der Shadertakt per Multiplikator zum GPU-Takt (Standard 2.34) regeln :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mich würde mal ein Foto interessieren z.B ATITOOL wo man die Temps sieht einmal im idle Zustand und einmal unter Vollast!

Raumtemp. war hier bei ca. 24°C. Die 3 Loonys liefen 12V. Insgesamt liefe das Sys. 1h - also der Kreis war gut eingelaufen. Ist jetzt sogar weniger, als ich vor 2 Wochen getestet hab. Da war es ja noch wärmer (Raumtemp).

@ load



@ idle (gleiches Bild wie oben, aber mit beendetem Artefact-Test)



Getaktet wurde mit RT. Bei Loonys @ 5V ist die Core-Temp ca. 2-3k höher. Die hier angezeigte Temp. ist die der Thermal-Diode - also höher als die GPU-Gehäuse-Temp. (NVThermalDiode.dll:0 - NICHT ADT7473.dll:0). Die GPU-Gehäuse-Temp wäre nochmal 2-3k niedriger. Die Differenz zw. idle und load ist beim GPU-X² wahnsinnig gering, wenn es richtig sitzt.
Hinzugefügter Post:
Es kann übrigens doch jeder hier auch @ 1920x1200 und höher benchen.
Mit dem kleinen Unterschied, dass der Monitor kein Signal anzeigt - also schwarz bleibt. Aber am Ende des Benches hat man das Ergebnis der eingestellten Auflösung. Der karte ist es ja egal, was für ein Moni dranhängt oder ob überhaupt einer dranhängt.

Also fröhliches Benchen @ Full-HD und höher ;)
 
Zuletzt bearbeitet:
Nabend !

So meine werte liegen nun auch vor :)

Ich habe zwar noch keine direkten 3dmark06 werte , weil mein c2d momentan auf 2,4ghz läuft aber kartendaten habe ich heute den ganzen Tag getestet.

Karte

Sparkle 8800GTS 640MB (A3 Stepping)

Max Core (Auto Lüfter) 700Mhz (getestet mit 3Dmark06)
Max Core (100% Lüfter) 710Mhz (getestet mit 3Dmark06)
Max Core (ATI Tool) 695Mhz (Dann Bildschirm aus)

Nun eingestellter Wert: 680Mhz (5x 3dmark06 stable und artefaktenfrei)

Max Mem (ATI Tool) 1100Mhz (40min Test problemlos ohne repeats)

Nun eingestellter Wert: 1100Mhz (5x 3dmark06 stable und artefaktenfrei)

Im core bereich wäre mehr gegangen, selbst bei 715 sah ich beim 3DMark keine bildfehler , leider hing er aber nachdem vierten Test. Ich vermute die GPU wird zu heiss.

Jetzt aber nochmal eine allgemein Frage , ist es denn ok wenn ich den Ram auf 1100Mhz laufen lasse? oder nimmt der Ram mit Standard Kühlung dann schaden? Selbiges für GPU ?

Willkommen im club, unsere ergebnisse ähnekn sich zu sehr:).
Ich lasse den ram auch auf 1100 laufen sollte kein problem sein so lange die karte net zu heiß wird.

mfg
Vincent
 
ich habe zur zeit den beta treiber 163.71 drauf. lässt sich damit problemlos übertakten?
 
@bichla
Überprüfe mit everrest ob der Shadertakt wirklich über1600 Mhz liegt, dann würd ich auf Ultra flashen.
 
Zuletzt bearbeitet:
Raumtemp. war hier bei ca. 24°C. Die 3 Loonys liefen 12V. Insgesamt liefe das Sys. 1h - also der Kreis war gut eingelaufen. Ist jetzt sogar weniger, als ich vor 2 Wochen getestet hab. Da war es ja noch wärmer (Raumtemp).

@ load



@ idle (gleiches Bild wie oben, aber mit beendetem Artefact-Test)



Getaktet wurde mit RT. Bei Loonys @ 5V ist die Core-Temp ca. 2-3k höher. Die hier angezeigte Temp. ist die der Thermal-Diode - also höher als die GPU-Gehäuse-Temp. (NVThermalDiode.dll:0 - NICHT ADT7473.dll:0). Die GPU-Gehäuse-Temp wäre nochmal 2-3k niedriger. Die Differenz zw. idle und load ist beim GPU-X² wahnsinnig gering, wenn es richtig sitzt.
Hinzugefügter Post:
Es kann übrigens doch jeder hier auch @ 1920x1200 und höher benchen.
Mit dem kleinen Unterschied, dass der Monitor kein Signal anzeigt - also schwarz bleibt. Aber am Ende des Benches hat man das Ergebnis der eingestellten Auflösung. Der karte ist es ja egal, was für ein Moni dranhängt oder ob überhaupt einer dranhängt.

Also fröhliches Benchen @ Full-HD und höher ;)

Wieso läßt du die Temperaturanzeige vom ATITOOL nicht mit laufen und weshalb zeigt RT einen ganz ander GPU Takt an wie das ATITOOL und dazu noch so einen niedrigen Shadertakt?
 
Zuletzt bearbeitet:
Es kann übrigens doch jeder hier auch @ 1920x1200 und höher benchen.
Mit dem kleinen Unterschied, dass der Monitor kein Signal anzeigt - also schwarz bleibt. Aber am Ende des Benches hat man das Ergebnis der eingestellten Auflösung. Der karte ist es ja egal, was für ein Moni dranhängt oder ob überhaupt einer dranhängt.

Also fröhliches Benchen @ Full-HD und höher ;)

Theoretisch ja - wenn der 3dmark einem die Auflösungen anbieten würde, das tut er aber nicht wenn man keinen entsprechenden Moni hat ;)
 
hallo,

ich verwende die neuste rivatuner version 2.05 und den betatreiber 163.71.
im übertaktungsmenü kann ich nur core und memory clock einstellen. mit der neusten version sollte jedoch zusätzlich noch die option dazu kommen den shader clock einstellen zu können.
wie aktiviere ich diese option?

desweiteren habe ich einen komischen bug. wenn ich den haken bei " enable hardware overclocking" wird einem geraten die standardwerte der graka durch einen reboot des pcs fehlerfrei zu ermitteln. wenn ich das mache passiert jedoch nichts. im rivatuner bleibt die overclocking funktion deaktiviert und ich soll wieder den pc neustarten. da stimmt doch was nicht.
 
lasse gerade ein ATI tool laufen um auf fehler zu überprüfen..nebenbei das expert tool aufgerufen...da habe ich ja noch viel platz nach oben :banana:

gainward.JPG


shadertakt war aber schon bei 636/1020 auf 1512mhz

ilg chris
 
hallo,
werd mir warscheinlich die tage ne 8800 gtx kaufen, wenn die die taktraten der ultra mitmacht (612/1512/1080) und ich die dann auf ne ultra flashen will, welches bios würdet ihr mir von welchen hersteller empfehlen, und wie heiß darf denn die graka unter vollast (ati tool) werden???
 
hallo,
werd mir warscheinlich die tage ne 8800 gtx kaufen, wenn die die taktraten der ultra mitmacht (612/1512/1080) und ich die dann auf ne ultra flashen will, welches bios würdet ihr mir von welchen hersteller empfehlen, und wie heiß darf denn die graka unter vollast (ati tool) werden???

meine läuft problemlos 648-1512-1020...also ultra niveau

temperatur glaub um die 85°

lg chris
 
Der Shadertakt muß auf 1620 MHz stehen dann ist es Ultra Niveau!
 
hallo,

ich verwende die neuste rivatuner version 2.05 und den betatreiber 163.71.
im übertaktungsmenü kann ich nur core und memory clock einstellen. mit der neusten version sollte jedoch zusätzlich noch die option dazu kommen den shader clock einstellen zu können.
wie aktiviere ich diese option?

desweiteren habe ich einen komischen bug. wenn ich den haken bei " enable hardware overclocking" wird einem geraten die standardwerte der graka durch einen reboot des pcs fehlerfrei zu ermitteln. wenn ich das mache passiert jedoch nichts. im rivatuner bleibt die overclocking funktion deaktiviert und ich soll wieder den pc neustarten. da stimmt doch was nicht.

ich hab so ein ähnliches problem ich kann zwar den shadertakt einstellen es wird auch laut RT übernommen aber in wirklichkeit ändert sich der shader takt nicht
 
Die neue Version läuft bei mir einwandfrei (FW 163.69), nu kann ich den Shader
ein wenig drosseln und so laufen selbst die 756Mhz GPU Takt problemlos :)

Bild zu Breit, deswegen nur Link....
 
Zuletzt bearbeitet:
das hast du pott mir noch net einmal gesagt also mach mich net so dumm an, verstanden?:motz:

Trotzdem danke

mfg
Vincent
 
hab noch ein wenig "herumfrisiert"...8800GTS A02@702/1620/2052 und E6400@3,2GHz
ERGEBNISS: 11045 Points



Sollte schon so in etwa passen, oder?!
 
naja sollte ca hinkommen..obwohl 11500 sollten es eher sein, ich habe auch schon 11478.

mfg
Vincent
 
Wieso läßt du die Temperaturanzeige vom ATITOOL nicht mit laufen und weshalb zeigt RT einen ganz ander GPU Takt an wie das ATITOOL und dazu noch so einen niedrigen Shadertakt?

Wenn du Zweifel hast, warum nehme ich mir extra 1h Zeit?
Ausserdem wurde zuerst ATI-Tool geöffnet und dann erst mit RT getaktet. Da kann ATI-Tool den anderen Takt ja nicht anzeigen. Den Shader kann ich extra verstellen (mehr Shader bringt sowieso nicht mehr Leistung). Das was man in RT sieht ist maßgebend. Die GPU-Rückseite ist gerade mal lauwarm - ich kann den Finger da ewig lassen.
 
Zuletzt bearbeitet:
das hast du pott mir noch net einmal gesagt also mach mich net so dumm an, verstanden?:motz:

Trotzdem danke

mfg
Vincent

Dann ließ dir mal die letzten Seiten durch und zähl mit wie oft irgendwer dir das schon gesagt hat. 2mal finde ich auf die Schnelle. Ich selbst habe es dir auf jeden Fall schon geschrieben. Aber du scheinst ja nie zuhören zu wollen und dann fragst wieder 10mal nach. Das nervt langsam!

Hier einmal:
http://www.forumdeluxx.de/forum/showpost.php?p=7116208&postcount=3779

Hier hats dir nochmal einer geschrieben:
http://www.forumdeluxx.de/forum/showpost.php?p=7121191&postcount=3827

Und dann siehe oben erste Seite des GTS Sammelthreads.


Ich geb dir jedenfalls keine Hilfe mehr wenn du eh nie zuhörst.

Und trotzdem bitte :)
 
ja aber es geht hier mehr um den Speichertakt..wird der auch in denselben stufen erhöht? Das hast du mir nämlich noch net gesagt:(

mfg
Vincent
 
Das stimmt, das hat noch keiner gesagt.
In welchen Stufen der hochgeht weiß ich gar nicht, aber er geht auch stufenweise hoch.
 
Man ey was soll ich dann jetzt machen? Ist der RT wirklich die richtige anzeige? Denn im RT kann ich net über 1100 gehen, da das ja ANGEBLICH der treiber iwie net macht kommt aufjedenfall so eine fehlermeldung. Wenn ich im ati tool 1101.91 einstelle, dann zeigt mir RT 1107 an. Aber leider kommen dann im ati toll kleine punkte, also artefakte. Mit 1101.41 einstelle kommen keine punkte, aber der RT zeigt mir 1080 an:lol:

mfg
Vincent
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh