GeForce 8800GTS (G92) OC-Thread + Liste (Part 2)

@obersniggy: aha, an welchem Tag da genau? :d

Soweit ich mich erinnere, verbraucht mein Gesamtsys beim Proteine Falten (a.k.a. Folding@Home)
mit Standardtakt 190 Watt und OCed (800/2000/1040) 200 Watt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nice :) Bringt OC der 8800GTS G92 eigentlich was?

Ich hab jetzt nicht jede Szene eines Spiels mit den verschiedenen
Einstellungen von den FPS verglichen, sonder mich nur an die
Punkte von 3DMark 06 gehalten. Da bringt es schon was.
Von daher gehe schon von einer Leistungssteigerung aus.
So um die 10% sollten schon drin sein. Macht den Kohl nicht
übermäßig fett aber immerhin.


Naja der Stromverbrauch wird sich auch nicht so viel nehmen wenn du die 8800GTS oced denke ich mal..
Naja der Stromverbrauch wird sich auch nicht so viel nehmen wenn du die 8800GTS oced denke ich mal..

Ich meine zwischen meinen beiden Werten lag gerade mal 8 Watt.
Nicht die Welt. Aber hier 8 Watt, da 8 Watt (CPU vernünftig getaktet),
hier 3 Watt, dort 5 Watt und dann noch hier 2 Watt...
Bei 24 Stunden am Tag und 7 Tage die Woche bringt es doch ein wenig, denn
meistens ist bei mir der Rechner immer an.
 
Zuletzt bearbeitet:
Ich war Samstag da, als dieser Spinner am Bühnengestänge hochgeklettert ist :fresse: Wann warstn du da?

Ok, 10 Watt sind echt zu verkraften. Hast du die 800/2000/1040 ohne Vcore Erhöhung geschafft und den Standardkühler drauf? Kann man von ausgehen, dass jede 8800GTS so ihr GTX Niveau (750/.../...) schafft?
 
meine Graka macht die Werte 821/1827/1081 auch ohne Mucken und wird Maximal 58°C warm.Ich schätze mal da geht noch mehr.Bis jetzt nur über Riva Tuner.Weitere tests kommen nach meinem Urlaub
 
@obersniggy: war am 1.6. und am 13.7. da^^

Ja, ohne VCore Erhöhung. Das ist aber nur 3DMurks und Folding@Home "stable" Crysis z.B. kackt nach 'ner halben Stunde ab.
Natürlich läuft der Lüffi auch auf 100% dafür. :hwluxx: (ein Höllenlärm)
 
Hey, welcher Takt bringt denn am meisten? Shader GPU oder Ram?

Und wie testet ihr auf Stabilität? Ich richte mich an ca 40 Minuten ATI Tool reicht das?
 
Soweit ich weiß bringen GPU&Shader am meisten. Auf Speicherbandbreitenerhöhung spricht die GTS wohl nich so extrem an.
 
Beim absolut stabilen, wahrscheinlich ja. Für 3DMurks und F@H darf's ruhig ein wenig mehr sein. :d
 
Hi,
ich bringe ATITool unter Vista x64 nicht zum laufen.
Benutze das neueste ATITool 0.27 b2 (http://downloads.guru3d.com/download.php?det=725)

Habe eine 8800GTS 512MB (G92) und benutze den 175.19 nVidia Treiber.

Doch jedesmal erhalte ich die Fehlermeldung:
"The Kernel mode driver does not seem to be running. A device driver is required for communication with your video hardware".
Wenn ich "OK" drücke startet ATITool zwar, aber die Buttons "Find Max Core" und "Find Max Mem" sind grau hinterlegt...

Habe schon folgendes versucht:
- F8 beim booten gedrückt um die "Driver signature enforcement" zu deaktivieren
- Versucht ATItool als Administrator auszuführen

Leider ohne Erfolg. Jemand ne Idee?
 
Zuletzt bearbeitet:
@crazu.sue

um dauerhaft treiber signatur zu deaktivieren mache mal das

In der "Ausführen" das Wort gpedit.msc eingeben und das erscheinende Programm in der Liste darüber starten!

-Benutzerkonfiguration
-Administrative Vorgaben
-System
-Treiberinstallation
-Codesignatur für Gerätetreiber - darauf doppelklick

Einstellung dieser Sparte:
Aktiv und ignorieren.
Rechner neu starten und freuen

aber ati tool ist müll für nvidia karten.nur gut um vmem zu testen wegen der gfx fehler.
benutze rivatuner und gut ist.max takt etc muß man eh manuel ausloten weil diese funktion hirnrissig ist.weil meistens die gfx treiber bei zu hochen takt wieder auf default stellen.
 
"gpedit.msc" in der Ausführen funktioniert bei mir nicht (Fehlermeldung: "Windows cannot find 'gpedit.msc'").
Aber ich habe die Treiber Signatur schon über einen Befehl dauerhaft ausgeschaltet, also das ist nicht das Problem.


RivaTuner habe ich auch schon benutzt, nur leider finde ich es sehr schwierig den max. GPU, Mem und Shadertakt von Hand herauszufinden. Oft waren die Settings z.B. schon 3D Mark oder Crysis stable, es stürzt aber in DIRT ab. Find es gibt einfach kein zuverlässiges Tool zum testen wie Prime bei der CPU oder MemTest beim RAM.
Welches Game, Benchmark,... benutzt ihr um die Stabilität der 8800GTS (G92) zu testen?

Welche Werte sollten denn für eine 8800GTS (G92) auf jedenfall drin sein?


Außerdem kann ich irgendwie kein 2D Profil anlegen. Er übernimmt immer die Werte vom 3D Profil, so dass die Graka selbst im 2D Modus schon übertaktet läuft...
 
Zuletzt bearbeitet:
Wie sieht denn der Stromverbrauch bei sli Karte so aus?
Überlege mir eine 2. 8800 GTS dazuzukaufen nur erschreckt mich der stromverbrauch bissel.

Achja ausserdem wollte ich letztens mal die Lüfter reinigen nur ist mir aufgefallen, das ich den Aufkleber abmachen muss, um an die schrauben zu kommen. Ist echt blöd gemacht.
 
Zuletzt bearbeitet:
wie findet ihr den furmark zum stabilität checken?
funktioniert das so wie ati-tool mit den artefakten oder is der nicht so korrekt?
 
@crazy.sue was sind den deine erreichten werte bisher ? denke 750gpu+ sollte immer drin sein.und shader bis 1850-1900 auch.3dmark06 im 2h dauerloop sollte reichen um die kiste aufzuheizen ohne ende.dann laufen auch meistens die games.
 
Wie sieht denn der Stromverbrauch bei sli Karte so aus?
Überlege mir eine 2. 8800 GTS dazuzukaufen nur erschreckt mich der stromverbrauch bissel.

Kommt drauf an wie dein system aussieht, ich hatte mit meinem Q6600 im Idle 250W / Last ca. 400W, wie es jetzt mit dem Xeon ist habe ich noch nicht gemessen.

wie findet ihr den furmark zum stabilität checken?
funktioniert das so wie ati-tool mit den artefakten oder is der nicht so korrekt?

Ich hatte es bis jetzt nur als Bench genutzt aber selbst da hatte ich schon Artefakte wenn die Karte(n) / System zu hoch war also kann man von ausgehen das es ähnlich ist wie beim ATI Tool.
 
UPDATE:

14.929 |Quante|E6750 @ 3,60GHz | EVGA | 820 | 2030 | 1120 | Stock | Stock | AccS1 | Validation | XP32Bit SP3
 
Übertaktet? Dann sollte sie möglichst nicht wärmer als 80°C werden, weil dann beginnen einige mit der Fehlerproduktion. ;)
Auf Standardtakt müssten die aber knapp 100°C mitmachen, bevor sie sterben. :fresse:
 
Mit dem Accelero S1 wird die Karte übertaktet beim Spielen 52 Grad und IDLE 37 Grad warm.
Mit dem originalen Kühler hatte ich knapp 100 Grad unübertaktet.
 
Da haste aber entweder eine "heiße" Karte erwischt, Quante, oder du hast 'ne shice Belüftung in deinem Sys. :fresse:
 
Na der G92 ist schon ein derber Heizer! :fresse:

Ne Quatsch, bei 100° hat sich entweder der Luffi nicht gedreht oder der saß schief drauf.
 
Tja, war aber so. Ich glaub 98 Grad unter Last.
Mein Thermaltake Mozart TX ist kein Gehäuse, sondern ein Wohnhaus.
In dem werkeln alleine, ohne CPU- und Grafikkartenlüfter, 7 Gehäuselüfter.
Aber wie gesagt betreibe ich den originalen Lüfter eh nicht mehr.
 
Dann haste entweder einen sehr heißen Chip erwischt, oder eine Karte mit sehr viel WLP erwischt. :fresse:

Deine rennt ja anscheinend recht gut, hat eventuell 'ne höhere VID (falls es sowas bei GPUs schon gibt).
 
Also 100 Gretchen mit Standard Kühler is Böse, egal ob Standard oder übertaktet und das Mozart TX ist wirklich ne Schrankwand, hab schon mal Bilder von gesehen :xmas:

Ich würde auch drauf tippen das der Originale entweder plöt saß oder die Paste zu fett drauf war.
 
Die GPU war jedenfalls gut geschmiert. :stupid:
Speicher und Spannungswandler waren auch mit eher mit Kaugummi als
mit Wärmeleitspads beklebt. Der Kühler jetzt ist jedenfalls top!
Vom Lüfter (120mm@800U/min.) hört man nichts und die Karte ist
unter Last kühler als mit dem Originalen im IDLE.

Ich weise noch mal dezent auf den Beitrag Nr. 834 hin. UPDATE!!!
Habe mich damit immerhin um zwei Plätze verbessern können. :banana:
 
Du meintest bestimmt Beitrag Nr. 828 ;)

Ich hatte auch schon des öfteren überlegt mir andere Kühler für meine 2 GTS zu holen, na mal sehen ob ich das dieses Jahr noch mache.
 
Stimmt, 828. :wall:
Bei SLI kann es eng werden. Kommt auf das Gehäuse und dem Board an.
 
An Platzmangel happert es nicht bei mir, das Case ist groß genug und bei meinem DFI 680 SLI sind die Slots ausreichend auseinander.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh