8800 GTS / GTX OC Thread (Part 6)

Status
Für weitere Antworten geschlossen.
Ja das ist beides normal!
Sagtmal, mögt ihr mal beim GPU Caps Viewer den Fur Rendering Benchmark (GPU Burning Test) mit den einstellungen 1280x720 mit 8*aa 1 Minute laufen lassen und sagt mir dann wie viele Frames ihr hattet (min - avg - max). Bei mir kamen unglaublich schlechte 15 - 17 - 23 FPS raus ... o_O
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja das ist beides normal!
Sagtmal, mögt ihr mal beim GPU Caps Viewer den Fur Rendering Benchmark (GPU Burning Test) mit den einstellungen 1280x720 mit 8*aa 1 Minute laufen lassen und sagt mir dann wie viele Frames ihr hattet (min - avg - max). Bei mir kamen unglaublich schlechte 15 - 17 - 23 FPS raus ... o_O
Hatte 21, 24, 32 unter Vista64. XP32 liefer ich gleich nach. Aber gut der Vergleich hinkt wahrscheinlich eh wegen G92/G80 aber so ein Vergleich ist ja mal ganz interessant.
Hinzugefügter Post:
So unter XP32 warens 22, 25, 33. Aber so wie es ausschaut kann das nicht nur der Unterschied zwischen G80 und G92 sein, oder was meinst du?
 
Zuletzt bearbeitet:
Hallo,

habe mir gerade einen neuen Kühler für meine GTX gekauft und
möchte jetzt noch mehr übertakten! dabei bin ich auf das Tool
Nibitor gestossen! Kann mir evtl jemand seine Erfahrungen damit
mal posten und villeicht auch eine kurze Anleitung geben!

Schon mal vielen Dank!

MfG
 
Hatte 21, 24, 32 unter Vista64. XP32 liefer ich gleich nach. Aber gut der Vergleich hinkt wahrscheinlich eh wegen G92/G80 aber so ein Vergleich ist ja mal ganz interessant.
Hinzugefügter Post:
So unter XP32 warens 22, 25, 33. Aber so wie es ausschaut kann das nicht nur der Unterschied zwischen G80 und G92 sein, oder was meinst du?

Hm, krass, wie lief deine Karte? Die ist ja fast 40% oder so schneller, da ist doch was faul?!
 
Nibitor ist nur zum Bios bearbeiten gedacht, zum Übertakten geht zur Zeit nichts über den Riva Tuner.
Hinzugefügter Post:
Hm, krass, wie lief deine Karte? Die ist ja fast 40% oder so schneller, da ist doch was faul?!
Lief mit 756/1890/1080, müsstest halt mal jemanden finden der mit ner G80 GTS testet um nen richtigen Vergleich zu haben.

Wie gesagt ist die G92 ja so gut wie nie 40% schneller als die G80 und schon garnicht mit 8xAA.
 
Zuletzt bearbeitet:
Hm, bin in letzter Zeit irgendwie unzufrieden, rennt nix mehr so wie es soll irgendwie...hab aber keien Lust Win neu aufzusetzen :(
 
Ja irgendwas stimmt ja bei dir auch bei Crysis net, evtl kannst du mal Win auf ne separate Partition installieren um zu sehen obs dann besser wird. Dann musst du nicht gleich alles neu aufsetzen.
 
also hatte mit 1280 x 720 und 8x msaa

min 36 avg 42 max 55

8800 gtx @ oc s. sig.

mit 32x msaa

min 11 avg 13 max 18

und da so ca. 80 sec. lang
 
Zuletzt bearbeitet:
Da macht sich dann wohl das SI der G92 bemerkbar, ist aber auch krass der Unterschied.
 
Gibt es bei Grakas auch sowas wie Taktlöcher? Dass z.b. Core bis 630 stabil läuft, 631-650 instabil und ab 651 wieder stabil.
 
Also ich hab schon davon gehört beim Shadertakt bzw dem Verhältnis Shadertakt:Coretakt. Könnte durchaus möglich sein, hast du soetwas etwa entdeckt oder wieso fragst du?
 
Also ich hab schon davon gehört beim Shadertakt bzw dem Verhältnis Shadertakt:Coretakt. Könnte durchaus möglich sein, hast du soetwas etwa entdeckt oder wieso fragst du?

Meine GTX läuft gerade mit 630/1559/999 (C/S/M). Bei einem Coretakt von 640 oder Shadertakt 1600 oder Memorytakt 1100 gibt's Freezes bzw. Fehler und es wäre schade, wenn das schon die Maximaltakte wären.

Verhältnis Core/Shadertakt könnte ich auch noch mal genauer beobachten, da ich beide getrennt voneinander laufen habe.
 
Also mal gleich zum shadertakt, da gehen nur 54 Mhz Schritte, also stell lieber gleich die Werte ein die laufen. Also z.B. 1566, 1620, 1674 Mhz! Coretakt geht auch nur in bestimmten Schritten. Am besten ud lässt den Riva Tuner HW Monitor im Hintergrund laufen, dann siehst du was real anliegt. Zu hoher Core Takt bringt Freezes, zu hoher RAM und Shader Takt bringt Grafikfehler. Also setz den Coretakt auf 621 Mhz fest und zieh die Shader noch auf 1620 oder gar mehr hoch wenns geht. RAm vllt so 1053 Mhz, das passt schon!
 
Also mal gleich zum shadertakt, da gehen nur 54 Mhz Schritte, also stell lieber gleich die Werte ein die laufen. Also z.B. 1566, 1620, 1674 Mhz! Coretakt geht auch nur in bestimmten Schritten. Am besten ud lässt den Riva Tuner HW Monitor im Hintergrund laufen, dann siehst du was real anliegt. Zu hoher Core Takt bringt Freezes, zu hoher RAM und Shader Takt bringt Grafikfehler. Also setz den Coretakt auf 621 Mhz fest und zieh die Shader noch auf 1620 oder gar mehr hoch wenns geht. RAm vllt so 1053 Mhz, das passt schon!

Gut zu wissen, danke ;) Gleich mal ausprobieren.
Hinzugefügter Post:
621/1620/1026 stabil !

Mal gucken, ob noch mehr geht.

edit: Bei Shader und Memory ist leider schon Ende bei 1620 bzw. 1026MHz

edit: Core ist bei 621MHz auch am Limit.

Werd mir mal die GTX von meinem Bruder krallen und bisschen ocen :d
 
Zuletzt bearbeitet:
Woran siehst Du das da Schluss ist? Mit dem ATI Tool (Würfel)??
 
Jo, aber trotzdem liegt die Karte so schon locker über Ultra Niveau, also reicht das doch eigentlich auch aus..
 
Grad noch etwas mit Rivatuner rumgespielt, jetzt läuft die Karte im Idle mit 216/486/243 und wenn eine 3D Anwendung gestartet wird, läuft die Karte mit 621/1620/1026.
 
wieso kriegt ihr alle 1620 Shader aktiv.... meine macht max 1566 25/7 :(
 
RAM Tuning bringt sowas von NULL... Hätte gerne 1674 Shader und 674 Core....

btw der Ram geht bis 1150.. sinnlos ;)
 
wow für a2 stepping geht dein ram aber echt gut, auch wenns am wenigsten bringt, was is auch weis, wollt dich halt aufmuntern :xmas:
 
also mein shader sieht auch gut aus...1620 rannte murks 06 durch jeden grafik test ohne probleme 3 mal im loop..werde mal schauen, wie es in games ist, aber im murks ist sie schonmal stabil^^
 
ne alles unter wakü.
Komponenten stehen in meinem SYSprofile unten in meiner signatur meine wakü würde auch für 3 Rechner reichen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh