8800 GTS / GTX OC Thread (Part 4)

Status
Für weitere Antworten geschlossen.
Kein problem, gern geschehen.

Ich habe vorher sehr lange Ati Karten gehabt von daher kenne ich mich mit dem Tool recht gut aus :wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@archiee

um die fehlenden alus/shader der gtx auszugleichen, benötigt die gts so ca. 100mhz mehr chiptakt. (zumindest bei den meisten anwendungen). d.h. die gtx müsste ca. mit 660mhz chiptakt fahren, um bspw. die gleiche punktzahl im 06er erzielen zu können.

@neo
in letzter zeit surfe ich nichtmehr soviel mit dem laptop;)

@etakubi

von der nv. 8800 reihe hatte ich bisher 8xgtx + 7xgts + 2xultra
 
Zuletzt bearbeitet:
@ King
hattest ja schon ne ganze menge an Karten :hail:
Meine 88er ist seit meiner 6600Gt die erste NV wieder davor hatte ich nur ATi.
Aber nun habe ich in einem PC ATi und im anderen NV :d
 
Das ist bei mir auch so das nie die genauen Werte übernommen werden trotz Bios Mod bei mir, komisch.
Bei mir geht der Shadertakt so "Treppchenweise" hoch, immer 54 glaub ich.
Da gabs doch diese Tabelle mit dem Shadertakt, der nächste Wert der Liste zu deinen Einstellungen wird übernommen bei mir.

Zu den Temps 64°C sind beim Würfel absolut Top, das Temp Limit kenn ich leider nicht aber denke so bis 80°C sollte kein Prob sein.


Die GPU's von nVidia haben erst ab 120° nen Leistungsverlust... Das heisst ab 120° kommt dann die erste Warnmeldung.

Das hat ja in der nVidia-Systemsteuerung auch ne Temperaturkontroll-Funktion, wo Du sogar ne stetige Temperaturkontrolle aktivieren kannst. Da ist auch angegeben wo die Leistungsabfallgrenze ist. Normalerweise bei ab 120°. Da sind GPU's doch viel weniger empfindlich als etwa CPU's


> nVidia-Systemsteuerung

> TemperaturPegel überwachen
 
Zuletzt bearbeitet:
Ohne den ganzen Thread neuerdings gelesen zu haben: Gibts inzwischen eine Methode für Vista die 88er Serie zu flashen? Ich hatte es vor einigen Monaten mal versucht und bin an diversen Tools gescheitert, die nicht unter Vista liefen.
 
Von King-of-Kings
(um die fehlenden alus/shader der gtx auszugleichen, benötigt die gts so ca. 100mhz mehr chiptakt. (zumindest bei den meisten anwendungen). d.h. die gtx müsste ca. mit 660mhz chiptakt fahren, um bspw. die gleiche punktzahl im 06er erzielen zu können.)

Ah ok, danke! Dann bist du ja sogar über der Leistung der standard GTX. Hätte ich nicht gedacht!:drool:
Die GPU's von nVidia haben erst ab 120° nen Leistungsverlust... Das heisst ab 120° kommt dann die erste Warnmeldung.
Ok ab welchen Temps würdest du dir Sorgen machen?:fresse:
 
Zuletzt bearbeitet:
is das normal, das ich wenn ich ins ati-tool geh dann takt usw. auf null steht, is die version 0.27b, hab vista 64bit(glaub daran liegts), und hätte gern nen prog mit dem ich die graka komplettauslasten kann, so wie halt beim ati tool der artifactscann.
 
is das normal, das ich wenn ich ins ati-tool geh dann takt usw. auf null steht, is die version 0.27b, hab vista 64bit(glaub daran liegts), und hätte gern nen prog mit dem ich die graka komplettauslasten kann, so wie halt beim ati tool der artifactscann.

Es liegt nicht an Vista da ich das gleiche Problem auch unter XP hatte.
Kann dir nur empfehlen das du die 0.26 Version nimmst oder du versuchst es mit Riva Tuner.
 
hab gerade noch mal ein wenig rumgespielt. mich hats gewundert, dass meine karte nach dem booten 1200mhz shadertakt hatte. sobald ich 3 laufen hatte, kamen dann die eingestellten 456mhz. da gibts noch nen wert bei nbitor. nämlich die boot up frequencies oder wie das auch immer heisst. sitze am läppi. ^^ dort die 2D takte eingestellt und alles läuft rund. direkt nach dem boot die niedrigen 2 d takte. einfach der hammer. Aber einen nachteil hat die ganze sache... Mein Zimmer bleibt kalt. muss doch glatt die heizung einschalten... :lol:
 
@ all, die SLI betreiben

Woran sehe ich, ob die 2. Karte auch mitgetaktet wird? Angezeigt werden die Taktraten ja nur von einer Karte.
 
@ all, die SLI betreiben

Woran sehe ich, ob die 2. Karte auch mitgetaktet wird? Angezeigt werden die Taktraten ja nur von einer Karte.
Versuche es doch mal mit dem neuen Tool GPU-Z.
Da hast Du unten die Möglichkeit die Graka auszuwählen

Gruss Vince
 
Die neueste, offizielle ist die 1.41 und da geht das nicht.

Link?

edit: Ach GPU-Z heisst das Tool :fresse:
Hm, kacke an dem Tool ist, dass es meint SLI wäre disabled. Ist es aber nicht.
Hinzugefügter Post:
Also dieser "How To:Grafikkarten-Tuning per Bios Mod"-Thread gibt leider GARNIX her, was man mit bei NVflash machen muss.

Was muss ich tippen, damit ich das org. BIOS überschreiben kann? Das geht nämlich nicht...

nvflash /r name.rom oder wie?

Allerdings sind da noch millionen anderer Befehle.


Geht immer noch nicht. Ich bekomme immer "ERROR: PCI subsystem ID mismatch"!?!?!?
 
Zuletzt bearbeitet:
nvflash-Leertaste-Name.rom

Aber da du Sli hast weiss ich leider nicht wie du die 2. Graka flashen könntest.

Hab hier mal was drüber gelesen im Forum...finds jetzt leider nicht.

Zur Not kannst du ja die Karten tauschen zum Flashen.

MfG
 
Falsch - man muss "nvflash /6 name.rom eingeben. Musste ich leider selber herausfinden. Der BIOS-Flash-Thread gibt da leider nicht viel her. :(
Die Karte flashe ich immer einzeln - also Karte ganz raus. hat aber nichts mit der Fehlermeldung zu tun, die kommt auch bei nur einer Karte.
 
Zuletzt bearbeitet:
Ich habs bei meiner GTS selbst so gemacht wie ich dir geschrieben habe, hat funktioniert.
Sonst hätte ich dir das nicht geschrieben!:hmm:
 
Hat jmd vielleicht eine 8800GTX oder Ultra und mal die Timings mit Nibitor ausgelesen?
Bei den Timings gibt es ja versch. Sets. 8 an der Zahl (0-7). Standard scheint wohl Set 3 zu sein. Wofür sind die anderen? Ich mein, die Sets unterscheiden sich ja sehr stark bei den Timings.
 
@ Archiee
Beim Flashen kann ich nur die 3D Einstellungen ändern! Kannst mir mal erklären wie ich auch die Throttle & 2D Einstellungen ändern kann?
 
Hast du unter Nibitor beim Clockrate Tab den Haken gesetzt und 3 active permormance levels angewählt?

MfG
 
Dann mach das mal ^^

Dann hast du die Domänen zwischen denen er wechselt.

Es gibt auch schon fertige Files im Mod Thread da ist das alles schon fertig, schau doch mal vorbei!;)

MfG
 
Mal was zu GPU-Z...
Bei CPU-Z bin ich mir eig. sicher, dass die Takraten stimmen. Aber was ist mit GPU-Z???
Wenn ich zb 695MHz einstelle, dann wird das auch im GPU-Z angezeigt. Rivatuner zeigt mir aber 702MHz an - also die nächste Stufe nach 675MHz.
D.h. man kann GPU-Z eig. verbrennen...
Hinzugefügter Post:
Ich konnte übrigens letztens die VGPU einer Ultra messen. Da sind es so ziemlich genau 0,06V mehr @ idle/load als bei einer GTX. Das hört sich zwar nicht viel an, macht aber einiges am Takt aus.
Wenn ich endlich mal Zeit finde werde ich den V-Mod machen und erstmal nur diese 0,06V mehr einstellen. Ich werd dann mein GTX dann mit der Ultra meines Kumpels vergleichen. Wenn die dann genauso gut läuft, ist auf die Rev. A3 gesch... ;)
 
Zuletzt bearbeitet:
@ Archiee
Danke,werde ich morgen mal testen ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh