8800 GTS / GTX OC Thread (Part 6)

Status
Für weitere Antworten geschlossen.
shader bringt am meisten
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja du hast 1566, ich hab 1512, also die effektiven Werte, viel mehr geht wohl kaum bei uns 2 ;) wenn kannst noch 1620 testen
 
was fürn Proz und wie is die Ultra getaktet? siehe meine Sig, soviel hab ich mit meinem Sys und der GTX beim 3D Mark

Edit: hab bei mir mal das Ultra Bios geflasht, Nibitor zeigt zwar 1,35V Vcore wie bei der Ultra an, es hilft aber nichts beim Core/Shadertakt, hilft also nur Hardware VMod ?

Q6600@ 3600 MHz 1,35V
P35-DS4 @ 400 MHz ( 1600 MHz ) x 9 = 3600 MHz
2 x 2048 MB DDR2-1000 @ 1000 MHz CL5-5-5-15
XFX 8800 Ultra @ 702 / 1784 / 1051
Windows XP x64 SP2
NVIDIA Forceware 168.28 Standard-Settings
 
Ich meine mal gelesen zu haben dass man die GPU Spannung auch über das Bios verändern kann ergo ein modifiziertes Bios flashen und so dem VoltMod umgehen....geht das?

Edit: Kann ich es wagen meine beiden 8800GTX mit einem Ultra Bios zu flashen? 680MHz macht die GPU zwar mit, aber stürzt in Spielen dann nach ca. 10 minuten ab. Das Ultra Bios hat ja 0,05V mehr, die Wahrscheinlichkeit liegt doch dann in Verbindung mit einem Coretakt von 675Mhz sehr hoch dass die GPU damit stabil läuft oder?

Wie ist das eigentlich, darf man nur eine Grafikkarte während des Flashens am Board haben? Hab nämlich SLI...
 
Zuletzt bearbeitet:
Also nochmal für alle zum mitschreiben.

Spannungsänderungen:

G80 (GTS 320/640, GTX, Ultra) - nur per Harmod
G92 (GTS 512, GT) - per Softmod (Bios) (und natürlich auch Hardmod)

Demnach bringt es rein garnichts das Ultra Bios auf ne GTX zu flashen, außer das Risiko einer zerschossenen Karte. Einzig zum Anpassen der Taktraten und Lüftergeschwindigkeiten kann man das G80 Bios editieren, alles andere bringt nichts.
 
ok danke. Diese Info muss mir wohl beim Lesen entglitten sein...

Dann werd ich mir mal die nötige Hardware dafür zusammensuchen.
Habt ihr noch ein paar Tipps mit welchen Komponenten/Widerständen das ganze am besten funktioniert?
Gut wäre es wenn ich die Grafikkarten auch wieder auf die Grundspannung zurückstellen kann.
btw. kann ich die Anleitungen für den VoltMod an einer 8800GTS auch auf eine 8800GTX anwenden, weil für die GTX gibt es nur eine sehr ungenaue Anleitung bei area3D mit weitwinkelaufnahmen :fresse:
Ich habe wirklich schon Stunden gegoogelt und das Forum durchsucht aber ich finde immer nur Anleitungen zu der 8800GT oder GTS
 
wenn was gefunden hast jogi, gib Bescheid... suche auch
 
leute ich könnt göbeln..meine graka macht im moment nur die 621/1512/1026 stabil:heul: Also 20 minuten ati tool sollten reichen oder?

Aber trotz 80% lüfter wird die karte 85 grad heiß!! das ist zum kotzen, kein wunder das die net mehr packt. Kann mir jemand nen guten Kühler empfehlen?
 
Jo 20min ATI Tool und danach ausgiebig Zocken reichen... Thermalright HR-03 plus! Und dann nen 120er draufschnallen und Ruhe ist und auch kühl^^ Solltest dann maximal so auf 60° kommen. Dadurch ging meine Karte aber auch nur 25 Mhz beim Core (ROP) höher. Früher freezte er da irgendwann nach paar Min ATI Tool aber mit dem neuen Kühler nichtmehr, weils eben nimmer so warm wird.
 
Also ich bin von dem Papst 4412F/2GL begeistert, benutze den nur noch in meinen PCs. Zuverlässig und extrem leise :)
 
Wieso ist eigentlich eine G92 GTS so schnell wie eine G80 Ultra bzw. sogar schneller? 256Bit Speicherinterface und 256MB weniger Speicher müssten die Karte doch um einiges Ausbremsen, was nicht von ein paar mehr Shader-Einheiten und dem etwas höheren Takt ausmachen, oder? :eek:
 
@l@mer

Ich kann die 120er Xilence Redwing Lüfter empfehlen. Preiswert, super Durchsatz und auf 12V trotzdem leise!

@KGB44

Ne new GTS ist doch nicht schneller als ne oc'ed Ultra! Meine GTS hatte in Crysis sogar mehr FPS als ne non Oc GTX, aber das liegt nunmal daran das Takt doch immernoch etwas mehr zählt als weitere parallel arbeitende Einheiten. Aber mit Oc auf der Ultra sollte keine GTS da mehr schnelelr sien, außer die rennt 850 Mhz Core^^
 
Es hängt auch sehr viel von der Auflösung ab.....die GTX und Ultra Karten können erst bei hohen Auflösungen wie 1920x1200 + AA/AF und mehr, zeigen was sie drauf haben. Da machen sich dann nämlich die weiteren Einheiten bezahlt.

Edit: bzgl. 2x 1k Ohm Potis...... das hier ist eine Sicherheitsschaltung richtig? Da sich ja der Strom immer den Weg des geringsten Widerstandes sucht, muss man bei diesem Aufbau auch nur den einen Poti verstellen oder?
Ansonsten sollte es doch auch mit so einem einzelnen 500Ohm Spindeltrimmer funktionieren oder?
Weitere technische Daten: Grenzspannung 300 V
Ausführung: Einsteller seitlich Typ 64 X
Belastbarkeit: 0.5 W
Toleranz: ±10 %
Abm.: (B x H x T) 10 x 10 x 5 mm
Einstell-Bereich: 25 Umdrehungen
Temperatur-Koeffizient: 100 ± ppm/°C
Widerstand: 500 Ω
 
Zuletzt bearbeitet:
jop, läuft einwandfrei und extrem leise....mir ist noch nie einer kaputt gegangen.
 
so, aber jetrzt kommt die entscheidende frage: WIE baue ich den Standardlüfter sauber ab, und den neuen drauf? Hab da iwie schiss das da was kaputt geht. Also hinten auf dem pcb alle schrauben lösen, alte WLP runter, neue drauf( wie viel?) und dann den neuen lüfter genauso wieder verschrauben, oder?
Aber wie muss ich die schrauben anziehen? immer über kreuz?
 
Also beim Abbau des Kühlers wie bei der Montage verfahren -> alle Schrauben nacheinander möglichst gleichmäßig rausschrauben. Dann wirst du wahrscheinlich Probleme bekommen den Kühler von der GPU zu bekommen, klebt sehr stark daran fest.
Wenn es durch etwas drehen des Kühlers (immer leicht und vorsichtig, nicht viel kraft aufwenden) immer noch nicht lösen lässt, nimm etwas Zahnseide oder einen dünnen Faden und "schneide" so zwischen GPU und Kühler.

Am einfachsten kannst du den Kühler lösen wenn do vorher ein wenig zockst, denn im warmen Zustand lässt sich die WLP besser ablösen.

WLP nur soviel drauf dass du eine schöne gleichmäßige Fläche hast, nicht zu dick, aber es sollte schon alles bedeckt sein und die Schrift des Chips nicht durchscheinen. Am besten eine kreditkarte o.ä zum Verstreichen verwenden.

Wenn du bei der neuen Kühlermontage alle benötigten Schraben etwas reingeschraubt hast in ihre jeweiligen Löcher, die GPU Schrauben über Kreuz zuerst anziehen, dann den rest gleichmäßig nacheinander.
 
Zuletzt bearbeitet:
super danke für die anleitung:hail: okay, und wie mach ich dann den 120er auf den TR?
Da steht nämlich nur dabei, das da halteklammern für 92er lüfter bei sind.
 
keine Ahnung :fresse:
ja ne denk dir was aus....einfachste Methode wären Kabelbinder, möglichst lang und dünn damit sie die Lamellen nicht auseinander drücken.
 
Ein dicker Kabelbinder iner Mitte, fertig. Zwischen Lüfter und Kühler in die Mitte da wo der Motor sitzt n rundes Stück Schaumstoff oder so...bischen Erfindergeist tut gut :)
Ich würde den Xilence Redwing als Lüffi empfehlen, der fördert mehr und ist auch sehr leise und kost nur 4€ oder so!
Alten Kühler runter, indem man alle Schrauben löst^^ GPU sauber machen, dünn die Thermalright WLP auftragen die dabei ist und rauf mit dem Kühler. Schrauben über kreuz festziehen aber alle auf Anschlag (haben Federn). Vorher natürlich die RAM Freezer etc aufkleben/anbringen. Das Teil hat auch ne Anleitung, einfach mal reinschauen ;)

so sieht das bei mir aus:



(scheiß Handycam..)
 
Zuletzt bearbeitet:
ok, wie hast du den denn befestigt?

mit den beiliegenden halteklammern geht das wunderbar :rolleyes:
schaut dann zwar etwas schief aus aber das kann man ja eigentlich vernachlässigen :o

pict1724fz6.jpg
 
Die Ramkühler etc sind alle dabei! Meine Kabelbinder Methode geht super und er is grade und sieht gut aus, aber mach wie du denkst!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh