8800 GTS / GTX OC Thread (Part 3)

Status
Für weitere Antworten geschlossen.
Seit vorgestern auch im besitz einer GTS ^^

Die macht auf anhieb 665/1522/1000Mhz

Ist eine XFX Rev. A3

Heute Nachmittag werde ich noch mehr testen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@el_paulus welchen treiber nimmste ? mit dem 163.69 beta hatte ich das auch
mit dem 163.44 gings wieder.den 69final oder 72 beta hatte ich noch nicht drauf
vielleicht kann da jemand anders ne aussage zu machen
 
@bigghost

habe denn final Treiber 163.69 draufgehabt.
nun eben den neusten Beta Treiber 163.71 raufgehauen,
und siehe da es geht. thanks
 
:) bin die 71 auch gerade am testen und klappt bestens damit wieder.

und back to topic muß ich mal sagen das viele ja meinen und jammern
das der shadertakt angeblich verhindern soll das man mit der gpu besser übertakten kann.ich hatte nun 2 8800 gts ne 320 und nun ne 640mb beide
leider a2 steppings.und habe bei beiden karten mit rivatuner den shadermulti von 2.3 auf 2.5 angehoben.und somit bei nem gputakt von 648 den shader auf 1620 gehabt der normal auf 1458 gewesen wäre und alles fehlerfrei.die nächste taktstufe 66x gpu habe ich nie hinbekommen ohne freezes auch runtertakten des shaders brachte nix.und ich denke das bei vielen oder sogar allen karten der shader weit aus mehr als 1500 kann nur die gpu ohne voltmod ist einfach bei 621/648 am ende.
 
Zuletzt bearbeitet:
@ Mayk-Freak

Mehr Angaben wären nicht schlecht. Ist das nur eine Ultra? Seltsam, dass ich nur wenig mehr mit GTX-SLI hab. Aber scheinbar sind die Defaulteinstellungen von 3DM06 völlig unbrauchbar, da die Karten kaum gefordert werden. D.h. es wird stark die CPU limitieren. Wird Zeit, dass Futuremark.com mal aufwacht und 1280x1024 + alles hoch als default setzt. Denn ohne AA + AF wird eine hochgetaktete GTS und einer GTX fast gleich ziehen oder übertrumpfen. Was mit AA + AF (oder sehr hoher Auflösung) aber ganz anders aussieht (mehr Schein als sein). Was hast du denn für einen Monitor? Welche Auflösung kannst du noch fahren?

Es ist nur eine Ultra, auf dem Foto sieht man die Taktraten. Ich habe eine 22'' @ maximal 1680 x 1050 und einen 42'' Full HD @ maximal 1920 x 1080.



@Sir Ozelot:

Du durchschaust mich! :d
 
mal ne frage an die, die ihre GTX auf ultra geflashed haben und zwar:

wenn ich eine 8GTX auf Ultra flashe, bleiben Spannungen alle erhalten, oder wird Vram angehoben wegen dem höheren Takt ? oder hilft da nur Löten ?
 
hi,

den shader takt kann ich doch nur mit nibitor direkt verändern oder?

weil bei riva tuner habe ich noch nix gefunden oder nutzt ihr ein anderes tool?

Habe ne A3.Komme locker bis 700mhz core und 1100 speicher.Aber mit wakü.Mit lukü nie ausprobiert.
 
Zuletzt bearbeitet:
Danke,funktioniert.

Jetzt habe ich was zu tuen,erstmal testen wer mich blockt bei 750mhz core.entweder shader oder core.
 
Ok soviel bringt mir das mit dem shader nicht.Also der GPU geht nicht höher wie 702mhz.den shader habe ich jetzt auf 1679mhz und gram auf 1080mhz.

naja muss reichen.wenns irgendwann nit mehr reicht kommt nen hardware mod dran,wenn ich die karte dann noch habe.:xmas:
 
Hi. Hab lange nichts mehr in dem Thema verfolgt.
Aber gibt es ne möglichkeit die Spannung bei der 8800GTS zu erhöhen ohne zu löten??

Es gibt einen Pencil-Mod. Weiß aber nicht ob der wirklich funktioniert und wird auch nichts groß bringen. Am Besten ist der GPU-Voltmod, den kann man aber leider nur löten.
Hinzugefügter Post:
mal ne frage an die, die ihre GTX auf ultra geflashed haben und zwar:

wenn ich eine 8GTX auf Ultra flashe, bleiben Spannungen alle erhalten, oder wird Vram angehoben wegen dem höheren Takt ? oder hilft da nur Löten ?

Die Spannungen erhöhen sich nicht mit. Diese kann man nur per Mod erhöhen.
Hinzugefügter Post:
Kannst du mal in 1920x1200 8AA (2Q) 16AF durchbenchen? ;)

Was soll das bringen? Ich habe doch bereits geschrieben, dass meine maximale Auflösung die ich habe 1920 x 1080 ist. Solche extremen Einstellungen ist eher was für Quad SLI oder SLI! Oder bei welchen Spielen stellt man so was ein? Außerdem sollte wir beim Thema bleiben, hier gehts mehr um Taktraten und oc als um Auflösungen mit Qualitätseinstellungen.
 
Zuletzt bearbeitet:
Der neuste RV ist mal richtig erste Sahne
 
Ne ist der neuste! Mit dem kannst den Shadertakt separat Einstellen ;)
 
Nö, mit dem rivatuner kann man den shadertakt bei mir net seperat erhöhren:(. Meiner ist iwie automatisch auf 1620..vllt ist das zuviel für meine graka..wie kann man den da einstellen?

mfg
Vincent
 
Was soll das bringen? Ich habe doch bereits geschrieben, dass meine maximale Auflösung die ich habe 1920 x 1080 ist. Solche extremen Einstellungen ist eher was für Quad SLI oder SLI! Oder bei welchen Spielen stellt man so was ein? Außerdem sollte wir beim Thema bleiben, hier gehts mehr um Taktraten und oc als um Auflösungen mit Qualitätseinstellungen.

Ich wollte doch nur sehen, wie die übertaktete Ultra bei starker Belastung skaliert und beweisen, dass 3DMark @ default sowieso sinnlos ist. Oder was denkst du wie es sein kann, dass eine übertaktete GTS fast mit einer GTX/Ultra gleich zieht oder sogar mehr Punkte bringt? Erst bei höherer Belastung (höhere Auflösung oder AA) gewht die "Schere" zw. GTS und GTX/Ultra auseinander.
D.h. dieses Default-Gebenche kann man sich sparen, da fast jeder hier im Spiel AA + AF eingeschaltet hat und eine GTS trotz hoher Rohleistung (wie HD2900XT) bei entsprechender Belastung wesentlich früher in die Knie geht als eine GTX/Ultra. Was im 3DMark @ default aber so nicht erkennbar ist ;) Deshalb verstehe ich nicht, was Futuremark sich dabei gedacht hat. Da sollte standardmäßig AA+AF eingeschaltet sein.

Und da du schon 15000 Punkte mit einer Ultra hast und ich nur ein bissl mehr mit 2 GTX wollte ich nur wissen wie die übertaktete Ultra bei den 1920 x 1080 + alles hoch skaliert. Da müsste man schon ordentlich was sehen. Wäre nett, wenn du das mal machen könntest. Bitte mit Details (FPS-Angabe) wie in meinem Post oben.
 
Zuletzt bearbeitet:
Grafikdemos zu benchen kann man sich komplett eh sparen. Ich hatte ja auch schon mit einem Auge auf die GTX geschielt (wegen Armed Assault) Aber nach dem ich erfahren habe das meine GTS @648/900 genauso schnell wie eine GTX ist, GPU lim. stelle bei Arma, spare ich mir den kauf. Bei 1280x1024 wirklich nicht lohnenswert. Bei 1680 mag das vielleicht wieder anders aussehen, aber für mich mehr als uninteressant.


Und warum sollte in 3dMark standartmässig AA akitv sein? Nur damit die wenigen High End User auf ihre kosten kommen? Blödsinn hoch³. Dafür gibt es ja die netten Optionen, die ja allerdings nur in der Full verfügbar sind.
 
Zuletzt bearbeitet:
cool, ne gts auf 648/1800 ist teilweise schon so schnell wie ne gtx? Dann hatte ich mir zum glück auch keine gtx geholt. Meine ist ja nochmal ein tucken schneller.

mfg
Vincent
 
Läuft sie mit dem Takt stabil? Auch im Artefactscan?
 
also mit dem artefact scan habe ich iwie nur probleme aber das war auch schon mit der 1800xt so...das ati tool mcht bei mir generell nur mist. läuft 10 minuten stabil, dann kurz verzerrter ton und die karte läuft mit 500/2000 weiter:fresse: scheiß tool. Aufjedenfall in games und 3dmark ist sie herrlich stabil. ich scheiß auf so ein scan von nem beschissen tool was bei mir noch nie gefunzt hat. schade das das tray tools net mit nvidias funzt:(.

mfg
Vincent
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh