8800 GTS / GTX OC Thread (Part 3)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wie lasst ihr eigentlich den Shader-Takt laufen?

Ich hatte meine beiden Kärtchen bisher auf 702/1700/1150 laufen, leider haut DX10 so rein, dass es nicht stable ist. World in Conflict schmiert mir mit allem @max + 1920x1200 des öfteren ab.

Testet unter Vista mit DX10 @max. Settings unbedingt mal eure Karten, die Effekte hauen bei mir so rein wie nichts anderes.

Spielt mal die Demo inkl. Tutorial an einem Stück, würde mich interessieren obs auch bei anderen auch Probleme gibt.

Möglicherweise liegt es auch woanders dran, muss mal runterflashen und testen.
 
Zuletzt bearbeitet:
Ich spiel mit 648/1xxx?/1050 ohne irgendwelchen problemen, weder WIC noch Bioshock (hab leider kein vista).
 
Kann man im GraKa Bios auch irgendwo einstellen bei wie viel °C wie schnell sich der Lüfter drehen soll??
Also, das man selber Regeln für die Lüftersteuerung erstellt...
Wenn ja, wo/wie??

Weiß das vieleicht einer??
Ich benutze NiBiTor v3.4a dort kann ich aber nicht viel einstellen...
Und, was ist Throttling?? (Ist bei mir grau unterlegt)
Hinzugefügter Post:
wie lasst ihr eigentlich den Shader-Takt laufen?

Ich hatte meine beiden Kärtchen bisher auf 702/1700/1150 laufen, leider haut DX10 so rein, dass es nicht stable ist. World in Conflict schmiert mir mit allem @max + 1920x1200 des öfteren ab.

Testet unter Vista mit DX10 @max. Settings unbedingt mal eure Karten, die Effekte hauen bei mir so rein wie nichts anderes.

Spielt mal die Demo inkl. Tutorial an einem Stück, würde mich interessieren obs auch bei anderen auch Probleme gibt.

Möglicherweise liegt es auch woanders dran, muss mal runterflashen und testen.

Ich spiele unter Vista per DX10 und habe keine problme...Auch nach 1-3Stunden...
 
Zuletzt bearbeitet:
wie lasst ihr eigentlich den Shader-Takt laufen?

Ich hatte meine beiden Kärtchen bisher auf 702/1700/1150 laufen, leider haut DX10 so rein, dass es nicht stable ist. World in Conflict schmiert mir mit allem @max + 1920x1200 des öfteren ab.

Testet unter Vista mit DX10 @max. Settings unbedingt mal eure Karten, die Effekte hauen bei mir so rein wie nichts anderes.

Spielt mal die Demo inkl. Tutorial an einem Stück, würde mich interessieren obs auch bei anderen auch Probleme gibt.

Möglicherweise liegt es auch woanders dran, muss mal runterflashen und testen.


Hi,
du hast vollkommen recht das Vista unter DX10 alles der/den Grakas abfordert, war beim Kunden der ein SLI System mit 2xGTX hat, es sind 2 von XFX mit einem Takt von 630, wie du sagst bissel WIC und peng, entweder rausgeflogen oder freeze, hab sie auf 610 geflasht und siehe da alles OK.
Wenn du wirklich sicher gehen willst das es an den Karten liegt, leih dir GRAW 2 aus, das Spiel ist sehr empfindlich was das übertakten der Grakas angeht, das Spiel freezed nach 1-2 min.....

Gruß
Martin
 
Sollten die ganzen 3deuro03/05/06 nicht mehr auslasten als nen game? (wenn man so 10 loops macht?)
 
Hi,
du hast vollkommen recht das Vista unter DX10 alles der/den Grakas abfordert, war beim Kunden der ein SLI System mit 2xGTX hat, es sind 2 von XFX mit einem Takt von 630, wie du sagst bissel WIC und peng, entweder rausgeflogen oder freeze, hab sie auf 610 geflasht und siehe da alles OK.
Wenn du wirklich sicher gehen willst das es an den Karten liegt, leih dir GRAW 2 aus, das Spiel ist sehr empfindlich was das übertakten der Grakas angeht, das Spiel freezed nach 1-2 min.....

Gruß
Martin

Ah, danke für deinen Beitrag.
Ich habe jetzt auch mal etwas zurückgetaktet, muss noch testen.
In DX9 lief es bei mir monatelang ohne Probleme!

Sollten die ganzen 3deuro03/05/06 nicht mehr auslasten als nen game? (wenn man so 10 loops macht?)

Nein, das lastet scheinbar trotzdem nicht derart aus.
Ich denke man kann es mit einem nicht 100% ausgelastetem Dual-Core vergleichen. Wenn die Karten aber nicht am Limit laufen, sollte es wohl trotzdem nicht absemmeln.
 
@friendly + ipanic

die karte aus meiner signatur ist eine pov (auch in der liste) und wurde mit einem voltmod versehen.

die jetzige xfx (rev a03)kann die 700/1100 24/7+gamestable (auch dx10) abrufen! für den 3dmark-durchlauf habe ich das ati-tool (übertakten) verwendet. --> wahrscheinlich noch diese woche im mp zu finden. (abhängig von der leistung meiner gtxen)
 
Zuletzt bearbeitet:
@Snoopy69: Die geht leider nur 621/1050. Aber egal. Sie läuft bei mir eh nur im default Takt, also dem OC von MSI. Das reicht doch :).

Heute ist mein EK gekommen. Mal sehen vielleicht geht da noch was (nur Interessehalber versteht sich ;)). In erster Linie wegen dem lauten Lüfter. Sobald ich 3D starte geht der auf 90-100 % und das nervt. Kann auch an fehlenden Gehäuselüftern in der Front liegen.
 
@ Ralf 1 also mit nem Wasserkühler gehn nochmal gute 30mhz mehr vill auch noch mehr kommt frauf an.
 
wie kommst du darauf? ist schon irgend einem seine karte abgeraucht. ich hab davon noch nichts gelesen.

Vom freund sind schon 2 karten abgeraucht, eine hatte voltmod (warscheinlich war das der grund) und die andere einfach so, (komplett wassergekühlt, maximal 50C°). Ich sagte ja es war nur eine vermutung.

Mal ne andere frage, wenn ich ne wakü auf meine GTX draufklatsche muss ich die SLI bridge noch extra kühlen weil die ja auch ein risikofaktor ist?
 
Zuletzt bearbeitet:
Wenn du so nen kompletten Kühler kaufst wird doch eh alles gekühlt. Oder was möchtest du montieren?

Eigene Frage: Gibt es aus "übertaktungstechnischer" Sicht irgendwelche Einwände gegen die 640mb Leadtek? Beispielsweise schlechten Speicher oder dass der originale Kühler (der bei ihr ja anders ist) schlechter kühlt falls keine Wakü montiert wird etc?
Die würde es nämlich schon für 299€ geben was ein sehr guter Preis ist. :d
 
Kannst ne gute oder schlechte erwische. Das ist total Herstellerunabhängig. Die fallen alle vom gleichen Band. Denke aber das die GTS z.Z. allg. mehr OC-freundlich sind als die GTXen.
 
Wie sieht es mit den ultras aus? Lassen sich die prozentual besser takten als die GTX oder nicht?
 
Kannst ne gute oder schlechte erwische. Das ist total Herstellerunabhängig. Die fallen alle vom gleichen Band. Denke aber das die GTS z.Z. allg. mehr OC-freundlich sind als die GTXen.

Dass sie eigentlich alle gleich sind weiß ich doch ;)

Trotzdem gibts Ausnahmen wie die Zotac mit dem angeblichen A03 oder unterschiedliche Speicher. Kam ja immer wieder mal auf.
Na vermutlich werd ich die bestellen.
Alle andren sind ja eigentlich fast 20€ teurer...

Edit: Die Ultras haben halt mehr Spannung drauf und besseren Speicher.
Also kannst du damit eigentlich schon etwas mehr Takt erreichen, aber nach meiner Erfahrung nicht unter Lukü.
Mit Wakü gingen fehlerfrei 702 und 1160mhz, "stabil" aber mit Artefakten würden auch die 729mhz noch laufen...
 
Zuletzt bearbeitet:
Mal ne andere frage, wenn ich ne wakü auf meine GTX draufklatsche muss ich die SLI bridge noch extra kühlen weil die ja auch ein risikofaktor ist?

Ich verstehe die Frage nicht. Die SLI-Bridge ist doch das Verbindungsstück zw. 2 Karten!?!?!?

Ich finde eine Ultra völlig sinnlos. @ default hat sie grade mal 2-3% mehr Power (nicht spübar), kostet aber gleichmin. 100€ mehr (ziemlich spürbar). Vielleicht hilft das weiter.

http://www.oc.xise.de/view.php?dbID=3&limit=all&sort=asc&colum=Core-Takt&search=&searchcolum=
 
Zuletzt bearbeitet:
Vom freund sind schon 2 karten abgeraucht, eine hatte voltmod (warscheinlich war das der grund) und die andere einfach so, (komplett wassergekühlt, maximal 50C°). Ich sagte ja es war nur eine vermutung.
QUOTE]

dann will ich wahrlich mal hoffen, dass es bei deinem freund am v-mod lag :-)

bisher hat meine karte noch keine fehler gezeigt.
 
Ja, die eine karte wird wohl zu viel saft bekommen haben. Wieso die andere aber bildfehler hatte, konnte keiner beantworten. Selbst in der RMA konnte nix festgestellt werden.
 
So, bei mir ist es jetzt doch eine Sparkle GTS geworden. Kotzgrün (oh Gott, warum hab ich mal meine schwarze XFX verkauft...:fresse: ), aber laut Rivatuner immerhin mir Revision A3.
Deshalb hoffe ich dann auch ordentliche Takte von der Karte.
Werds wohl erst morgen ausprobieren, da ich heute schon recht k.o. bin.

p.s. wenn einer an der Ultra interessiert ist melden. Die kommt sonst in den MP
 
@ Flying warum kaufst du erst ne ultra und holst dir dann ne gts, die logik versteht ich nich ganz
 
Ich habe meine Sparkle GTS 320 MB auf Core 600 MHz und Speicher auf 900 MHz getaktet und die wird unter last ca. 82 °C warm. Ist das schlimm oder kann man das so lassen?
 
Danke schön!
 
@ Flying warum kaufst du erst ne ultra und holst dir dann ne gts, die logik versteht ich nich ganz

Dem kann ich nachhelfen ;)

-Vorher hatte ich ne GTS
-Meinte dann, ich brauch ne ultra

Jetzt hab ich halt festgestellt, dass ich in letzter Zeit aber nur noch 2-3 Std. pro Woche spiele, das ist dann momentan Bioshock, was mit GTS genauso auf maximalen Settings und 22" spielbar ist wie mit der Ultra. Das nächste wird wohl HL2-2 sein, das auch sicher damit mehr als ausreichend läuft.
In 3-4 Wochen gehts bei mir auf in die letzten beiden Semester und ich werde kaum noch Zeit zum zocken finden.
Davon abgesehen kommt dann in 2-3 Monaten ja vermutlich der Nachfolger. Wenn also die GTS nimmer reicht kann ich eigentlich direkt auf die nächste Gen wechseln.
Aus dem Grund machts für mich eher Sinn, jetzt mit Gewinn wieder auf ne GTS abzurüsten.
Denke das hat alles erklärt... halbe Lebensstory hier. :rolleyes:


Und jetzt :btt:


Hab die Sparkle direkt mal auf (is ja nix) 567 und 900 hochgedreht, sehr angenehme Temperaturentwicklung unter Last. Eigentlich nicht mehr als 76° mit Hilfslüfter, der die warme Luft abführt.
Man verbrennt sich schonmal nicht die Finger an den Schrauben der Karte wie bei der Ultra :d
Idle jetzt nach dem Spielen 60° bei etwa 27° Raumtemperatur.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh