8800 GTS / GTX OC Thread (Part 4)

Status
Für weitere Antworten geschlossen.
kann es sein, dass eine memtakterhöhung im gegensatz zur gputakterhöhung fast nichts bringt?
10 mhz cpu takt bringen mir 200 punkte im schnitt
10 mhz memtakt 10-15 punkte im schnitt
habe eine xfx 8800 gtx xxx läuft immo auf 640/1060 bei 650/1060 hatte ich nen freeze bei css nach 30 minuten, aber eigentlich sollte die karte das ja schaffen?
habe lüfter dauerhaft auf 100% laufen.
wie hoch meint ihr kannsch den memtakt noch schieben?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du montioerst besser den neusten Treiber... dann kannst Du zus. den Shadertakt raufschrauebn... Bei Shaderlastigen Games wirst Du staunen, was das bringt.

Und das ist normal, dass GPU Takt mehr bringt, als Memory...

Eventuell je nach Game... Bei COD2 wirst Du den Memory Takt sicher merken.

Aber die Shader machen auch viel aus... wobei Du hast ja bereits ne GTX XXX ... da ist halt nicht mehr soviel zu holen, wie bei einer GTS, die man auf GTX Niveau oc.
 
Wie äussert sich ein zu Hoher Shadertakt? ATT Artefakte? Blackscreens?

Edit: habs rausgefunden... gibt arg viel Artefakte in ATT ;)
 
Zuletzt bearbeitet:
Meine gelesen zu haben das man bei ner GTX möglicht nicht höher als 1500MHZ Shadertakt gehen soll, weil sie dann schneller hops gehen soll. Ist da noch was dran?
 
Meine gelesen zu haben das man bei ner GTX möglicht nicht höher als 1500MHZ Shadertakt gehen soll, weil sie dann schneller hops gehen soll. Ist da noch was dran?

das würde mich auch mal interessieren.

Ich habe eben mal das ATI Tool drauf gehauen, und Rivatuner, habe dann mal Maximalen Chiptackt herausfinden angeklickt, bei 702mhz gabs nen Freeze.

Ist das nun noch so, das sich der Tackt nur in bestimmten Schritten Erhöht?

Und wie geht ihr beim OC vor? Immer in kleinen Schritten und dann den Fellwürfel oder Benchmark oder Games zum Testen?

Und auch meine frage, sind 1500mhz < Shadertakt nicht gut?
 
Also meine läuft seit monaten bei 1620 mHz und noch nix gemerkt (btw: 1500 bei ner GTS, 1700 bei ner GTX wie ich gelesen habe).
 
so ich hab meinen Stabilen Maximaltakt ausgelotet:

648 / 1620 / 1008 - bei Wakü

nicht gerade viel, aber mehr gibt die Karte halt nicht her :(
 
Aber dafür müsstest du gute Temps haben wenn deine Karte mit Wasser gekühlt wird.
Dann sollte man sogar damit dauerhaft Spielen können.
 
natürlich ;) Die GPU Diode misst keine 50°C beim zocken.
Hab nun noch ein 2D Profil angelegt mit 144/364/225 - 35°C GPU im Idle.
 
Sind sehr schöne Temps aber was ich nicht verstehe, warum die meisten ihre Karten immer soweit Runter Takten im 2D.
Ich bin mir nicht Sicher ob das wirklich etwas bringt, gut ich muß dazu sagen das ich 2 Systeme habe und meine 8800er nur zum Spielen oder Testen nutze also von daher ist es egal wie sie läuft.
 
btw, wenn ich mit riva tuner overlocke dann overlocke ich auch automatisch ein wenig den shader takt.. habe 1350 default und jetzt 1382
 
@etakubi:

- kleinere Idletemperaturen -> Wassertemp
- 40W Einsparung im Idle vom 3D zum 2D Profile.

40W tönt nach wenig, doch machen viele kleine Einsparungen meist recht viel aus. Ich mach dies nicht aus Kostengründen, sondern aus Effizienzdenken und Umwelt.

CPU kommt als nächstes drann, die muss nicht immer 4x 3.6GHz haben :fresse:

Ich möchte einfach das Maximum aus meiner Hardware rausholen (Ohne Löten) und damit auch weniger verbrauch beim Surfen und Idle.
 
@ Twinnie
Gut deine Erklärung ist einläutend aber für mich nicht von Relevanz da ich wie gesagt zwei PCs nutze wie man an meiner Sig. sehen kann.
Mein Gamer ist kaum an und wenn dann für Tests oder zum Spielen und da brauche ich dann kaum einen geringen 2D Modus.
 
@etakubi:

- kleinere Idletemperaturen -> Wassertemp
- 40W Einsparung im Idle vom 3D zum 2D Profile.

40W tönt nach wenig, doch machen viele kleine Einsparungen meist recht viel aus. Ich mach dies nicht aus Kostengründen, sondern aus Effizienzdenken und Umwelt.

CPU kommt als nächstes drann, die muss nicht immer 4x 3.6GHz haben :fresse:

Ich möchte einfach das Maximum aus meiner Hardware rausholen (Ohne Löten) und damit auch weniger verbrauch beim Surfen und Idle.

funktioniert das einfach so, das man im Rivatuner z.B. unter 2D Profil das Niedrigste an Takt einstellt was geht, und das dann übernimmt und im 3D seine übertakteten Werte und das funktioniert Reibungslos?

Also macht die Karte das ohne murren mit das Untertakten?

Ist das bewiesen, das es weniger Verbrauch ist?

Sind aber kaum niedriger deine Temperaturen dadurch, oder? Deine Temps habe ich mit Standardtakt ohne Last

Würde mich freuen, wen du da mal was schreibst
 
Takt 200/1000 zu 630/1000 macht bei mir ca 5 Grad idle-Temp aus und ja, das macht die Karte problemlos. Das mit dem Übertakten im Rivatuner klappt auch problemlos, ja.
 
Zuletzt bearbeitet:
Meine gelesen zu haben das man bei ner GTX möglicht nicht höher als 1500MHZ Shadertakt gehen soll, weil sie dann schneller hops gehen soll. Ist da noch was dran?

Mich interessiert das auch, aber ich glaube irgendwie nicht dran. Minimal weniger Lebensdauer, aber bestimmt nicht rapide. Bei mehr VGPU allerdings ist eine kürzere Lebensdauer klar.

Hat wirklich NIEMAND einen Multimeter, um mal die VGPU seiner GTX/Ultra zu messen? oder traut sich nur keiner? Wie gesagt hat die Ultra ca. 0,05-0,06V mehr VGPU @ idle/load als eine GTX. Und zwischen idle und load (bei GTX und Ultra) sind es auch ca. 0,06V. Also unter Last fällt die VGPU um diese 0,06V.

GTX - idle 1,3V / load 1,24V
Ultra - idle 1,35V / load 1,29V

Was konntet ihr messen?

Was mich sehr an der 8800GTS/GTX/Ultra stört, dass es quasi GARKEINE Energiespar-Methode gibt. Könnte marketingtechnische Gründe haben. Eine GPU, die immer Standard-VGPU hat, geht statistisch gesehen evtl. schneller kaputt. Elektromigration gibt es ja immer - auch OHNE OC!!!

Oder soll ich ganz weit ausholen?
Viell. hat NV einen Pakt mit den Ölmultis. Mehr Stromverbrauch, gleich mehr Öl- bzw. Gasverbrauch zum Herstellen von Strom :fresse:
Die Politik/Wirtschaft ist manchmal grausamer/gerissener als man denkt ;)

Aber eine Grund, warum es keine Energiespar-Methode bei G80 gibt finde ich keinen. Ich kenn mir jedenfalls niemals vorstellen, dass NV das nicht hinbekommen hätte.
Weiss jmd genau warum?
 
Zuletzt bearbeitet:
sind etwa 40W Gesamtsystemverbrauch, ich habs nachgemessen. Allerdings von 648/1620/1008 auf 144/364/225 runter.

Ich finde es auch beschissen, dass die VGPU nicht verändert werden kann. Sei es für OC oder wenigstens für UC :(
Shame on you Nvidia! Nichtmal stromsparen...

Was mich auch stört ist der Stromvergleich bei G80 vs. HD2900... ok, bei Last frisst die ATI mehr - dafür gibts dort ein 2D Profile mit weniger Spannung und Takt.


@BlackPitty: Hier gibts ein Tutorial klick me!
 
Mich interessiert das auch, aber ich glaube irgendwie nicht dran. Minimal weniger Lebensdauer, aber bestimmt nicht rapide. Bei mehr VGPU allerdings ist eine kürzere Lebensdauer klar.

Hat wirklich NIEMAND einen Multimeter, um mal die VGPU seiner GTX/Ultra zu messen? oder traut sich nur keiner? Wie gesagt hat die Ultra ca. 0,05-0,06V mehr VGPU @ idle/load als eine GTX. Und zwischen idle und load (bei GTX und Ultra) sind es auch ca. 0,06V. Also unter Last fällt die VGPU um diese 0,06V.

GTX - idle 1,3V / load 1,24V
Ultra - idle 1,35V / load 1,29V

Was konntet ihr messen?

Was mich sehr an der 8800GTS/GTX/Ultra stört, dass es quasi GARKEINE Energiespar-Methode gibt. Könnte marketingtechnische Gründe haben. Eine GPU, die immer Standard-VGPU hat, geht statistisch gesehen evtl. schneller kaputt. Elektromigration gibt es ja immer - auch OHNE OC!!!

Oder soll ich ganz weit ausholen?
Viell. hat NV einen Pakt mit den Ölmultis. Mehr Stromverbrauch, gleich mehr Öl- bzw. Gasverbrauch zum Herstellen von Strom :fresse:
Die Politik/Wirtschaft ist manchmal grausamer/gerissener als man denkt ;)

Aber eine Grund, warum es keine Energiespar-Methode bei G80 gibt finde ich keinen. Ich kenn mir jedenfalls niemals vorstellen, dass NV das nicht hinbekommen hätte.
Weiss jmd genau warum?

Wie gut dass ich auf Refreshchips warte und die X1900 XT 512er noch im Zweit Sys reicht. Da kann ich auch schön die Spannung mit Atitool ändern. ;)

Echt eigenartig, dass die G80 Karten in 2D so viel aufnehmen! Bei den Vorgängerchips hats ja auch geklappt!
 
Weiß jemand wie man eine GTX als Ultra anzeigen lassen kann?
Ich kann zwar die Takte einer Ultra einstellen (damit läuft die GTX auch), aber im Geräte-Manager wird sie immer als GTX angezeigt. Mit dem Nibitor ist es irgendwie nicht möglich aus einer GTX eine Ultra zu manchen (als Anzeige). Wenn ich ein orginal Ultra-Bios nehme, dann lässt sich das unmöglich flashen, wegen falscher "Board ID". Hat jemand eine Idee?
 
Mich interessiert das auch, aber ich glaube irgendwie nicht dran. Minimal weniger Lebensdauer, aber bestimmt nicht rapide. Bei mehr VGPU allerdings ist eine kürzere Lebensdauer klar.

Hat wirklich NIEMAND einen Multimeter, um mal die VGPU seiner GTX/Ultra zu messen? oder traut sich nur keiner? Wie gesagt hat die Ultra ca. 0,05-0,06V mehr VGPU @ idle/load als eine GTX. Und zwischen idle und load (bei GTX und Ultra) sind es auch ca. 0,06V. Also unter Last fällt die VGPU um diese 0,06V.

GTX - idle 1,3V / load 1,24V
Ultra - idle 1,35V / load 1,29V

Was konntet ihr messen?

Was mich sehr an der 8800GTS/GTX/Ultra stört, dass es quasi GARKEINE Energiespar-Methode gibt. Könnte marketingtechnische Gründe haben. Eine GPU, die immer Standard-VGPU hat, geht statistisch gesehen evtl. schneller kaputt. Elektromigration gibt es ja immer - auch OHNE OC!!!

Oder soll ich ganz weit ausholen?
Viell. hat NV einen Pakt mit den Ölmultis. Mehr Stromverbrauch, gleich mehr Öl- bzw. Gasverbrauch zum Herstellen von Strom :fresse:
Die Politik/Wirtschaft ist manchmal grausamer/gerissener als man denkt ;)

Aber eine Grund, warum es keine Energiespar-Methode bei G80 gibt finde ich keinen. Ich kenn mir jedenfalls niemals vorstellen, dass NV das nicht hinbekommen hätte.
Weiss jmd genau warum?

Meine Ultra ist leider verpackt, sonst hätte ich messen können. :fresse:

Weiß jemand wie man eine GTX als Ultra anzeigen lassen kann?
Ich kann zwar die Takte einer Ultra einstellen (damit läuft die GTX auch), aber im Geräte-Manager wird sie immer als GTX angezeigt. Mit dem Nibitor ist es irgendwie nicht möglich aus einer GTX eine Ultra zu manchen (als Anzeige). Wenn ich ein orginal Ultra-Bios nehme, dann lässt sich das unmöglich flashen, wegen falscher "Board ID". Hat jemand eine Idee?

Das geht trotzdem. Diese Board ID Meldung einfach "ignorieren".
 
Meine Ultra ist leider verpackt, sonst hätte ich messen können. :fresse:



Das geht trotzdem. Diese Board ID Meldung einfach "ignorieren".

Da iss aber nix mit ignorieren. Das Flash-Programm bricht dann ab.
Du hast es nie probiert, oder?
Wenn doch, dann schreib bitte was ich genau eingeben muss. Einfach nur "nvflash name.rom" geht nicht. (nur bei orginal Biosen)
 
Zuletzt bearbeitet:
klar habe ich das probiert. Sonst würde ich sowas niemals schreiben...

Ich hatte meine GTX auch auf Ultra geflasht.

nvflash -i0 -4 -5 -6 name.rom
 
klar habe ich das probiert. Sonst würde ich sowas niemals schreiben...

Ich hatte meine GTX auch auf Ultra geflasht.

nvflash -i0 -4 -5 -6 name.rom

Ist es egal ob "/" oder "-" vor dem Zusatz steht?
"-i0" steht für Index 0. Ist das die Karten-ID oder warum "0"?
Und für was steht "-4"? ich konnte da nix finden außer 5 und 6
Hinzugefügter Post:
webwilli - du bist mein Held!!! :) :hail:

Lag es nun am Zusatz -i0 oder an -4?
 
Zuletzt bearbeitet:
Habe nun meine Karte auch ein bissel übertaktet.

Ist eine BFG 8800GTX, eine der ersten Karten.

Habe erstmal nur die GPU übertaktet, Ram kommt jetzt noch, aber ich schaffe in meinen Augen schonmal sehr gute 684mhz stabil:bigok:

mal schauen, ob ich mich an die 702 ran wage, aber ich denke, das sie da in die Knie gehen wird, bin aber mehr als zufreiden.

Temperaturen unter Last sind 44°:banana:
 
Ich habe meine 8800GTS640mb (Rev 3) von MSI die OC variante auf 670/940 übertaktet vielleicht gehts noch mehr aber ich bin mit den ergebniss zufrieden.

Was mir nur sorgen macht ist ein Ausrufezeichen bei Hardwareüberwachung vom Rivatuner (Ver.2.05)und zwar bei Kerntakt/Shadereinheit Mhz es steht bei 1566 Mhz.
Besonders Wrm wird die karte nicht ich habe ewta 62° C bei einmal 3Dmark06 durchlauf.

Is das gefährlich mit dem shader Takt ?
Sollte ich ihn vielleicht runter setzten ?

Ich wäre euch für jeder Hilfe dankbar.


Ich habe jetzt den Shader Takt auf 1458 runter gesetzt. Ich hoffe es macht nichts aus das ich das häckchen beim sperren weggeklickt habe und ihn manuel runtergesetzt habe.


Ich konnts nicht lassen bei 720 Core 990 Speicher (Shader habe ich auf 1480 gelassen) hat sich der 3DMark06 aufgehängt. Ich werds mit 700/970 betreiben ich denke das müsste "sichere" einstellung sein. Komischerweise ist die Temp nicht mehr als 65°C.
Hinzugefügter Post:
Mist nach ca. 30min world in conflict hat sich das Spiel augehängt. Muss es wohl mit 690/960 versuchen meine Sig. ändere ich wenn es zu 100% Läuft.
 
Zuletzt bearbeitet:
mal ne frage, speicher ist nun bei 1080, beim ATI tool sieht man 2 kleine gelbe blinkende Pixel, dran steht aber 0 Fehler, und in 3D Mark sehe ich auch nichts, spinnt da das ATI Tool? Benutze das zu1. Mal
 
das habe ich auch schonmal gefragt, was dann los ist.. hatte auch pixel fehler aber beim test stand da no errors... im game hab ich auch nichts gemerkt.
 
Die Fehleranzeige in ATT funktioniert immer, doch wird der Fehler nicht immer dazugezählt, bzw. wird die Stoppuhr nicht zurückgesetzt. Ist wohl ein bug... :(
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh