8800 GTS / GTX OC Thread (Part 2)

Status
Für weitere Antworten geschlossen.
und wie?
mit AtiTool? oder Ntune?

Die gehen beide für OC!
Hinzugefügter Post:
mal ne Frage, habe jetzt die Karte von Sir Ozelot, und wollte mal Fragen ob bei einer RT von 24°C ne idle Temp von 66°C zu hoch ist ? Max Temp, sind bei 513mhz Core 80°C ... ?!

Mal ne Frage könnte man von Stock Kühler alle Einschraubungen für die Befestigung ca. 1mm abschleifen, müsste doch in nem höheren Anpressdruck resultieren ... ?

Die Temps sind normal, ich weiß nicht ob sich das mit dem abschleifen lohnt der StockKühler bringt einfach nicht viel mehr!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
und wie viel MHZ wäre das optimalste bei meiner EVGA 8800GTS Superclocked?
 
Du mußt die auch den 3.4a runterladen!

1.35 Volt stimmen oder messe selbst mal nach!


Alles klar vielen Dank für die Info!!:) :bigok:

Habe ein neues Bios für meine Ultra gebastelt,und siehe da Schader Takt von 1728Mhz bei OC ATI TOOL @702Mhz Core...;)

Default habe ich eingestellt @675Mhz / 1664Mhz Shader Takt...

Habe die 2D Settings etwas verändert,aber scheinbar laufen die nicht auf Vista 32,schade eigentlich...
 
Zuletzt bearbeitet:

Ja das ist der richtige Shadertakt für 684MHz GPU Takt, bei geizhals stand zu deiner Karte ein anderer Shadertakt!
Hinzugefügter Post:
und wie viel MHZ wäre das optimalste bei meiner EVGA 8800GTS Superclocked?

Das mußt du selbst testen am besten mit dem ATITool ,Games und Benchmarks! Jeder Karte ist da anders das kann man nicht so einfach Pauschal sagen!
Hinzugefügter Post:
Alles klar vielen Dank für die Info!!:) :bigok:

Habe ein neues Bios für meine Ultra gebastelt,und siehe da Schader Takt von 1728Mhz bei OC ATI TOOL @702Mhz Core...;)

Default habe ich eingestellt @675Mhz / 1664Mhz Shader Takt...

Das hast du gut gemacht!:)
 
Zuletzt bearbeitet:
Ja das ist der richtige Shadertakt für 684MHz GPU Takt, bei geizhals stand zu deiner Karte ein anderer Shadertakt!
Hinzugefügter Post:

ja die geizhals angaben sind bei einigen Karten falsch. Die XFX 650er Ultra z.B. hat auch einen erhöhten Shadertakt und nicht 1512...
 
J

Das hast du gut gemacht!:)

Vielen Dank.:wink:

Werde wohl die Tage auf 702MhzCore/1728MhzShader/1150Mhz Speicher flashen.

Muß ich nicht immer hin und her schalten beim ATI Tool.

Also die Karte taktet mit 2D/3D Profil unter XP wunderbar ,und die Temps gehen auch um die 4-5 Grad runter...

Bei Planet3DNow wird geschrieben,das die Spannung auch mit einem modifizierten Bios nicht veränderbar ist,würde mich wirklich mal interessieren ob das so stimmt,da bei mir die Temp bei 350Mhz Core + 500Mhz Speicher und eingestellten 1.1v bzw. 1.2v im Mod Bios ein gutes Stück runter gehen...
 
Ist bei dir die Temp im 2D-Betrieb mit dem modifizierten Bios denn niedriger, als bei selben Einstellungen mit ATI Tool oder RT?
 
woran seh ich welche revision ich habe und wo sind die unterschiede der einzelnen revision bei den xfx 88gts 320mb karten?

und irgendwie find ich die oc liste auf seite 1 ziemlich unübersichtlich.... wie hoch gehen die 8800gts 320er so im durchschnitt?

hab meine jetzt erstma mit 600/860mhz laufen....

Die Rev kannste mit RivaTuner und mit Everest auslesen.
 
und wo genau bei everest/rivatuner oO?

EDIT ah habs
$0100000000 Graphics core : NV50/G80 revision A2 (96sp)

revision a2 was sagt mir das jetzt genau wo is der unterschied zu den anderen revisions?
 
Zuletzt bearbeitet:
Ist bei dir die Temp im 2D-Betrieb mit dem modifizierten Bios denn niedriger, als bei selben Einstellungen mit ATI Tool oder RT?

Ich meine ja,hatte bei ATI TOOL im Idle mit nicht modifizierten Bios bei den jetzigen Temperaturen um die 49-51°......

Könnte aber auch am Takt liegen....I'don't know...
 
Zuletzt bearbeitet:
Also unter Vista 32 HP funktioniert der 2D Takt auch ohne Probleme,auch hier fallen die Temperaturen ein wenig....

Na ja,ich kann leider nicht nachmessen,mir fehlt das passende Equipment
 
Unter Vista x86 funzt der 2D Takt bei mir nicht immer :( Würde schon gern auf ATI-Tool verzichten. Will das Sys eh mal neu aufsetzen, vielleicht gehts ja dann ;)

Werde mal gucken, wem ich mein Multimeter geliehen habe :fresse:
 
ja die geizhals angaben sind bei einigen Karten falsch. Die XFX 650er Ultra z.B. hat auch einen erhöhten Shadertakt und nicht 1512...

Ja genau!
Hinzugefügter Post:
Gibts da ne Tabelle zu?

Ich weiß nicht ob es da eine Tabelle für die Ultra gibt, auf jeden fall sind wir von den originalen Ultra GPU und Shadertakt Takt ausgegangen, also von 612/1512 MHz. Wenn du diesen erhöhen tust, hast du z.B bei 675 Mhz GPU Takt = 1667 Shadertakt oder bei 702 GPU Takt= 1728 Shadertakt usw. Manche Hersteller benutzen aber modifizierte BIOSe, bei denen der Shadertakt bei oc niedriger ist, wie mit dem originalen BIOS mit oc.
Hinzugefügter Post:
und wo genau bei everest/rivatuner oO?

EDIT ah habs
$0100000000 Graphics core : NV50/G80 revision A2 (96sp)

revision a2 was sagt mir das jetzt genau wo is der unterschied zu den anderen revisions?

Es gibt die A03 für die welches ein besseres Stepping hat und bei den Ultras eine GPU Spannung von 1.35V!
 
Zuletzt bearbeitet:
Der Shadertakt wird doch nicht automatisch mitangehoben...


PS. So nebenbei... Die XFX 8800GTS 320 MB XXX hat nen Shadertakt von 1510Mhz. Ausser der MSI OC Edition 320 MB (1350 Mhz Shadertakt) ist dies die einzige 320-er Karte mit erhöhtem Shadertakt.
 
Zuletzt bearbeitet:
Ja einige Hersteller verwenden aber ein modifiziertes BIOS, welches einen erhöhten GPU-Takt beinhaltet, aber einen niedrigeren Shadertakt. Wenn man dagegen das Original-BIOS mit dem höheren GPU-Takt des modifizierten BIOSes einstellt, erreicht man einen höheren Shadertakt.
 
Was bringt denn mehr leistung?? Ein erhöhter GPU Takt mit weniger shader takt oder eine Erhöhter shader Takt und niedrigerer GPU takt.

Und wie sieht es mit dem OC aus ?? Kann ich mit dem GPU takt höher gehen ohne das er mir fehler macht wenn ich gleichzeitig den Shader takt senke ???

immoment bin ich am absoluten LIMIT mit 648/1566/945. Wäre natürlich mal interessant ob mann höher mit der GPU kommt wenn mann den shader senkt.. hat irgendjemand erfahrungen dazu ???


mfg

HHTHH
 
Zuletzt bearbeitet:
Wenn du den Shadertakt senkst, kommt der ROP-Takt in der Regel höher.
Wichtig ist, dass das Verhältnis halbwegs passt, und dass die Perfomance bleibt. Ein ROP-Takt von 900 MHz nützt dir nichts wenn die Shader dafür dann mit 500 MHz takten (fiktive Zahlen).

Ich hatte heute morgen in C&C 3 mit 675/1512/1000 MHz Probleme, war ja klar. :rolleyes:
Teste es heute Abend mal mit 648/1566/1000 MHz, mal sehen ob das wirklich 1000% stabil läuft.

MfG :cool:
 
Verstehe, dann scheint es ja fast so als ob ich nicht wirklich mehr Power rausbekommen könnte aus der Karte.
Ich sehe gerade auch das du wie viele andere auch beim speicher auf 1000 MHz kommst, ich habe leider nicht das glück gehabt mein speicher geht nur bis 945 MHz. :( Sonst hätte ich vielleicht auch noch etwas mehr luft nach oben gehabt, naja was solls :)
 
Was bringt denn mehr leistung?? Ein erhöhter GPU Takt mit weniger shader takt oder eine Erhöhter shader Takt und niedrigerer GPU takt.

Und wie sieht es mit dem OC aus ?? Kann ich mit dem GPU takt höher gehen ohne das er mir fehler macht wenn ich gleichzeitig den Shader takt senke ???

immoment bin ich am absoluten LIMIT mit 648/1566/945. Wäre natürlich mal interessant ob mann höher mit der GPU kommt wenn mann den shader senkt.. hat irgendjemand erfahrungen dazu ???


mfg

HHTHH


Es bringt keine wirklich fühlbaren Werte wenn du z.B. den Shadertakt anhebst!

GTX Shader!


GTX mit dem Ultra Shader Takt bei gleichem GPUTakt!
 
GTX Shader!


GTX mit dem Ultra Shader Takt bei gleichem GPUTakt!


Das ist ja merkwürdig, ich hätte gedacht das es mehr performance sprich FPS bringen würde wenn mann den shader anhebt. Kommt mann den mit dem GPU Takt höher wenn mann den Shader zurück schraubt und wenn ja wie ist den der leistungs zuwachs hier ??
 
Zuletzt bearbeitet:
Tach Leutz,

hab nen Problem und zwar will ich mit dem Riva Tuner mir nen 2d / 3d Profil erstellen. Nun der Core folgt dem ganzen auf ganz gut 2d 260 ( geht der im Riva Tuner nicht unter 260 ? ) und 3d 648, nur der Memory macht das 2d 3d spiel nicht mit ... bleibt immer dort wo ich nen wert Gesetzt habe...

€ Was ist eigentlich besser für solche Profile der Riva Tuner oder Ati tool ? Gibts nen How to ? Link ?
 
Zuletzt bearbeitet:
Das ist ja merkwürdig, ich hätte gedacht das es mehr performance sprich FPS bringen würde wenn mann den shader anhebt. Kommt mann den mit dem GPU Takt höher wenn mann den Shader zurück schraubt und wenn ja wie ist den der leistungs zuwachs hier ??

Wundert mich jetzt so rum nicht das Ergebnis.

Aber deine zweite Frage würde mich auch brennend noch interessieren.
Meine Ultra macht bei 702 Core dicht und ich hätte gern gewusst ob die Shader daran Schuld sind...
Also wer testet es mal bei sich an, ob dann mehr geht? :wink:

@Traudl: Das mit dem Speicher unter Rivatuner kenne ich, wenn du das möchtest musst du wohl Ati Tool nehmen.
How to Links gibts schon einige, nur im Kopf hab ich keinen... schau dich mal etwas um, vielleicht mit der "Suche" und du findest bestimmt was :)
 
Servus,
bin grad auch am probieren mit dem Ati Tool. Wie lange braucht die Gpu denn bis sie merkt dass sie nicht mehr im 3d ist? Irgendwie setzt der sich nicht von alleine wieder von 3d in 2d.....
Naja die ersten Schritte beim übertakten sind wohl immer die schwersten ;-)
 
hey bei mir bei rivatuner kommt immer ne fehlermeldung wenn ich ein bisschen zu weit übertakte das der das nicht übernehmen kann. aber das konnte man ausschalten das die warnung nicht kommt und er sie trotzdem soweit übertaktet!
 
Ein erhöhter Shadertakt kommt eh erst bei shaderlastigen Spielen zum Ziehen.

Und dann darf man nicht vergessen, dass eben die Garantie bei einer ab Werk Shader-Übertakteten Karte bestehen bleibt, auch wenn man zus. noch Ram und GPU übertaktet. Bei eine Bios gemoddeten Karte verfällt die Garantie aber u. Umständen.

Am Besten seht ihr mal bei unten bei den Links (Tests) rein. Da ist's gut erklärt, inwiefern erhöhter Shadertakt was bringt. An den Beispielen sieht man's dann auch. Da werden ja sehr viele 8800-er Karten verglichen.

Vielfach sind sogar im SLI-Verbund zwei 320-er Karten genaugleich schnell, wie die teuren Modelle... Erst in sehr hohen Auflösungen heben sich dann die Modelle mit mehr Memory ab.

http://www.computerbase.de/artikel/...oundup/4/#abschnitt_xfx_8800_gts_320_580m_xxx


Und hier... das sind auch die MSI OC Edition (1350 Shadertakt) und die XFX XXX (1510 Shadertakt) im Test geführt.

http://www.tomshardware.com/de/char...hmark-vergleichstest,testberichte-1558-4.html
 
Zuletzt bearbeitet:
Aber deine zweite Frage würde mich auch brennend noch interessieren.
Meine Ultra macht bei 702 Core dicht und ich hätte gern gewusst ob die Shader daran Schuld sind...
Also wer testet es mal bei sich an, ob dann mehr geht? :wink:

Also habe heute nochmal mit 729Mhz Core Takt versucht,der Shader Takt lag bei 1780Mhz...

3DMurks06 lief durch mit Max Quali Settings....aber bei COD2 Absturz nach 30 sek....:rolleyes:

Als ich am WE die 729Mhz gestestet habe war der Schader Takt noch bei 1620Mhz,jetzt läuft alles perfekt mit 702Mhz Core + 1728Mhz Shader Takt....

Lange "rede" kurzer Sinn,auch mit reduzierten Shader Takt keine Chance auf 729Mhz Core Takt zu kommen,oder flashe das Bios mit reduzierten Shader Takt und teste selbst....;)

PS:Habe jetzt mit meinem erstellten Mod Bios ein 2D Takt von 150Mhz / 250Mhz Speicher eingestellt. Die Idle Temp liegt jetzt bei einer Raum Temp von 22 Grad bei 43-44 Grad ATI Tool / Everest Diode 36 Grad:banana: :) :asthanos:

Kann ich jedem Empfehlen,eine super Anleitung für das Nvidia Bios Tweaking findet man hier : http://www.planet3dnow.de/vbulletin/showthread.php?t=308308
 
Zuletzt bearbeitet:
Danke dir, interessante Aussage!

Ob ichs dann selber nochmal versuche weiß ich nicht, wenn ja eh keine Verbesserung möglich sein dürfte...

Hab übrigens nochmal nachgeschaut, bei mir wird definitiv von den Programmen absolut der gleiche Wert für die Karte angezeigt. Keine Ahnung, was die bei dir in den falschen Hals bekommen ;)

mfg
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh