8800 GTS / GTX OC Thread (Part 3)

Status
Für weitere Antworten geschlossen.
Ich weiß schon was du meinst ;) ich teste es ebend mit dem höchsten GPU Takt um zu schauen wie sich die Ergebniss verändern bezüglich der Leistung. Da fange ich nicht nicht im Keller mit nem CPU Takt von 300Mhz an. Ist zwar umständlicher jedes mal den neuen takt flashen zu müssen ist aber mehr oder weniger das gleiche nur halt mehr aufwand. :)

Ich habe mal gelesen das dass Verhältniss von Shader zu GPU nicht zu Groß abweichen soll. Darum fange ich nicht an mit den Spielchen 300Mhz GPU zu 1458 Shader oder so.


jeder wie er will ;)
warum auch einfach wenns auch schwer geht.. :xmas:

du hättest ja das verhältniss auch nicht so groß machen müssen wie in meinem beispiel. hättest ja auch shader 1400 und gpu 500 nehmen können.
kommt aber alles aufs gleiche raus.
wenn dein shader bei 1800 dicht mach, dann macht der nunmal bei 1800 dicht.
egal ob deine gpu dann auf 600mhz rennt oder auf 300...

nur so kannst du aber auf schnellsten wege rausfinden was der optimale takt für deine karte ist.

ich habe mir 2 bios erstellt.
1:file: gpu original gelassen und schader auf 800
2:file gpu auf 300 und shader auf 1400

mit dem ersten file war bei 720 gpu schluß so wuste
ich meine gpu rennt 720 und nicht mehr,
(denn shader war noch auf unter 1400 er konnte es als nicht sein das
jetzt ende im gelände ist)

mit dem zweiten file war dann
z.b.s. bei gpu 400 schluß, da der shader dann auf 1800 war wußte ich das
es am shader liegt denn gpu war ja nur auf 400

somit wuste ich die maximalen taktraten meiner karte sind
720gpu und 1800 shader

zur sicherheit bin ich dann jeweils die nächst mögliche stufe runtergegangen

also auf gpu 702 und shader 1728

das hab ich dann geflasht.
und so rennt die karte nun schon seit über n halben jahr.:teufel:

zudem kommt noch das diese methode nicht nur schneler geht sondern auch viel sicherer ist.
was machst du denn wenn du bei dir deinen shader erhöst und genau dieser eine kleine schritt war dann irgendwann zuviel des guten??
so wird es ja irgendwann kommen.
dann kanst du nur hoffen das sie nix abbekommen hat und mußt den nächst kleineren takt zurück flashen.
tut mir leid aber ich verstehe das nicht warum du das so handhabst.
also denke immer drann jder flash könnte dein letzter sein,
grade bei deiner technik ;)

mfg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob ich den zu hohen Takt nun per Software oder Bios vorgebe ist Banane wenn das bekommt sie so oder so nen Schaden.

Ich mach mir bei diesen hohen Shader Werten eh Sorgen , darum hab ich sie wieder runter genommen. Ich meine ich habe mich gestern nur mal testweise damit auseinander gesetzt um zu schauen was es bringt. Da dies Thema noch nicht groß besprochen wurde. :) Die Karte fängt ja förmlich an zu schreien bei mir, je höher ich die Shader setze.
 
Zuletzt bearbeitet:
Warum die Angst bei zu hohem Shadertakt? Tödlicher ist doch zuviel VGPU.
Profitiert der Shadertakt eig. von mehr VGPU oder nur der GPU-Takt?

Hab nun mehrmals der GPU-X² abgenommen und das Ganze optimiert.
Ansaugluft des PA120.3 (nur 2 Lüfter @ 7V) 26,5°C Wasser 37,4°C - GPU 50°C load!!! :)
Und im Lost Planet Demo @ 1920x1200 + alles hoch (also max. GPU-Last) nur 48°C!

Takt ist noch MSI-Standard 612/1000 (belastet mit 3D-View von ATI-Tool)
 
Zuletzt bearbeitet:
Wenn ich mehr v gpu geben komm ich auch mit dem shadertakt höher. Also profitiert er von mehr vgpu
 
Oh oh, ich glaube meine Zotac ist kaputt! :-[
Frau hat mich gerade angerufen, zwei große schwarze Balken gehen durchs Bild, und Windows soll nicht mehr booten!
Muss das nach er Arbeit mal checken, aber klingt nicht gut! :mad:
Karte hatte keinen VMod, Kühler lief immer auf 85% und die Karte blieb verdammt kühl!
Shitte!

MfG :cool:
 
Meine funzt noch, hab aber nur mit ATI-Tool zum benchen auf 700/1100 eingestellt, da kommen dann 11890 3dMurks06 Punkte raus. zum spielen stell ich sie auf 650/1050 ein, oder lass sogar auf standardtakt, denn richtig gefordert wird sie erst, wenn mein 22" wide TFT da ist. momentan spiel ich noch auf 19" 1280x1024. Wird sich aber spät. zu Weihnachten ändern.
 
Oh oh, ich glaube meine Zotac ist kaputt! :-[
Frau hat mich gerade angerufen, zwei große schwarze Balken gehen durchs Bild, und Windows soll nicht mehr booten!
Muss das nach er Arbeit mal checken, aber klingt nicht gut! :mad:
Karte hatte keinen VMod, Kühler lief immer auf 85% und die Karte blieb verdammt kühl!
Shitte!

MfG :cool:

Zotac Geforce 8800 GTS/640 @ 648/1512/2000 MHz

Und jetzt ab in die RMA??

Meine kaputte 8800GTX liegt mit Vmod in der Glasvitrine :fresse:
 
Zuletzt bearbeitet:
ich würd erstma kontrollieren ob die Karte evtl nicht mehr richtig im PCIe Slot hängt
(evtl jemand gegen rechner "getreten" oder so)....
 
ich würd erstma kontrollieren ob die Karte evtl nicht mehr richtig im PCIe Slot hängt
(evtl jemand gegen rechner "getreten" oder so)....

BINGO, genau das wars! :banana:
Puuuuh, nochmal Glück gehabt! Die letzten Stunden waren echt die Hölle!

MfG :cool:
 
Und, hast du sie schon gefragt warum sie dagegen getreten hat? :haha:
 
Ich hab mal ne frage wo kann ich rausfinden welche Rev meine karte hat?
 
Moin.

Hab gestern mal nen kleinen Benchtag eingelegt.

C2D4300@3Ghz
8800GTS@702/2000

Aquamark3:

Aquamark3.jpg


3DMark03

3dmark03.JPG


3DMark05

3dmark05.JPG


3DMark06

3dmark06.JPG


passt glaub ich ganz gut.

Bis 720 geht sie auch noch. Aber dann wird sie zickig. Lass sie daher lieber auf 702 laufen. Dank Hr03@120er passen die Lasttemps auch :d

Gruß
 
Zuletzt bearbeitet:
Hallo

Habe grade das erste mal meine Sparkle GF 8800 GTS 640 getacktet.

Was haltet ihr von diesen werten?

a7212ae7c8.jpg
 
Zuletzt bearbeitet:
Schaut sehr gut aus. Diesen Wert erreiche ich gerade mal mit einer GTX.
 
Da sieht man auch wie heftig der CPU Wert eine Rolle spielt. :hmm:

Ohne Quad komm ich da nicht ranne. :(

Gruß
 
Schaut sehr gut aus. Diesen Wert erreiche ich gerade mal mit einer GTX.



3DMurks ist sowieso nichtssagend, solange man da manuell Zeugs verstellen kann.

Ein Benchmark ist nur dann aussagekräftig, wenn feste Bedingungen gelten.

Aber ich habe bisher immer miterlebt, wie alle die Grafikkarten Features deaktivieren um eine höhere Punktzahl zu bekommen.

Ich verstehe nicht, dass wenigstens bei der Demo Version, (die u.A. auch für die Onlineliste verwendet werden sollte), die Werte des Treibers fest vorgegeben und nicht mittels manueller Feststellung im Treibermenu deaktivierbar sind.

Also lasst Euch nicht von ach so tollen Ergebnissen verwirren.

Ich habe bei meiner 7950GX2 zwischen den Standard- und Frisierten-, bzw. im erweiterten TreiberMenu alles manuell auf's Minimum eingestellten Settings tatsächlich mehr als 3000 Punkte Differenz.
 
Zuletzt bearbeitet:
Gibt es eigentlich für vista nen Programm zum takten der grafikkarte?
 
Funktionier den AtiTool auf Vista? hab gelesen da es net gehen soll.
 
hat mal jemand den vmod für ne 8800gts zur hand :xmas: hab die 320mb und die macht bei 650 dicht, will den vmod einfach nur in der hinterhand haben .... plane den kauf eines hr-03 plus :shot:
 
Kurze Frage: Bei meiner Xpertvision 8800GTS 320MB unter WinXP 32Bit SP2 mit Treiber 162.18 findet ATI Tool 0.26 schon bei > 837MHz Memory Clock Artefakte, 3DMark 2006 und 2003 liefen jedoch auch bei 900MHz noch problemlos durch und ohne dass ich Artefakte hätte sehen können. Temps dabei auch noch in Ordnung. Bei 900MHz sieht man die Artefakte in ATI Tools 3D View allerdings schon zu hauf. Sollte ich also durchaus bedenkenlos 900MHz fahren können und ist ATI Tool überempfindlich bzw. vielleicht sogar fehlerhaft oder muss ich tatsächlich bei 837MHz bleiben (das wäre ja doch arg armselig).
 
3dmarks testen ja auch immer verschiedene modien von der graka, sprich shader, core, memory und co, der artefaktscan doch alles? Zudem finde ich memory ocen eh fast sinnlos, 200 mhz memory (400 effektiv) hat bei mir keine 300 pkt im 06er gebracht, der core hingegeben bei 100 schon über 1000 :O
 
@ Ralf_1

Achte NUR auf die beiden Grafikscores und nicht wie so viele auf den fettgedruckten Gesamtscore.

Hab mal schnell durchgebencht...
Gesamtscore ist bei mir um mehr als 400 Punkte niedriger als bei "D-Generation-X". Bei SM2 hab ich aber mehr als 5400 und bei HDR mehr als 5400 Punkte - also wesentlich mehr FPS
 
Im SLi? Ne oder? Hast doch zwei Karten eingebaut, oder? Habe da jeweils knapp über 5.500.
 
Nein, Singlecard. Punkte weiss ich mit SLI grad nimmer, aber ich hab hier irgendwo gepostet, dass der Unterschied zw. Single und SLI @ 1920x1200 + alles hoch ca. 85% mehr FPS ausmacht.
 
Ich schau mir mal die neuen Karten im Winter an. Wenn der Leistungsunterschied nicht so gewaltig ausfällt und die GTX noch etwas im Preis fällt (wobei die MSI immer recht preisstabil sind), dann gehe ich auch auf SLi. Reizt mich schon, wieder mal zwei Karten zu haben. Allerdings brauch ich dann auch noch ein neues Netzteil, was ich aber dann wegen Kabelmanagement begrüßen würde ;).
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh