Nvidia 8800GT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 4)

Status
Für weitere Antworten geschlossen.
@dropback:

Nunja, die oben genannten Dinge halt. Ausserdem ist er mir ein bischen zu montrös und wirkt 'billig', könnte mir eine bessere Lösung vorstellen. Optimal wäre sowas wie ein nV Silencer der die Abluft direkt nach draussen transportiert, das wäre doch mal ne nette Geschichte.

Wenn Du dann noch die vorigen Temperaturen @Stock und unter Last mit denen der S1 Kühler-Kombination vergleichst könntest Du mich sogar damit überreden (oder auch nicht) ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hallo,
mit welchem programm lese ich am besten die temps meiner 8800GT aus?
MfG
 
Zuletzt bearbeitet:
So, nun hat wohl auch meine 8800GT den geist aufgegeben :( mal schauen wie lange die reklamation bei Alternate dauert
 
Oh man ... wie macht ihr das denn ? Habt ihr die Dinger maßlos übertaktet oder keine Belüftung im Gehäuse oder sind die Dinger wirklich so anfällig ?
 
So, nun hat wohl auch meine 8800GT den geist aufgegeben :( mal schauen wie lange die reklamation bei Alternate dauert

Meine wahrscheinlich auch:( :stupid: .
Da wartet man auf den Waküler um gut und sicher übertackten zu können und dann geht die vorher kaputt(zu 99,9%).
Ich glaube es daher,da der Pc nach schon 2min COD4 spielen,freezed und ich den Pc neustarten muss.
Außerdem läuft 3DMARK06 schon bei einer übertacktung von gearde einmal 30Mhz auf beiden Seiten jeweils nicht.
Das kann doch echt nicht war sein,da warte ich schon so lange auf die Karte und dann geht die auch noch kaputt.:wall:

€:Oder kann es daür auch noch andere Erkälrungen/Lösungen geben?
 
Zuletzt bearbeitet:
Lass doch mal ATITool (ggf. mit Prime95) laufen und achte auf die Temperaturen und Spannungen. Wenn das läuft, 3DMark aber abschmiert, ist es mit Sicherheit kein Problem der Karte :)
 
Lass doch mal ATITool (ggf. mit Prime95) laufen und achte auf die Temperaturen und Spannungen. Wenn das läuft, 3DMark aber abschmiert, ist es mit Sicherheit kein Problem der Karte :)

Es waren wirklich die Temps.Ich habe vergessen,im Rivatuner die richtigen Lüftergeschwindigkeiten entsprechend der temperatur anzupassen(woher WaKü auf der anderen karte gehabt und daher die Geschwindigkeit auf ganz low gemacht).Daher wurde die Karte immer zu heißt.

problem gelöst.;)
 
@COUP
mach dir mal keine so große sorgen, meine gt würde schon stundenlang mit crysis und call of duty 4 maltretiert und sie lebt immer noch ;) allerdings werkelt auch ein S1 auf der karte damit sie nen kühlen kopf bewahrt
 
Hat jemand mal ne 8800GT und ne GTX bei sich zuhause gehabt, ist der Performence gewinn der GTX spürbar? Die GTX ist ja eigentlich nur minimal schneller!?
 
Na langsam tut sich was bei den Wasserkühlern 6 stück an der zahl zur auswahl .
Den würde ich jetzt favorisieren!
http://www.aquatuning.de/product_in...ater-Blocks-EK-FC8800-GT--G92--SLI-ready.html

Ja ich hatte die 8800gtx stromschleuder zu Hause,bin froh das ich sie verkauft habe .
Konnte sie nur auf 618 mhz core und 1512 Shader takten, hingegen die gt core 700 mhz 1710 shadertakt.
In 1280*1024 hatte die GTx keine Sonne .
Mfg
 
Zuletzt bearbeitet:
Moing Leute, folgende Frage quält mich etwas :-)

Da die PNY (vielleicht erinnert sich einer) nach langem warten jetzt noch immer nicht kam, und ich beim Händler gefragt hatte, meinte das mit der PNY könnte noch etwas dauern..doch er könnte mir versichern, dass ich ab 5.12. +1,2,3 Tage die OC von Gainward geben könnte, allerdings zu einem Aufpreis von etwa 10-15€ (also etwa 225 € :-D)

Ist die Karte zu empfehlen? Taugt das selbstentwickelte Kühlsystem was und halten die auhc die hohen Taktraten aus?

GPU-Takt: 700+ MHz
Speichertakt: 2050+ MHz

und was hat es mit dem

Anschlüsse (I/O): Goes-Like-Hell Dual-DVI (mit Dual-Link DVI) HDTV-out HDCP

auf sich?

Wäre um Hilfe sehr dankbar, nur noch 8 Tage :-) ^^
 
Zuletzt bearbeitet:
Auf "Fixed" gehen!?

€:@rezico:
Da bisher noch niemand diese Karte hat,kann niemand aussagen bezgl. des Kühsystems sagen.;)
Übertacktete Versionen bringen nur dann was,wenn man selber nicht übertackten will bzw. sowieso nicht höher tackten wollte.

ne ich mein die werte darunter, also die unter description stehen
die auto fan speed control rules
 
Srider, bitte, übertakten ohne ck, das tut ja weh;)
 
Was soll dieses gefiepe bei videosequenzen in spielen und so? Das ist ja grausam. Aber sonst alles ok.
 
So, habe meine vor einer Stunde erworbene Zotac gebencht. System sieht so aus:

E2160 @9x333
2GB DDR2 @400 4-4-4-12
GA-P35-DS3R
Zotac 8800GT @Standard

3DMark06 = 11375


Passt, oder?


edit:

die ~20 Watt mehr Stromverbrauch im Idle-Modus gegenüber der ATI X800GTO sind gut. Habe mit etwas mehr gerechnet.
 
Zuletzt bearbeitet:
sag mal bitte jemand wie ich das hier am besten configurieren soll...
Es geht um die rot unterstrichenen sachen..

Bild:
 
sag mal bitte jemand wie ich das hier am besten configurieren soll...
Es geht um die rot unterstrichenen sachen..

Bild:

Das kommt darauf an wie du gerne spielst...

Bei hoher Qualität von oben nach unten:


-Aus

-Supersampling

-wenn du nen tft hast!? - Ein

-Aus (sind sämtliche Optionen die unterhalb stehen sonst ausgeblendet...)

-Keine

-Clamp

-Aus
(mach mal die triliniare optimierung auch aus... ;) )

-Hohe Qualität oder Qualität... bei den 8800 is der Unterschied nur noch marginal und nur bei einem direkten Vergleich zu sehen!

-Bei 2 oder mehr Cores deiner CPU auf alle Fälle EIN! Bringt Situationsabhängig noch ein bischen was...

So, dass sollte alles sein... :cool:


Wann erscheint denn nun endlich die 256MB... soll ja spätestens diese Woche kommen... aber auch noch nix genaues, oder?
Warte schon auf die ersten Benchmarks... :bigok:

MfG
mVidia
 
Wenn Du dann noch die vorigen Temperaturen @Stock und unter Last mit denen der S1 Kühler-Kombination vergleichst könntest Du mich sogar damit überreden (oder auch nicht) ;)


Guck mal im passenden S1 Thread nach, da hab ich meine Temps geschrieben...
Nur so als "leckerlie":

Last @ COD4 MP
Standardkühler ~94°C
S1 plus 120mm max 56°C

:banana:
 
Ich kann im RivaTuner 2.6 den 2D bzw. 3D Takt zwar einstellen, aber mir fehlt der beschriebene Test-Button. Außerdem erkennt der im Hardware-Monitor keine Unterschied zwischen 2D und 3D. Wie habt Ihr das hinbekommen?
 
Das kommt darauf an wie du gerne spielst...

Bei hoher Qualität von oben nach unten:


-Aus

-Supersampling

-wenn du nen tft hast!? - Ein

-Aus (sind sämtliche Optionen die unterhalb stehen sonst ausgeblendet...)

-Keine

-Clamp

-Aus
(mach mal die triliniare optimierung auch aus... ;) )

-Hohe Qualität oder Qualität... bei den 8800 is der Unterschied nur noch marginal und nur bei einem direkten Vergleich zu sehen!

-Bei 2 oder mehr Cores deiner CPU auf alle Fälle EIN! Bringt Situationsabhängig noch ein bischen was...

So, dass sollte alles sein... :cool:


Wann erscheint denn nun endlich die 256MB... soll ja spätestens diese Woche kommen... aber auch noch nix genaues, oder?
Warte schon auf die ersten Benchmarks... :bigok:

MfG
mVidia

ok thx, hab ich jetzt so eingestellt.

Könnte ich sonst noch was verändern? Ich hab sonst alles andere auf standard, also so wie es nach treiberinst. eingestellt ist.

Ich möchte natürlich die beste bildqualität, aber nicht auf extreme kosten der performance... also wenn man zwischen high und ultra high kaum was sieht, das aber 20% performance kostet, dann zb lieber nur high.

Als beispiel...

ps..
ich hab grafikfehler in crysis:
 
Das kommt darauf an wie du gerne spielst...

Bei hoher Qualität von oben nach unten:


-Aus

-Supersampling

-wenn du nen tft hast!? - Ein

-Aus (sind sämtliche Optionen die unterhalb stehen sonst ausgeblendet...)

-Keine

-Clamp

-Aus
(mach mal die triliniare optimierung auch aus... ;) )

-Hohe Qualität oder Qualität... bei den 8800 is der Unterschied nur noch marginal und nur bei einem direkten Vergleich zu sehen!

-Bei 2 oder mehr Cores deiner CPU auf alle Fälle EIN! Bringt Situationsabhängig noch ein bischen was...

So, dass sollte alles sein... :cool:


Wann erscheint denn nun endlich die 256MB... soll ja spätestens diese Woche kommen... aber auch noch nix genaues, oder?
Warte schon auf die ersten Benchmarks... :bigok:

MfG
mVidia


Wenns geht die AF Einstellungen immer vom Spiel aus machen lassen. Wenn man hier erst im Treiber umstellt, kann es schon mal vorkommen, dass man nicht aufpasst und schon stellt der Treiber wieder diese Optimierungen mit ein. So geschehen bei mir und ich habe mich nur gewundert, warum die Bildqualität so gesunken ist.
 
AF sollte doch immer ein sein?! also bei crysis sehe ich keine option AF z.b auf 8x zu stellen... muss man wohl über die nvidia optionen machen.

Mein Grafikfehler ist weg.
 
Genau, AF immer an, sonst sind die Texturen extrem matschig. Bei Crysis gehts leider nicht anders.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh