Nvidia G92-8800GTS "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (1)

Status
Für weitere Antworten geschlossen.
Ich habe schon 750 x 1100 zum laufen gebracht. Doch ich wollte erstmal die Grundschnelligkeit beurteilen. Wie gesagt, ich hatte 2 x Asus 3870 ATI mit Quad Core 3 Gighz. Drinn und die kamen mir, ausser bei Crysis, deutlich schneller vor.

Ich weiss auch nicht, aber heute Abend probiere ich mal, weiter. Habe die Dinger erst gestern eingebaut.

mfg, Dunk
Hinzugefügter Post:
Hallo,

also der Händler hat nichts verstellt. Alles frisch installiert und nur über FSB den 2666 Mhz Quad auf 3 Gighz. übertaktet. Einstellung im 3dmark 2006 sowie alle Teibereinstellungen Nvidia gelassen, ich stand in der Werkstatt vor dem Rechner und schaute wir Er schon am Anfang mit 86-93 Frames startete.

mfg, Dunk
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe irgendwo gelesen, dass es effizienter ist Chip und den Ram der GTS zu übertakten, da die Shaderleistung@default (angeblich) schon mehr als genug ist.
k.A. ob das stimmt, hat das jemand mal getestet?
 
Hei Leute,

hier mein System: Intel core Duo 2 6850 7 x 500 FSB = ca. 3500 MHZ - Mainboard EVGA SLI 680i (neueste Revision A2) - 4 x 1 Gig.Kingston 1200Mhz SPeicher - 2 x Grafikkarte Leadtek 8800 GTS 512 MB G92 - Windows Vista 32 Bit - und Nagelneue Treiber NVIDIA.


Hat jemand einen wirklich guten Rat oder eine Meinung?

Danke, RG Dunk

SLI funktioniert in 3DMark06 (demo) nur manchmal zufällig - fast immer im Canyonrun aber z.B. im ersten Bench fast nie. Dazu wie schon gesagt profitiert 3dmark06 von einem Quadcore wegen der Punkte. Hab auch SLI mit 2 GTS_G92 und Quadcore@3.6ghz. ca. 13.tausend punkte Single und mit SLI dann auch schon mal bis 17000 gehabt. Dabei variiert es aber stark. Mehrere Testläufe und teilweise total andere Punkte +-1500pkt sind keine Seltenheit. Total komisch. Dann läuft die Demo auch noch 1280x1024 was für SLI auch nicht so toll ist.

In Games mag ich das SLI zwar nicht mehr weggeben (1920x1200@-High). Doch trotzdem merkt man, dass noch viel Arbeit in Treiber für gts oder dx10 u. Vista gesteckt werden muss.

Ist es eigentlich so, dass bei CORE übertaktung der GTS512, die Shader mit hochgezogen werden (über ntune?) oder ist bei der GTS512 nun Shader komplett entkoppelt?

Beim Speicher dachte ich, wäre dieser nur bis 1000 spezifiziert? Keine Lust das mir die Karten wegen Speicher defekt gehen. Mir ist schonmal der Speicher einer 6800 und 7800 defekt gegangen. Darum bin ich beim Speicher-übertakten vorsichtig.
 
SLI funktioniert in 3DMark06 (demo) nur manchmal zufällig - fast immer im Canyonrun aber z.B. im ersten Bench fast nie. Dazu wie schon gesagt profitiert 3dmark06 von einem Quadcore wegen der Punkte. Hab auch SLI mit 2 GTS_G92 und Quadcore@3.6ghz. ca. 13.tausend punkte Single und mit SLI dann auch schon mal bis 17000 gehabt. Dabei variiert es aber stark. Mehrere Testläufe und teilweise total andere Punkte +-1500pkt sind keine Seltenheit. Total komisch. Dann läuft die Demo auch noch 1280x1024 was für SLI auch nicht so toll ist.

In Games mag ich das SLI zwar nicht mehr weggeben (1920x1200@-High). Doch trotzdem merkt man, dass noch viel Arbeit in Treiber für gts oder dx10 u. Vista gesteckt werden muss.

Ist es eigentlich so, dass bei CORE übertaktung der GTS512, die Shader mit hochgezogen werden (über ntune?) oder ist bei der GTS512 nun Shader komplett entkoppelt?

Beim Speicher dachte ich, wäre dieser nur bis 1000 spezifiziert? Keine Lust das mir die Karten wegen Speicher defekt gehen. Mir ist schonmal der Speicher einer 6800 und 7800 defekt gegangen. Darum bin ich beim Speicher-übertakten vorsichtig.
Der Shader ist nicht entkoppelt.Kann man über Rivatuner machen.Geht aber nur bei der Masterkarte.Ich habe bei XP knapp 16000 Punkte.Bekomme meinen Quad leider nicht höher wie in der Sig.:)
 
Ich war gerade bei meinem Computerhändler, der hat einen Quad 3 Gighz. mit einer 1x 8800 GTS G92 Standardtakt unter Vista vor meinen Augen auf 13.300 Punkte gebracht.

Ist 3dmark unter Vista Quad optimiert? Ich verstehe das alles nicht, ich habe einen FSB von 500! und 3500 Mhz und komme mit 730mhz x 1050 Speichertakt nicht über 12.800 Punkte, mit einer Leadtek GTS 8800 G92. Ist echt zum verzweifeln!

mfg,

Mein Senf hier dazu:fp

Also meiner Meinung nach sind 12.000 ca. 3DMark06 Punkte sehr gut, wenn ...
ja wenn da nicht das wenn wäre :haha:

Also unter Default Treiber Settings(Nvidia Treiber und nichts verstellen) liegt meine Sparkle G92 8800GTS mit 11980 PKT recht gut.

Viele kommen hier mit Breiter Brust und tönen von 13.000 Pkt@stock :shot:

Wenn man den Nvidia Treiber auf Hohe Leistung stellt und AA AS oFF dann erziehlt man ca 1500-2000 Pkt mehr!!

Man sollte bei den Benchmark Test schon nach den Vorgaben von Futuremark gehen um ein aussagekräftiges Ergebniss zu bekommen.

@ QuadCore : 3DMark06 ist einer von vielen Benchmark, der 4 Kerne mit einbezieht bei dem Bench! Deshalb die mehr Punkte!
 
Wie siehts denn mit UNTERTAKTEN aus?

Ich möchte die 80 Grad in Idle eigentlich vermeiden, denn ich hab die Lüfter auf 25% laufen und bin enttäuscht das fürs nixtun auf dem Desktop solche Hitze entsteht und der Stromverbrauch ist ja so hoch wie bei nem Crossfire HD3870! Schon a bisl schwach.
Darum die Frage, hat jemand untertaktet und runtergevoltet? Wie weit gehts stabil runter?

Ich habe schon 750 x 1100 zum laufen gebracht. Doch ich wollte erstmal die Grundschnelligkeit beurteilen. Wie gesagt, ich hatte 2 x Asus 3870 ATI mit Quad Core 3 Gighz. Drinn und die kamen mir, ausser bei Crysis, deutlich schneller vor.

Klar sind die 2 schneller, hatte ja selber die 2 x 3870er. In Crysis haste damit mehr FPS!
Auch sonst ist der CF net zu schlagen. Da aber CF net überall was bringt ist man mit einer Karte manchmal besser bedient!
 
Zuletzt bearbeitet:
oh und LOD Bias auf +3 stellen, bringt aucc mehr Punkte ^^
musst ich nämlich machen um die 10k Schallmauer zu durchbrechen :fresse:

Untertakten: geht bei mir bis 170/450/500
 
Untertakten: geht bei mir bis 170/450/500

Danke für schnelle Antwort! Und ist das auch stabil? Ich möchte keinen Weltrekord im min Takt haben. Nur nen allgemein stabilen Takt!

Glaub Speicher bringt bekanntlich nix zum Runtertakten?!

EDIT: Schade hab auf 200MHz GPU laufen, leider immer noch 90 Grad in Idle! Kann man noch die Spannung ändern?
Da war ja die HD2900 kühler und paar Watt sparsamer im Strom in Idle (durchs ATI TOOL)!!!

Ich muss den Lüfter wieder auf Auto laufen lassen. Pendelt sich bei 66 Grad ein, sinkt weiter. Ist ok! Lüfter ist ja auch relativ leise! ;)
 
Zuletzt bearbeitet:
hat ma einer gemessen was die gts brauch wenn man Clocks auf stock hat und wenn man sie runter taktet...vielleicht lohnt es sich ja wirklich
 
Laut meinem Strommessgerät bringts 0 die Karte runterzutakten! Wenn man die Spannung ändern könnte müsste es gehen. Ich lasse sie wieder auf 600Mhz laufen oder 650.
Also Idle sind die Nvidias schwach a bisl, aber wer will schon Strom sparen!? ;)
 
Zuletzt bearbeitet:
Bei der G80 Chips brachte es ca. 20Watt , sicher das die Karte dann auch mit deinen Taktraten lief?
 
Zuletzt bearbeitet:
ich wollte mal fragen was ihr so für minimum taktraten für die gts ermittelt habt? für den betrieb unter windows im idle.

€: sehe gerade die posts über mir :fresse:
 
Zuletzt bearbeitet:
Ist ein Schreibfehler. Ein Kollege von mit hat sie und sie läuft bei 650 Mhz.
 
jaja, kommt vor :fresse:
wenn ich bei meiner den Ram auf 450 stelle wird das bild psychedelisch bunt und nach 10 Sekunden habsch 'nen Freeze...
Deswegen die Taktraten oben ^^
Sind ja mittlerweile auch 3DMurks approved ^^
 
hab meine jetzt auch auf 170/450/500 laufen. im vergleich zum default takt spart man 6-7 watt, zeigt zumindest mein stromkostenmessgerät an, kurz gesagt kann man sich sparen das ganze :d
aber der wille zählt ja :shot:
 
@ThE.G4mE.84
ich meinte ob es bei hardware.de ein schreibfehler ist mit den 730 mhz weil die karte bei allen anderen shops mit 650 mhz gelistet ist.


sry. frage schon im post über dir beantwortet,
 
Zuletzt bearbeitet:
Rivatuner macht das unter anderem...
 
welche gründe sprechen für einen wechsel von 8800 gts 640mb auf eine 8800 gts 512mb?

pro:
- stromverbrauch
- oc?

con:
- kosten
 
oc ist mit der G92 auf jeden Fall besser. 750 oder sogar 800 schaffen die wenigstens GTS G80 ohne Mod.

Du darfst nicht vergessen, das die G92 z.B. auch mehr Shader hat und schon im Normalzustand schneller als die GTS G80 ist.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh