8800 GTS / GTX OC Thread (Part 4)

Status
Für weitere Antworten geschlossen.
Interessiert aus zweierlei Gründen nicht:
1: 3dmark ist fürn Ar*** - mich interessiert Schaderperformance bei Spielen.
2: AA und AF sind Speicherbandbreiteliitiert. Wenn ich das raufdrehe und die Karte dadurch bandbreitenmäßig limitiere hilft das wenig um den Unterschied ind er Shaderperfomrance zu sehen.

Hab die Zahlen nicht mehr im Kopf. SM 3.0 Shaderscore im Schwanzmark ist aber ganz deutlich höher.
Viel wichtiger: Ich spür einen Unterschied in World in Conflict.

Hab es eben nochmal getestet. Was rauskam, war mir vorher schon klar - 0,0FPS bei mehr als 200MHz höherem Shader.

Da ich dank 24 Zoll TFT bei 1920x1200 zocke muss ichd ie GTS etwas quälen. :d

Da musst du aber ganz schön sparen mit hohen Settings.
Hast du zufällig Lost Planet oder die Demo? Mich würde da mal int. was der Performance Test bei "Snow" und "Cave" meint. http://de.nzone.com/object/nzone_lostplanet_downloads_de.html
In 1920x1200 + höchsten Settings - danke :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sagt mal, wieviel bringt denn ein höherer shader-takt, im vergleich zum Mem/Core Takt? Ich meine, ist der shader-takt mit dem mem/core takt gleichzustellen oder bringt eine erhöhung nicht ganz so viel? Das werde ich im laufe des abends selbst noch testen. Im moment habe ich mal den Mem/Core takt ausgeloten. Per Ati tool habe ich folgende maximal werte herausbekomme:

Gainway 8800 GTS 320

Core Clock: 656 Mhz
Memory Clock: 2063 Mhz
Shader Clock: "to be continued" :d

Die werte sind noch keinesfalls primestable, das werde ich ausführlich in den nächsten tagen testen ;)
 
Zuletzt bearbeitet:
ich poste hier mal meine GTS's ^^

Core 729
Shader 1692
RAM 1100

das ganze laeuft @ wakue @STABIL !!!!
Single GPU 12940 3dmarks
SLI GPU 16720 3dmarks

@Mster

das sagt doch schon der name, die Shadereffekte in games, sind zB Schatten und Lichteffekte oder eine Bildunschaerfe ... was dir der shadertakt nun bringen soll, nunja, ich wuerd mal sagen dass die shader pipes mit nem hoehren takt besser mit shaderlastigen games und deren einstellungen klar kommen ...

FPS vorteile bemerkt man eh erst wenn die graka an ihre grenzen kommt ...

und was das ganze mit primestable zu tun hat is mir leider au ein wenig unklar ^^ wenn dann eher 3dmark-stable ^^


Jetzt hab ich mal noch so ne schoene frage an die community ^^

kennt jemand n besseres bios-mod proggri als nibitor ? ich hab diverses gelesen, aber keiner will sein programm preisgeben, weil nibitor passt mir eindeutig nicht ganz in den schritt ^^

gz.
Simeon
 
Verrätst du mir noch den Takt der Karte? :)
Will doch wissen, warum deine soviel mehr Punkte bringt als meine mit 675mhz...
 
Hab es eben nochmal getestet. Was rauskam, war mir vorher schon klar - 0,0FPS bei mehr als 200MHz höherem Shader.



Da musst du aber ganz schön sparen mit hohen Settings.
Hast du zufällig Lost Planet oder die Demo? Mich würde da mal int. was der Performance Test bei "Snow" und "Cave" meint. http://de.nzone.com/object/nzone_lostplanet_downloads_de.html
In 1920x1200 + höchsten Settings - danke :)
Hab Lost Planet nicht. Ich wollts mir erst zulegen aber hab dan gelesen wie ubel das Game eigentlich ist. Bin im Moment mit Bioshock beschäftigt (das läuft @ 1920x1200 max Detail traumhaft). Ich werd mir die LP Demo vieleicht demnächst mal ziehen. Von den Benches die man aber so sieht geht da nix mit 1920x1200. :fresse:
 
Ich weiss, denn da hab ich mit 8800GTX-SLI bei "Snow" 44fps und bei "Cave" 57fps. Die Min-fps liegt bei 15fps. Da düftest du bei ca. 7fps oder weniger liegen :fresse:
 
Au man werd noch wahnsinnig :mad: habe jetzt so gut wie jedes Graka-OC Tool ausprobiert und trotzdem ist bei jedem ab 650 Schluss .. rest wird einfach ignoriert ...

Xpert-Tool teste ich auf 680 läuft , klick ich auf Anwenden "flup" wieder auf 650 ....

Reboot nach Einstellung auch probiert aber bringt alles nix

EDIT: War ja klar, liegt natürlich am Vista :)

Im Xp übertaktet er allerdings den Shader auch gleich mit ....
 
Zuletzt bearbeitet:
Au man werd noch wahnsinnig :mad: habe jetzt so gut wie jedes Graka-OC Tool ausprobiert und trotzdem ist bei jedem ab 650 Schluss .. rest wird einfach ignoriert ...

Xpert-Tool teste ich auf 680 läuft , klick ich auf Anwenden "flup" wieder auf 650 ....

Reboot nach Einstellung auch probiert aber bringt alles nix

EDIT: War ja klar, liegt natürlich am Vista :)

Im Xp übertaktet er allerdings den Shader auch gleich mit ....

Jo, liegt an Vista - hatte exakt das gleiche Problem...

Nimm die neue Version von Riva Tuner (2.05) und mach nen aktuellen Treiber drauf - damit funktionierts zumindest bei mir nun einwandfrei (inklusive Shader/Core unabhängig zu clocken)!
 
Karte scheint sowieso eine mächtige "Gurke" zu sein, bei 670/1000 gibts schon Artefakte laut ATI-Tool :haha: Core-Temp 55 °
 
Seh ich jetz auch ned als "Gurke" an - so wie Du geschrieben hast bleibt sie mit 55° ja ziemlich kühl und 650/1000 sind doch wirklich ned schlecht... (wenn´s Dir um Benchmarks geht wirst zwar damit nicht so super weit kommen aber die "reale" Leistung in Spielen ist verglichen mit 700/1100 auch nicht so gewaltig weniger...)
 
Naja wenn ich lese wie weit welche mit ihrer GTS kommen find ichs schon weng ne Gurke ...

Mit Rivatuner 2.05 und Vista gehts nun bis max 675 bis wieder alles Ignoriert wird ... Zumindest keine Artefakte bei 675 laut Ati-Tool ...

Schade halt das bei der niedrigen Temp schon schluss ist .

Solangsam komm ich dahinter warum manchmal immer Ignoriert wird .... erhebt man den Shader ein wenig kommt man auch wieder höher ... Gab da ja glaub mal sone Liste vom Verhältniss Core zu Shader
 
Zuletzt bearbeitet:
Ich weiss, denn da hab ich mit 8800GTX-SLI bei "Snow" 44fps und bei "Cave" 57fps. Die Min-fps liegt bei 15fps. Da düftest du bei ca. 7fps oder weniger liegen :fresse:

Da müßen Leute mit Triple SLI @ 8800 Ultra ran! ;)
 
hoi leute,

habe mir jetzt den neuen riva tuner insatlliert, aber irgendwie will der nichti richtig mit dem shadertakt...
mit den älteren versionen hatte ich den takt immer problemlos auf 648 (1512) / 999 eingestellt...weiter gehe die regler bei sowieso nicht...kann man das irgendwie ändern?
mit den neuen rivatuner geht der shader weitaus weinger hoch als bei den vorgängern...stelle ich den takt auf 648, scheibt sich der shadertakt automatisch auf 1458...höher geht er nicht...ich bekomme ihn auch nciht höher, weil der regler nicht weitergeht...

hat wer einen rat?treiber ist der neueste whql für vista 163.69

danke

hier nen screen:

 
Zuletzt bearbeitet:
hab grad mal mitm multimeter meine vgpu gemessen, die beträgt exakt 1,285V.
ist das standardwert ?
 
meine 88gts 320mb läuft stabil mit 620/910,obwohl ich auch höher takten könnte,die leistung reicht mir eigtl immo^^
 
hm,wenn ich nen e6600 hätte und cpu und graka übertakten würde,hätte ich in 3dmark06 bestimmt auch 11k pts :wall:
nächstes mal hole ich mir einen von intel :bigok:
 
naja bei meinem core geht auch noch was..aber reicht mir..der speicher ist aber 100% am ende, aber auch hier ist das ergebnis net allzu schlecht:fresse:

mfg
Vincent
 
stimmt lamer,1100 ist schon sauhoch.
geht denn noch was beim core?
 
jop, hatte da erst bei 714 nen freeze bei find maximum core..also 700 sollten eigentlich drinne sein

mfg
Vincent
 
geht die karte dann nicht kapputt,wenn man z.b 750 einstellt,und dann explodiert die karte?
oder sowas in der art eben,geht denn das?
 
^nein:fresse: würde nur ganz schnell bildfehler beim speicher geben, und beim core sofort nen freeze.

mfg
Vincent
 
@ Ukri
Mit Deinem Sys kannst doch bestimmt alle Games flüssig zocken! Und die Benches sind doch nur für´s Ego ;)
 
kp, beim core habe ich nie bildfehler immer sofort freezes..beim speicher hingegen keine freezes aber bildfehler:fresse: kp warum

mfg
Vincent
 
hab grad mal mitm multimeter meine vgpu gemessen, die beträgt exakt 1,285V.
ist das standardwert ?

Ja das kommt hinn als Standartwert, aber von Karte zu Karte kann es da kleine unterschiede im Bereich von 1,26-1,30 Volt geben!
Hinzugefügter Post:
kp, beim core habe ich nie bildfehler immer sofort freezes..beim speicher hingegen keine freezes aber bildfehler:fresse: kp warum

mfg
Vincent

Hast du mal 3DMark6 mit deinem Maximalen GPU und noch etwas höher durchlaufen lassen und mal geschaut ob es da Bildfehler gibt? Den Speicher erst mal auf Standart lassen!
 
Zuletzt bearbeitet:
kp, beim core habe ich nie bildfehler immer sofort freezes..

Dachte ich auch immer, aber das kommt weil du Ati Tool nicht genug Zeit gibst!
Die Fehler kommen bei mir auch nicht in den ersten 10 Minuten sondern die kamen erst nach längerer Zeit.
Nur wenn man eben den maximalen Takt suchen lässt, dann steigt der Takt zu schnell an und man bekommt zuerst den Freeze.
Wenn man die Grenze zwischen gut/nicht mehr gut findet, dann kommen da eventuell erst nach 20mins oder mehr Bildfehler.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh