Nvidia G92-8800GTS "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (2)

Status
Für weitere Antworten geschlossen.
Crysis soll doch für 64 Bit optimiert sein - das könnte den Performanceunterschied erklären...lief v1.1 ? Bei mir nicht.

Wie sieht das Sys denn sonst so aus?

Nagut, dann hab ich halt ein Montagsmodell...spaß beiseite - ob jetzt 1 fps mehr oder weniger stört mich auch nicht. Aber, normal müsste meine wegen OC ja schneller sein. Wär halt zum Vergleich noch besser gewesen, wenn du auch 32 Bit hättest..oder ich 64.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hm, ich dachte mit 1024mb Speicher schlägt sie die GTX weil das ja anscheinend der Engpass der gts 92 ist...?!
Also sehe ich es richtig dass man sich auch getrost ne GTS mit 512mb holen kann anstatt die hier mit mehr Speicher? weil hab mir vor paar Tagen ne gts 92@default bestellt.
 
hm, ich dachte mit 1024mb Speicher schlägt sie die GTX weil das ja anscheinend der Engpass der gts 92 ist...?!
Also sehe ich es richtig dass man sich auch getrost ne GTS mit 512mb holen kann anstatt die hier mit mehr Speicher? weil hab mir vor paar Tagen ne gts 92@default bestellt.

Der Engpass der GTS G92 ist das Speicherinterface und die dadurch resultierende relativ geringe Speicherbandbreite, trotz hohem Speichertakt.
 
Der Engpass der GTS G92 ist das Speicherinterface und die dadurch resultierende relativ geringe Speicherbandbreite, trotz hohem Speichertakt.

Das sehe ich auch so. Aber trotzdem ist der G92 für jemand der eine neue GPU sucht sehr interressant(neben HD3870). Das Verhältnis Preis/Leistung ist gut. Und die paar FPS weniger zur GTX kann man verschmerzen. Denke mal, das die ollen G80er fast ausgedient haben. Außer in hohen Auflösungen mit max. AA/AF können sich die G80er ala GTX/Ultra kaum noch gegen die G92er entscheidend absetzen. Irgendwie werde ich den Eindruck nicht los, dass es schon fast auf "Abverkauf" der z.B. GTX hinauslaufen könnte. Denn die Preise gehen doch rapide nach unten. Um dann, wenn das neue Topmodell kommt, wieder Preise jenseits von gut und böse anzubieten.
 
Zuletzt bearbeitet:
Habe seit kurzem auch eine Gainward 8800GTS 1024: http://www.alternate.de/html/produc...n=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Als erstes fiel mir auf das die Karte 2D und 3D Taktraten hat und auf der GPU nur 1,1V anliegen. :hmm:
Bei 3DMark06 das selbe Ergebnis wie mit einer gleich getakteten 8800GT(730/1825/1050) und 500 Punkte weniger als mit einer 8800GTS, ebenfalls auf gleichem Takt:

8800GT 1024: 12663
8800GTS 512: 13203
8800GTS 1024: 12642
Tendenz ist in allen Benches und Spielen gleich.

Obwohl GPU-Z und alle anderen Tools 128 Unified Shaders anzeigen bin ich mir ziemlich sicher das es sich lediglich um eine GT Version handelt.
 

Anhänge

  • 8800GTS 01.JPG
    8800GTS 01.JPG
    55 KB · Aufrufe: 34
  • 8800GTS 02.JPG
    8800GTS 02.JPG
    53,9 KB · Aufrufe: 37
  • 8800GTS 03.JPG
    8800GTS 03.JPG
    48,2 KB · Aufrufe: 35
Zuletzt bearbeitet:
@gabinski:

Die 8800GT mit 1024MB ist auch langsamer als die 512er. Laschere Timings machen eben auch was aus. ;)

Zwecks Taktraten: Kannst du das BIOS mal hochladen? :)
 
@gabinski:

Die 8800GT mit 1024MB ist auch langsamer als die 512er. Laschere Timings machen eben auch was aus. ;)

Zwecks Taktraten: Kannst du das BIOS mal hochladen? :)

@ mito:

nene, die gt hatte auch 1024 (is schon spät). Und 500 pkt. im 3DMark kommen nicht nur durch schlechtere Timings zustande.
Die gts 1024 kommt nicht mal übertaktet (774/1944/1096) an die Werte einer MSI NX8800GTS-T2D E-OC (730/1825/972) ran:

GTS 1024: 12923 3DMark06, 41,35 Crisys avg
GTS 512: 13152 , 44,84

Sehr dubiose Karte, habe das Bios schon Donnerstag bei techpowerup hochgeladen, wurde aber bis jetzt nicht veröffentlicht.
Alle gts haben (laut Bios) die gleiche Spannungs (1,15V) - und Performancelevel Einstellungen (nur ein aktiver Modus). Die gts 1024 hat 1,1V und 2 Performancelevel - wie alle gt karten???!!!
 

Anhänge

  • Gainward 8800GTS 1024 Original.zip
    39 KB · Aufrufe: 30
Zuletzt bearbeitet:
Habe seit kurzem auch eine Gainward 8800GTS 1024: http://www.alternate.de/html/produc...n=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Als erstes fiel mir auf das die Karte 2D und 3D Taktraten hat und auf der GPU nur 1,1V anliegen. :hmm:
Bei 3DMark06 das selbe Ergebnis wie mit einer gleich getakteten 8800GT(730/1825/1050) und 500 Punkte weniger als mit einer 8800GTS, ebenfalls auf gleichem Takt:

8800GT 1024: 12663
8800GTS 512: 13203
8800GTS 1024: 12642
Tendenz ist in allen Benches und Spielen gleich.

Obwohl GPU-Z und alle anderen Tools 128 Unified Shaders anzeigen bin ich mir ziemlich sicher das es sich lediglich um eine GT Version handelt.

Diese Werte kann ich bestätigen (siehe T_r_o_u_b_l_e's Post oben - kaum schneller als GT, langsamer als GTS 512) - gut, die VRAM Timings müssen denk ich mal höher sein als bei der 512er, aber schon seltsam das mit 1,1 V, gerade wo die GPU doch auch übertaktet ist. Ich kann aber nicht glauben, dass es sich nur um eine GT handelt - sonst würde Gainward diese bestimmt nicht als GTS verkaufen und selbst der ForceWare erkennt sie als GTS 512.

Naja, wie dem auch sei - gegenüber meiner alten 7900 GT 512 ist es ne Bombenkarte.

Gruß
Edge


E:/ Was auch noch zur Bestätigung, dass es sich um eine echte GTS handelt, dient -> Texturfüllrate über 40.000 MTexel/s (8800 GT hat @ stock nur 33600).

Die Speicherbandbreite ist mit 71 GB/s auch deutlich höher als die der GTS 512 und GT.

Siehe hier:

http://www.computerbase.de/artikel/...ce_8800_gts_512/2/#abschnitt_technische_daten


E2:/ Nochmal was am Rande - ist RivaTuner 2.02 zu ALT für die GTS 512 / 1024. Bei mir kann ich kein OC anwählen ?!
Zweites Problem - keine Anzeige der Speicherbandbreite / Texelfüllrate unter GPU-Z. Hab den FW 169.25 drauf.
Coolbits 2.0 geht unter Vista leider auch nicht - aber das ist, wie ich diversen Foren entnehm, überall so.
 
Zuletzt bearbeitet:
Ja, nehm lieber Rivatuner 2.06, aber das steht ja eigentlich auch auf der ersten Seite :shot: :d

find's aber schade, dass die 1024er GTS nich so der BRinger is...
 
Ja, nehm lieber Rivatuner 2.06, aber das steht ja eigentlich auch auf der ersten Seite :shot: :d

find's aber schade, dass die 1024er GTS nich so der BRinger is...

Naja, ob ich jetzt 1 - 3 fps mehr oder weniger hab ist mir relativ schnuppe, aber etwas schade ist es in diesem Fall schon (wegen OC + 512 MB) - ob die - 0.05V soviel ausmachen ? VRAM Timings machen wohl auch etwas aus,aber das war mir klar, dass sie mit 1 GB net so gut gut, wie eine gleiche mit 512. Zumindest , wenn das Game net viel VRAM braucht. Hach, hätte nV die G80 mal in Rente schicken sollen und die G92 gleich als GF 9 verscherbeln sollen - mit min. 320 Bit bei der 8800 GT und 384 bei der 8800 GTS 512 - ich glaub, dann wär der Name GF 9 auch verdient gewesen - die Rohleistung der GPU ist ja um einiges höher als beim G80 und ohne SI Beschneidung wären wohl locker + 30 - 50% Mehrleistung drin gewesen. Naja, evtl. hat der G92 sogar ein höheres SI (denn 754 vs 681 millionen Transistoren sind auch mit den verbesserungen allein kaum zu erklären) und nV schaltet dieses dann mit der 9800er Serie frei - aber irgendwie glaub ich nicht, dass es so ist.

Nun ja, RivaTuner 2.06 hab ich jetzt - auch mit G92 Config Ready Datei - aber er kann die Taktraten auch nach Reboot net auslesen. :hmm:

Aber insgesamt bin ich trotzdem happy - im Vergleich zum G71 ist sie pfeilschnell...zur Not kann man auch mal die CPU etwas höher laufen lassen.
 
Zuletzt bearbeitet:
Crysis Vergleiche zwischen 64 Bit und 32 Bit sind Schwachsinn. BEnchs mit verschiedenen Detailsettings sind wertlos. Crysis rendert unter Vista 64 hochauflösende Texturen in der Ferne.
 
[...] Naja, evtl. hat der G92 sogar ein höheres SI (denn 754 vs 681 millionen Transistoren sind auch mit den verbesserungen allein kaum zu erklären) und nV schaltet dieses dann mit der 9800er Serie frei - aber irgendwie glaub ich nicht, dass es so ist.[...]

wenn das so wäre, dann wäre ich Nvidia echt mal ein bisschen böse...
Wobei ich mir eher vorstellen könnte, dass "ursprünglich" ein 512 SI geplant war...
Aber solch eine Karte hätte die 8800 Ultra weggepustet...
Und damit hätte sich Nvidia noch mehr ins eigene Fleisch geschnitten...

Und der G71 war trotzdem toll! :shot: :d
(bin ja auch von einer 7800GS+ (G71-24/8@AGP) zur 8800GTS-512 gewechselt)
 
wenn das so wäre, dann wäre ich Nvidia echt mal ein bisschen böse...
Wobei ich mir eher vorstellen könnte, dass "ursprünglich" ein 512 SI geplant war...
Aber solch eine Karte hätte die 8800 Ultra weggepustet...
Und damit hätte sich Nvidia noch mehr ins eigene Fleisch geschnitten...

Und der G71 war trotzdem toll! :shot: :d
(bin ja auch von einer 7800GS+ (G71-24/8@AGP) zur 8800GTS-512 gewechselt)

OT:

Möglich wäre es, aber irgendwie kann ich mir nicht so recht vorstellen, dass später eine 9800 GT(S) mit nur 256 Bit SI kommt - der GT200 soll ja wohl doch in der 9800 GTX verbaut werden - u.a. wohl auch mit 512 Bit SI. We'll see.

Nun ja, wir sind ja nicht im Spekulations Thread.


epp, die 7900er (und vor allem die BLISS 7800 GS+ für die AGP Fraktion) war damals schon ne prima Sache und bis auf Crysis und dem mäßig Leistungsoptimierten ProStreet konnt ich bis jetzt alles noch recht anständig zocken ! :bigok:

Topic: Ich könnt noch ein paar Sachen benchen, aber ich denke, die 8800 GTS 512 wird wahrscheinlich überall minimal schneller sein.
 
Zuletzt bearbeitet:
So hi ihr leute hier, die mich noch nicht kennen :shot:
hab gedacht ich frag hier nochmal schnell obs irgendeine marke zu empfelen gibt? vielleicht eine wo bessere speicher nimmt oder so?
machesmal ist die quali ja verschiden :eek:

Würd nämlich gerne gleich bestellen :banana:
 
Kannst die günstigste nehmen.

Sind alle gleich bis auf Austattung

Manche haben auch nen OC Bios, aber das ist verschenktes Geld da die GTS alle ziemlich gut laufen
 
dann wert ich mir wohl mal ne Asus holen oder spricht was gegen asus?
 
nichts außer ihrer Firmenpolitik (bzw. wie sie mit ihren Angestellten umgehen, aber das passt eher weniger hierher) :fresse:
 
Kann man bei RivaTuner irgendwas machen, dass es mit der G92 GTS komplett funktioniert?
Ich habe nur die Low-Level Settings und auch da nur die Hälfte. Das Monitoring-Teil fehlt z.B. auch, kein Button, nichts.
 
entweder mal bitte den ersten Post auf der ersten Seite lesen oder hier klicken...
 
Ohh, sorry, stimmt. Ich bin noch so damit beschäftigt, den passensten Treiber durch ausprobieren zu finden, dass ich dazu garnicht gekommen bin (die erste Seite), sorry :fresse:
Gucke gleich mal, wenn der Treiber läuft.
 
Habe seit kurzem auch eine Gainward 8800GTS 1024: http://www.alternate.de/html/produc...n=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Als erstes fiel mir auf das die Karte 2D und 3D Taktraten hat und auf der GPU nur 1,1V anliegen. :hmm:
Bei 3DMark06 das selbe Ergebnis wie mit einer gleich getakteten 8800GT(730/1825/1050) und 500 Punkte weniger als mit einer 8800GTS, ebenfalls auf gleichem Takt:

8800GT 1024: 12663
8800GTS 512: 13203
8800GTS 1024: 12642
Tendenz ist in allen Benches und Spielen gleich.

Obwohl GPU-Z und alle anderen Tools 128 Unified Shaders anzeigen bin ich mir ziemlich sicher das es sich lediglich um eine GT Version handelt.

Der größere Speicher ist logischerweise langsamer solange er nicht gebraucht wird.

Um die 1024MB auch nur annähernd sinnvoll zu nutzen musst du schon mind. 1680x1050 4xAA 16xAF testen.
Da hatte meine 1024MB GT gut 1000 Punkte vorsprung zur 512MB GT.

Allerdings bringt einem die bessere Leistung da nicht sehr viel, da die allgemeine Leistung besonders in Shaderlastigen Anwendungen immernoch zu gering ist um in den Auflösungen flüssig spielen zu können. Leider funktioniert SLI nicht immer so schön wie es einem Nvidia weiß machen will, denn da würden die 1024MB Versionen richtig Sinn machen.

Und die 1.1V sind doch eigentlich genau richtig, oder hat die 512MB GTS mehr VGPU als die GT?

Hmm....

8800GTS 1024

15.02.2008 20:36:45 - Vista

Run #1- DX10 1680x1050 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 1617,5[/PHP]



PHP:
@ 2,4 GHz, sehr hohe Details

15.02.2008 19:54:03 - Vista
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
 ==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
    Play Time: 128.38s, Average FPS: 15.58
    Min FPS: 9.99 at frame 142, Max FPS: 18.00 at frame 871
    Average Tri/Sec: -6958972, Tri/Frame: -446702
    Recorded/Played Tris ratio: -2.05
!TimeDemo Run 1 Finished.
    Play Time: 124.50s, Average FPS: 16.06
    Min FPS: 9.99 at frame 142, Max FPS: 18.39 at frame 868
    Average Tri/Sec: -6969530, Tri/Frame: -433864
    Recorded/Played Tris ratio: -2.11
!TimeDemo Run 2 Finished.
    Play Time: 124.26s, Average FPS: 16.10
    Min FPS: 9.99 at frame 142, Max FPS: 18.39 at frame 868
    Average Tri/Sec: -6991453, Tri/Frame: -434362
    Recorded/Played Tris ratio: -2.11
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

15.02.2008 19:54:03 - Vista

Run #1- DX10 1680x1050 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 1608

Hier der Vergleich aus meinem TEST! mit der 8800GT@Default (1024)

PHP:
07.02.2008 10:10:50 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 124.80s, Average FPS: 16.03
Min FPS: 12.26 at frame 138, Max FPS: 18.35 at frame 861
Average Tri/Sec: -7182450, Tri/Frame: -448175
Recorded/Played Tris ratio: -2.05
!TimeDemo Run 1 Finished.
Play Time: 121.79s, Average FPS: 16.42
Min FPS: 12.26 at frame 138, Max FPS: 18.35 at frame 861
Average Tri/Sec: -7151558, Tri/Frame: -435480
Recorded/Played Tris ratio: -2.10
!TimeDemo Run 2 Finished.
Play Time: 121.78s, Average FPS: 16.42
Min FPS: 12.26 at frame 138, Max FPS: 18.35 at frame 861
Average Tri/Sec: -7154242, Tri/Frame: -435613
Recorded/Played Tris ratio: -2.10
TimeDemo Play Ended, (3 Runs Performed)
==================================================

Und hier die GTS@Default (512)

PHP:
07.02.2008 13:39:32 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 119.41s, Average FPS: 16.75
Min FPS: 8.95 at frame 138, Max FPS: 19.58 at frame 863
Average Tri/Sec: -7492238, Tri/Frame: -447310
Recorded/Played Tris ratio: -2.05
!TimeDemo Run 1 Finished.
Play Time: 115.13s, Average FPS: 17.37
Min FPS: 8.95 at frame 138, Max FPS: 19.58 at frame 863
Average Tri/Sec: -7544015, Tri/Frame: -434278
Recorded/Played Tris ratio: -2.11
!TimeDemo Run 2 Finished.
Play Time: 115.19s, Average FPS: 17.36
Min FPS: 8.95 at frame 138, Max FPS: 19.58 at frame 863
Average Tri/Sec: -7518522, Tri/Frame: -433020
Recorded/Played Tris ratio: -2.12
TimeDemo Play Ended, (3 Runs Performed)
==================================================

Soll ich dazu noch was sagen? :hmm:

Wie wärs auch hier mit "CPU Limitierung" ;)

Du musst schon mit AA und AF und einem blitzschnellen restlichen System testen, um die 512MB so stark in die Knie zu zwingen, dass ihr geringerer Verwaltungsaufwand im Verhältnis zur Grafikspeicherauslastung an Bedeutung verliert.

Außerdem sind alle Ergebnisse sehr Treiberabhängig. Mit der 1024MB Version hat bei mir der 173.80_forceware_vista32_beta am besten abgeschnitten - 20% und mehr Performancedifferenz zwischen den getesteten ForceWare Versionen (von aktuellerstem WHQL bis zur neusten Beta), wobei dieser hingegen die 512MB Version deutlich bremste (10% und mehr). Für die 512MB Version würde ich den 169.25 WHQL nehmen.

Leider macht es Nvidia einem damit nicht gerade leicht, aber bei der momentanen Preis/Leistungs Lage kann man sich eigentlich nicht beschweren.
Hinzugefügter Post:
Crysis Vergleiche zwischen 64 Bit und 32 Bit sind Schwachsinn. BEnchs mit verschiedenen Detailsettings sind wertlos. Crysis rendert unter Vista 64 hochauflösende Texturen in der Ferne.

Ist (abgesehen davon dass es sowieso leistungsmäßig keinen Einfluss hat) ziemlich unrelevant, wenn man einfach mit r_TexturesStreaming = 0 testet.

Schwachsinn sind Vergleiche keinesfalls.

32bit und 64bit Vista geben sich (zumindest was Crysis betrifft) nichts.

64bit bringt außer der Möglichkeit der größeren RAM Bestückgungsmöglichkeiten keinen nennenswerten Vorteil. Sowohl von 2 auf 4GB RAM als auch von 32 auf 64bit Vista Ultimate brachten bei mir jeweils nur 0.5FPS mehr im Benchmark und auch gefühlt hat sich die Leistung nicht verbessert.
Wer es richtig schnell haben will, ist immernoch mit dem DX9 VeryHigh "Hack" am besten beraten und es sieht auch genauso gut aus, solange man sich auf das Spiel konzentriert und nicht mit Screenshots und Lupe die Bildqualität analysiert.
 
Zuletzt bearbeitet:
Habe jetzt mal eben meine Zotac AMP! angetestet.

C2D 450x8=3,6Ghz - 2GB 1200Mhz Ram - Windows XP 32-Bit

G92 Zotac 8800GTS 512MB AMP! 675/1728/972

Treiber: XG 171.23 (169.17 unterstützt die Karte nicht)
Accelero S1, Yate Loon D12SL @11V

VS

G80 PoV 8800GTS 640MB 564/1288/918

Treiber XG 169.17
HR-03+/HR-11, Yate Loon D12SL @11V

3DMark06 (Defaults):
G92: 13436
G80: 11016

Aquamark3 (Defaults):
G92: ~204500
G80: ~197500

Counterstrike Source (High 16xAA/16xAF):
G92: 211FPS
G80: 192FPS

Die Temperaturen lassen sich auf Grund der beine alternativen Kühler schlecht vergleichen aber zur Information:
G92:
Idle (675/1728/972): 37°
Last (675/1728/972): 52°

G80:
Idle (200/500/400): 42°
Last (564/1288/918): 62°
 
Zuletzt bearbeitet:
Deckt sich ja etwa mit meinen (schon etwas älteren) 3DMark06 Ergebnissen:

G80 GTS 640MB [580/850]: 10004
G92 GT 512MB [700/1000]: 12548

G80 hab ich noch mit nem E6400@3,2GHz getestet. Welchen Treiber ich beim G92 hatte, weiß ich nicht mehr, ich schätze den 169.25.

Leider bremst irgendwas in meinem System die 8800GT extrem aus, habe teilweise 20% weniger im SM3.0 Score als zu erwarten. Deshalb sind nun meine beiden 1024MB GT wieder zurück zum Händler und wenn das Geld wieder da ist wird erstmal ein anderes Mainboard besorgt.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh