Habe seit kurzem auch eine Gainward 8800GTS 1024:
http://www.alternate.de/html/produc...n=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA
Als erstes fiel mir auf das die Karte 2D und 3D Taktraten hat und auf der GPU nur 1,1V anliegen.
Bei 3DMark06 das selbe Ergebnis wie mit einer gleich getakteten 8800GT(730/1825/1050) und 500 Punkte weniger als mit einer 8800GTS, ebenfalls auf gleichem Takt:
8800GT 1024: 12663
8800GTS 512: 13203
8800GTS 1024: 12642
Tendenz ist in allen Benches und Spielen gleich.
Obwohl GPU-Z und alle anderen Tools 128 Unified Shaders anzeigen bin ich mir ziemlich sicher das es sich lediglich um eine GT Version handelt.
Der größere Speicher ist logischerweise langsamer solange er nicht gebraucht wird.
Um die 1024MB auch nur annähernd sinnvoll zu nutzen musst du schon mind. 1680x1050 4xAA 16xAF testen.
Da hatte meine 1024MB GT gut 1000 Punkte vorsprung zur 512MB GT.
Allerdings bringt einem die bessere Leistung da nicht sehr viel, da die allgemeine Leistung besonders in Shaderlastigen Anwendungen immernoch zu gering ist um in den Auflösungen flüssig spielen zu können. Leider funktioniert SLI nicht immer so schön wie es einem Nvidia weiß machen will, denn da würden die 1024MB Versionen richtig Sinn machen.
Und die 1.1V sind doch eigentlich genau richtig, oder hat die 512MB GTS mehr VGPU als die GT?
Hmm....
8800GTS 1024
15.02.2008 20:36:45 - Vista
Run #1- DX10 1680x1050 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 1617,5[/PHP]
PHP:
@ 2,4 GHz, sehr hohe Details
15.02.2008 19:54:03 - Vista
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 128.38s, Average FPS: 15.58
Min FPS: 9.99 at frame 142, Max FPS: 18.00 at frame 871
Average Tri/Sec: -6958972, Tri/Frame: -446702
Recorded/Played Tris ratio: -2.05
!TimeDemo Run 1 Finished.
Play Time: 124.50s, Average FPS: 16.06
Min FPS: 9.99 at frame 142, Max FPS: 18.39 at frame 868
Average Tri/Sec: -6969530, Tri/Frame: -433864
Recorded/Played Tris ratio: -2.11
!TimeDemo Run 2 Finished.
Play Time: 124.26s, Average FPS: 16.10
Min FPS: 9.99 at frame 142, Max FPS: 18.39 at frame 868
Average Tri/Sec: -6991453, Tri/Frame: -434362
Recorded/Played Tris ratio: -2.11
TimeDemo Play Ended, (3 Runs Performed)
==============================================================
Completed All Tests
<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>
15.02.2008 19:54:03 - Vista
Run #1- DX10 1680x1050 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 1608
Hier der Vergleich aus meinem TEST! mit der 8800GT@Default (1024)
PHP:
07.02.2008 10:10:50 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 124.80s, Average FPS: 16.03
Min FPS: 12.26 at frame 138, Max FPS: 18.35 at frame 861
Average Tri/Sec: -7182450, Tri/Frame: -448175
Recorded/Played Tris ratio: -2.05
!TimeDemo Run 1 Finished.
Play Time: 121.79s, Average FPS: 16.42
Min FPS: 12.26 at frame 138, Max FPS: 18.35 at frame 861
Average Tri/Sec: -7151558, Tri/Frame: -435480
Recorded/Played Tris ratio: -2.10
!TimeDemo Run 2 Finished.
Play Time: 121.78s, Average FPS: 16.42
Min FPS: 12.26 at frame 138, Max FPS: 18.35 at frame 861
Average Tri/Sec: -7154242, Tri/Frame: -435613
Recorded/Played Tris ratio: -2.10
TimeDemo Play Ended, (3 Runs Performed)
==================================================
Und hier die GTS@Default (512)
PHP:
07.02.2008 13:39:32 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 119.41s, Average FPS: 16.75
Min FPS: 8.95 at frame 138, Max FPS: 19.58 at frame 863
Average Tri/Sec: -7492238, Tri/Frame: -447310
Recorded/Played Tris ratio: -2.05
!TimeDemo Run 1 Finished.
Play Time: 115.13s, Average FPS: 17.37
Min FPS: 8.95 at frame 138, Max FPS: 19.58 at frame 863
Average Tri/Sec: -7544015, Tri/Frame: -434278
Recorded/Played Tris ratio: -2.11
!TimeDemo Run 2 Finished.
Play Time: 115.19s, Average FPS: 17.36
Min FPS: 8.95 at frame 138, Max FPS: 19.58 at frame 863
Average Tri/Sec: -7518522, Tri/Frame: -433020
Recorded/Played Tris ratio: -2.12
TimeDemo Play Ended, (3 Runs Performed)
==================================================
Soll ich dazu noch was sagen?
Wie wärs auch hier mit "CPU Limitierung"
Du musst schon mit AA und AF und einem blitzschnellen restlichen System testen, um die 512MB so stark in die Knie zu zwingen, dass ihr geringerer Verwaltungsaufwand im Verhältnis zur Grafikspeicherauslastung an Bedeutung verliert.
Außerdem sind alle Ergebnisse sehr Treiberabhängig. Mit der 1024MB Version hat bei mir der 173.80_forceware_vista32_beta am besten abgeschnitten - 20% und mehr Performancedifferenz zwischen den getesteten ForceWare Versionen (von aktuellerstem WHQL bis zur neusten Beta), wobei dieser hingegen die 512MB Version deutlich bremste (10% und mehr). Für die 512MB Version würde ich den 169.25 WHQL nehmen.
Leider macht es Nvidia einem damit nicht gerade leicht, aber bei der momentanen Preis/Leistungs Lage kann man sich eigentlich nicht beschweren.
Hinzugefügter Post:
Crysis Vergleiche zwischen 64 Bit und 32 Bit sind Schwachsinn. BEnchs mit verschiedenen Detailsettings sind wertlos. Crysis rendert unter Vista 64 hochauflösende Texturen in der Ferne.
Ist (abgesehen davon dass es sowieso leistungsmäßig keinen Einfluss hat) ziemlich unrelevant, wenn man einfach mit r_TexturesStreaming = 0 testet.
Schwachsinn sind Vergleiche keinesfalls.
32bit und 64bit Vista geben sich (zumindest was Crysis betrifft) nichts.
64bit bringt außer der Möglichkeit der größeren RAM Bestückgungsmöglichkeiten keinen nennenswerten Vorteil. Sowohl von 2 auf 4GB RAM als auch von 32 auf 64bit Vista Ultimate brachten bei mir jeweils nur 0.5FPS mehr im Benchmark und auch gefühlt hat sich die Leistung nicht verbessert.
Wer es richtig schnell haben will, ist immernoch mit dem DX9 VeryHigh "Hack" am besten beraten und es sieht auch genauso gut aus, solange man sich auf das Spiel konzentriert und nicht mit Screenshots und Lupe die Bildqualität analysiert.