[Sammelthread] Nvidias Speichermanagement der GeForce 8/9

Liebe Leute,
ich möchte hier mit diesem Beitrag das Speichermanagement von Nvidias 8800er/9600er Reihe besprechen und vielen User helfen die das Problem auch haben.
Es ist ja mittlerweile länger bekannt, dass die 8800GTS mit 320MB sehr oft wegbricht bei höheren Auflösungen obwohl sie mehr V-Ram hat als die 3850 mit 256MB. Das Speichermanagement betrifft aber alle Nvidia Karten der 8800er Reihe und auch der neuen 9600er

Beispiel 1 Oblivion:
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page9.asp

ut1280a2z.gif

Die beiden Karten mit 256MB (ATI und Nvidia) liegen gleich auf was auch im Rahmen sein soll.

ut16006vx.gif
ut1920ahj.gif

Die 8800GT mit 256MB erleidet den bösen VRAM Bug - Speicher ist aus - Licht aus. Die HD3850 kommt mit der gleichen Speichermenge super zurecht.



Beispiel 2 Bioshock:
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page19.asp

bshock1280vrp.gif

Bei der Auflösung reicht der Speicher von 256MB noch aus. Der Bug zeichnet sich nicht gaz so stark aus.

bshock16009oe.gif
bshock1920isc.gif

Die 512MB Version kann den Bug auffangen da sie genügen Ram hat. Der 256MB Variante geht das Licht aus.


Beispiel 3 Call of Duty mit 9600GT 512MB mit neuesten 174.12 Treiber
cod4-1920rar.gif

Hier fühlt sich die 8800GT und 9600GT sehr wohl und skaliert um fast 80% mit SLI

cod4-2560y3x.gif

Der VRAM Bug macht die SLI-Skalierung unmöglich da die 512MB bei Nvidia ausgehen und der zusätzliche Rechenaufwand für SLi an der Performance zerrt. Von nicht funktionierenden SLI kann nicht die Rede sein, das SLI in allen anderen Configs einwandfrei funktioniert!
Bei ATI kann man die Crossfire Skalierung von 110% sehr gut erkennen, die Bandbreitennutzung ist mehr als optimal bei gleicher Speichergröße von 512MB VRAM.

Auch der Autor dieses Artikels bestätigt den VRAm Bug:
"The story is the same on both the 9600 GT and the 8800 GT. My best theory: they may be running out of video memory, which would explain the big drop in performance."


Beispiel 4 COH DX10 mit 9600GT 512MB mit 174.12 Treiber:
http://www.computerbase.de/artikel/...e_9600_gt_sli/20/#abschnitt_company_of_heroes

Ohne AA/AF skaliert SLI mit 56%. Mit AA/AF geht der Karte den Speicher aus und macht ein Skalierung unmöglich.
Der 8800GTS mit 320Mb geht bei 1600x1200x8AA der VRAm aus (0,0fps) während die 3850 mit 256MB noch 15fps liefert.

Beispiel 5 Crysis DX10 9600GT 512MB mit 174.12 Treiber:
http://www.computerbase.de/artikel/...idia_geforce_9600_gt_sli/21/#abschnitt_crysis

Ohne AA/AF und geringen Ram Verbrauch skaliert die 9600GT mit 57%.
Die Zuschaltung von AA/AF gibt den Nvidia Karten mit 512MB den Todestoß: Wegen dem VRAM Bug ist nur noch eine Skalierung von weniger als 10% möglich. Die ATI Karten skalieren überall mit ~ 40-60%


Beispiel 6 Dirt 8800Ultra 3Way SLI:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/9/
Bei der Auflösung 2560x1600x4AA/16AF geht der Ultra der RAM aus und macht SLI skalierung unmöglich.

Beispiel 7 Call of Juarez 8800Ultra 3Way SLI
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/14/
Bei der Auflösung 2560x1600x8AA/16AF geht der Ultra der RAM aus und macht SLI skalierung unmöglich.

Beispiel 8 CoH DX10 8800Ultra 3Way SLI
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/15/
Bei der Auflösung 2560x1600x8AA/16AF geht der Ultra der RAM aus und macht SLI skalierung unmöglich.


Den VRAM Bug existiert bei jeder Nvidia Karte , wenn man die Auflösung und AA/AF genügend hochschaltet. Auch die GTX/Ultra sind davon betroffen, was allerdings eine noch höhere Auflösung und AA/AF benötigt.

Lösung: Bei Nvidia gibs seit über einem Jahr keine Lösung für das Problem. Dem Käufer bleibt lediglich die Möglichkeit auf Karten mit mehr VRAM umzusteigen und hoffen, dass die nächste Generation ein besseres Speichermanagement bietet!
 
Zuletzt bearbeitet:
hab ich jetzt etwas missverstanden ?

der vram bug bedeutet doch das einmal benutzter speicher unter umstaenden beim starten der naechsten applikation nicht mehr freigegeben wird.
soll heissen das die zweite applikation die angestartet wird nicht mehr ueber die volle
menge an speicher verfuegen kann und somit langsamer laueft.

vram bug heisst doch nicht das einer karte schon beim starten der 1. applikation
bei "hochgeschraubten" einstellungen der vram "ausgeht".

sli mit 2x9600gt kann nicht wesentlich besser laufen als single karte da sich der arbeitspeicher
der beiden karten ja nicht addiert.
2x512mb im sli = 512mb vram
lauefts also mit nicht sli und 512mb "bescheiden" weil das programm schon 800mb
vram bedarf hat, laueft es mit sli 2x512mb etwas besser "bescheiden".

ich rede jetzt nicht davon das ati im "speichermanagement" effizienter ist.

bei allen benchmarks oben gelistet wird in der regel der rechner vor jedem einzelnen benchmarken neu gestartet.
es ist also kein "vram-bug" da.

oder erzaehle ich jetzt "bockmist" und habe alles falsch verstanden ???
 
"Die Grafikkarten und mobilen Grafikchips der Geforce-8-Serie wurden mit Treibern ausgeliefert, die einen Fehler im Speichermanagement besaßen. Dieser von Nvidia als VRAM-Bug bezeichnete Fehler führt dazu, dass immer weiter Daten in den Grafikspeicher geladen werden, so dass dieser irgendwann überfüllt ist. Dann müssen Texturen und ähnliche Dateien ausgelagert werden, wodurch die Leistung stark abnimmt. Im Normalfall sollten vorher nicht mehr benötigte Dateien aus dem Grafikspeicher entleert werden, dies passiert bei der Geforce-8-Serie nicht."

http://de.wikipedia.org/wiki/Nvidia-Geforce-8-Serie
 
Zuletzt bearbeitet:
genau das meine ich.

mir ist jetzt nur neu das dieses "phaenomen" innerhalb einer applikation
stattfinden soll.
es wuerde bedeuten das wenn ich mich hinsetzte und 8 stunden zeit haette
beim durchspielen von cod4 der vram bedarf je laenger ich spiele zunehmen wuerde.
d.h. das das spiel mit wachsender spieldauer wenn der karte dann der vram ausgeht
natuerlich immer langsamer werden wuerde.
dem ist aber nicht so.

der "vram-bug" besagt das die applikation unter bestimmten umstaenden den vram
speicher zum teil weiterhin benutzt haelt obwohl sie beendet wurde.
d.h. das die zweite applikation die ich anstarte nicht mehr den vollen vram zu verfuegung hat.

das hat nichts damit zu tun das ich mit 128mb vram nicht fluessig cod4 mit 16xaa in
2560x1600 spielen kann. (dafuer reichen nunmal auf der graka 128mb nicht)

dieses "phaenomen" des vram-bugs sollte doch angeblich seit wochen durch
neuen treiber seitens nvidia gefixt worden sein ?

ich betreibe 2x8800gt jeweils 1024mb im sli = 1024mb vram
ich konnte weder bei cod 4 noch bei crysis eine signifikante zunahme des vram bedarfs
bei "laengeren" spielsessions messen.
und erst quake4 auf 2048x1536 (leider meine max. Aufloesung) hat mit
aa und af es geschafft das ich ca. 950mb gebraucht habe !
 
Da deine Karten bereits mit 1024MB ausgestattet sind, verschiebt sich der VRAM Bug bei dir in höhere Dimensionen (Auflösung/AA).
Wenn du also eine Applikation (Spiel) startest, werden eine große Menge von Texturen in den VRAM geladen. Angenommen ~550MB - dann hat deine Karte noch einen großen Spielraum von über 400MB "frei". Deine Karten haben also genügend VRAM sich auszutoben und trotz des schlechten Managements die unnötigen Texturen langsam zu leeren.
Bei einer 500MB Karte wird der VRAM voll geladen und die restlichen 50MB "ausgelagert". Und diese minimale Auslagerung läuft wohl immer einen schritt langsamer ab als nötig.
Quasi wird bei der nächten Texturablagerung die 50MB in den VRAM geladen und die Karte kann nur noch 450MB mit neuen Texturen aufüllen. Was bleibt sind 100MB die wieder ausgelagert werden müssen. usw....
Was man nicht vergessen darf ist die Kompression dieser Dateien die Nvidia in einigen Fällen steitig verbessert hat.
Das Problem ist komplex und nicht in einfachen Worten zu erklären, was Nvidia selbst zugegeben hat.

http://www.computerbase.de/news/har...07/august/loesung_texturproblem_geforce_8800/
"Update 29.08.2007 09:08 Uhr: Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein."
 
Zuletzt bearbeitet:
das klingt schon logisch !

ich werde es versuchen nachzutesten.

ich brauche ja nur mehr als 1024mb vram auszulasten.
habe ich das mit hilfe von quake & co. geschafft, muss mein spiel laut deiner
argumentation ja mit wachsender spieldauer immer "langsamer" werden.

der vram-bug sollte allerdings heutzutage kein thema mehr sein.
mittlerweile sind wir bei 169.21whql oder sogar hoeher.
oder hat james wang gelogen ???

ich werde versuchen in den naechsten tagen das problem mit einem "alten"
treiber vor 163.44 nachzustellen . . .

stay tuned . . . .
 
das klingt schon logisch !

ich werde es versuchen nachzutesten.

ich brauche ja nur mehr als 1024mb vram auszulasten.
habe ich das mit hilfe von quake & co. geschafft, muss mein spiel laut deiner
argumentation ja mit wachsender spieldauer immer "langsamer" werden.

der vram-bug sollte allerdings heutzutage kein thema mehr sein.
mittlerweile sind wir bei 169.21whql oder sogar hoeher.
oder hat james wang gelogen ???

ich werde versuchen in den naechsten tagen das problem mit einem "alten"
treiber vor 163.44 nachzustellen . . .

stay tuned . . . .

Die Texturlagerung erfolgt sofort, sobald das Spiel geladen ist und läuft immer ab wenn sich die Texturen in der Spielszene verändern. Das hat nichts mit zunehmenden Spieldauer zu tun sondern ganz einfach mit der Überlastung des VRAMs in der dargestellten Szene.
Mit Colin MC Dirt bzw. COH und der Auflösung 2560x1600x8xAA oder höher dürftest du die 1024MB voll auslasten.
 
???

laut deiner argumentation versuche ich z.b. 1124mb texturen in 1024mb zu laden.
ergo 100mb werden ausgelagert.
quasi werden bei der naechsten texturauslagerung die fehlenden 100mb nachgeladen
und ich habe nur noch 924mb.
das spiel versucht also wieder 1124mb zu laden und ich habe nur 924mb.
ergo 200mb werden ausgelagert.
dann werden irgendwann die 200mb nachgeladen und ich habe nur noch 824mb . . .
usw. usw.

je mehr nachgeladen wird (und mein vram wird immer kleiner),
wird mein spiel auf dauer nicht langsamer ???

du verwirrst mich !!!

(naja ist halt schon spaet) (oder frueh)
 
???

laut deiner argumentation versuche ich z.b. 1124mb texturen in 1024mb zu laden.
ergo 100mb werden ausgelagert.
quasi werden bei der naechsten texturauslagerung die fehlenden 100mb nachgeladen
und ich habe nur noch 924mb.
das spiel versucht also wieder 1124mb zu laden und ich habe nur 924mb.
ergo 200mb werden ausgelagert.
dann werden irgendwann die 200mb nachgeladen und ich habe nur noch 824mb . . .
usw. usw.

je mehr nachgeladen wird (und mein vram wird immer kleiner),
wird mein spiel auf dauer nicht langsamer ???

du verwirrst mich !!!

(naja ist halt schon spaet) (oder frueh)

Dies geschieht in auch schon in wenigen Sekunden wenn die Texturen sich verändern (Blickwinkel bei EGO shooter) und nicht erst nach "längerer" Zeit. Der VRAM Bug schlägt sofort ein und wartet nicht!
 
na ist doch toll !

dann kann ich ja innerhalb weniger sekunden sehen wie mein spiel immer langsamer
wird . . . .

das ersparrt mir stundenlanges testen mit quake & co.
(habe ich naemlich schon durchgespielt)
 
Das Könnte auch der Grund sein warum Crysis nach Längerem Spielen immer Langsammer wird :hmm:
Also eine 256MB karte Lohnt also Definitiv nicht mehr wircklich.
 
Das Könnte auch der Grund sein warum Crysis nach Längerem Spielen immer Langsammer wird :hmm:
Also eine 256MB karte Lohnt also Definitiv nicht mehr wircklich.

Jetzt bei deiner 8800GT mit 512MB? Der VRAM Bug verhält sich von Spiel zu Spiel bissel anders.

Was ich selbst bei Crysis Benchens festgestellt habe waren Anomalien bezüglich der Min Frames unter Zuschaltung von Anti Aliasing!
8800GT 512MB:
Code:
Beginning Run #5 on Map-island, Demo-benchmark_gpu
DX10 1900x1200, [COLOR="Red"]AA=No AA[/COLOR], Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
 ==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 2 Finished.
    Play Time: 90.25s, Average FPS: 22.16
    Min FPS: [COLOR="Red"][B]16.92[/B][/COLOR] at frame 1951, Max FPS: 27.17 at frame 867
    Average Tri/Sec: -21504622, Tri/Frame: -970356
    Recorded/Played Tris ratio: -0.94
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Beginning Run #6 on Map-island, Demo-benchmark_gpu
DX10 1900x1200, [COLOR="Red"]AA=4x[/COLOR], Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
 ==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 2 Finished.
    Play Time: 180.77s, Average FPS: 11.06
    Min FPS: [COLOR="Red"][B]2.84[/B][/COLOR] at frame 1445, Max FPS: 14.68 at frame 340
    Average Tri/Sec: -10378367, Tri/Frame: -938033
    Recorded/Played Tris ratio: -0.98
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

HD3870 512MB
Code:
Beginning Run #7 on Map-island, Demo-benchmark_gpu
DX10 1900x1200, [COLOR="Red"]AA=No AA[/COLOR], Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
 ==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 2 Finished.
    Play Time: 95.91s, Average FPS: 20.85
    Min FPS: [COLOR="Red"][B]11.68[/B][/COLOR] at frame 1949, Max FPS: 24.31 at frame 1756
    Average Tri/Sec: -19417990, Tri/Frame: -931148
    Recorded/Played Tris ratio: -0.98
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Beginning Run #8 on Map-island, Demo-benchmark_gpu
DX10 1900x1200, [COLOR="Red"]AA=4x[/COLOR], Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
 ==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 2 Finished.
    Play Time: 133.15s, Average FPS: 15.02
    Min FPS: [COLOR="Red"][B]8.46[/B][/COLOR] at frame 1930, Max FPS: 18.35 at frame 1748
    Average Tri/Sec: -13487893, Tri/Frame: -897957
    Recorded/Played Tris ratio: -1.02
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Der Abfall der Min FPS bei der HD3870 (11 ->8) ist als normal zu bezeichnen, während der Verfall bei der 8800GT (17 -> 2) unter VRAM Bug einzuordnen ist.
 
Zuletzt bearbeitet:
Um nochmal drauf zurückzukommen: Wenn es alleine an der höheren Auflösung liegen würde, dann müssten ja die Ati-Karten mit denselben Qualitätseinstellungen auch in die Knie gehen. Tun sie aber nicht.
Was kurios ist: Ich habe mein Oblivion mit Riesen-Texturen modifiziert, der VRam-Bedarf ist dadurch natürlich gewaltig gestiegen. Der Ersteller der Texturpacks sagt selbst das für flüssiges Spielen 512MB Vram das Minimum wären.
Auf einer 8800GTS mit 320MB ruckelt Oblivion dementsprechend stark. Auf einer übertakteten 7900GS mit 256MB in demselben Rechner mit denselben Einstellungen läuft es fast flüssig.
Scheinbar ist die 7er-Reihe nicht (oder nicht so stark) vom Bug betroffen.
 
Um nochmal drauf zurückzukommen: Wenn es alleine an der höheren Auflösung liegen würde, dann müssten ja die Ati-Karten mit denselben Qualitätseinstellungen auch in die Knie gehen. Tun sie aber nicht.
Was kurios ist: Ich habe mein Oblivion mit Riesen-Texturen modifiziert, der VRam-Bedarf ist dadurch natürlich gewaltig gestiegen. Der Ersteller der Texturpacks sagt selbst das für flüssiges Spielen 512MB Vram das Minimum wären.
Auf einer 8800GTS mit 320MB ruckelt Oblivion dementsprechend stark. Auf einer übertakteten 7900GS mit 256MB in demselben Rechner mit denselben Einstellungen läuft es fast flüssig.
Scheinbar ist die 7er-Reihe nicht (oder nicht so stark) vom Bug betroffen.

Der VRAM Bug wurde anscheinend nicht behoben - bzw. er ist in der Architektur der neuen Nvidia Generation verankert und ist somit gar nicht zu beheben. Mit entsprechenden Texturen dürfte auch eine G92 512MB schnell in die Knie gehen.
 
Der VRAM Bug wurde anscheinend nicht behoben - bzw. er ist in der Architektur der neuen Nvidia Generation verankert und ist somit gar nicht zu beheben. Mit entsprechenden Texturen dürfte auch eine G92 512MB schnell in die Knie gehen.

Japp. Was ich nur mit dem Beispiel zeigen wollte ist, das sobald der Bug auftritt die beste Rechenleistung halt auch nix mehr rausreissen kann.
Trotzdem ist eine 8800GT absolut keine schlechte Karte, man sollte halt nur zur 512MB-Variante greifen.

Crysis ist übrigens kein besonders gutes Beispiel, da das Spiel bei gewöhnlichen Einstellungen selbst die Texturmenge an das vorhandene VRam anpasst. Zwingt man das Ding natürlich zu übertriebenen Einstellungen gehts in die Knie, aber da ists dann egal ob Ati oder NV.
Erst durch hohe FSAA/AF-Modi tritt der Bug hier auf, auflösungsbedingt hab ich ihn aber noch nicht gesehen. Lässt einen trotzdem vermuten das Nvidia auch vielleicht ineffizientere FSAA-Algorithmen als Ati verwendet.
 
Ich hatte schon die vermutung, das der V-RAM Bug ein Hardware Problem ist, alsi ich von der neuen Komprimierungsmetode von NV gehört habe, welches es ermöglichen soll, mehr und schneller in den Speicher zu laden. Ist also anscheinend nur eine "Notlösung" diese Komprimierung, welche dann von der CPU ( über den Treiber ) erledigt werden muss.
Naja, jetzt haben ich ATI, und da gibbet das Problem nicht, bei meiner 8600GTS/256 habe ich bei BF2 desöffteren ( gerade nach Map Wechsell ) einen starken fps einbruch gehabt.
Also wird auch der G94 noch fehlerhaft Verkauft.
 
Zuletzt bearbeitet:
@vinacis_vivids: Wie wärs wenn du mal aufzeigst wie der VideoMemory Verbrauch tatsächlich ist und wie er sich verändert, anstatt hier über fremde Benches zu lamentieren. Zusätzlich kann man sich dann noch die FPS ansehen.
Aber nur durch die FPS Rückschlüsse auf den VideoMemory Verbrauch zu machen halte ich für riskant, schließlich können auch andere Faktoren die FPS beeinträchtigen.

Also ich merke den VRAM Bug sehr deutlich, die 512MB reichen eigentlich selten und nicht lange.
 
Zuletzt bearbeitet von einem Moderator:
Ich hatte schon die vermutung, das der V-RAM Bug ein Hardware Problem ist, alsi ich von der neuen Komprimierungsmetode von NV gehört habe, welches es ermöglichen soll, mehr und schneller in den Speicher zu laden. Ist also anscheinend nur eine "Notlösung" diese Komprimierung, welche dann von der CPU ( über den Treiber ) erledigt werden muss.
Naja, jetzt haben ich ATI, und da gibbet das Problem nicht, bei meiner 8600GTS/256 habe ich bei BF2 desöffteren ( gerade nach Map Wechsell ) einen starken fps einbruch gehabt.
Also wird auch der G94 noch fehlerhaft Verkauft.
Bevor hier irgendwelche Vermutungen geschrieben werden, sollte man richtigen Fakten darlegen!
Hamma ist auch der Meinungswechsel, vorher lief Deine GTS doch ach so gut, jetzt wo die ATI drin ist nicht mehr oder wie. Da fällt einen echt nichts mehr ein:lol:

Wie nennt man das bei den ATIs, das die unter 4xAA nicht hinter den nVidias hinterherkommen, ist das auch ein Bug?
Mal ehrlich, hier werden teilweise Einstellungen verglichen, die keiner benutzt....das sieht für mich eher nach einen vs nVidia Flamethread aus.
 
Zuletzt bearbeitet:
vento, in welchen Auflösungen bist'n du am Zocken, dass du den Bug so schnell merkst?

Ich mach mir gerade etwas sorgen, da ich mir die 8800GTS erst kürzlich geordert habe...
 
@black-avenger: 1680x1050, ich zocke aber nur Crysis :fresse:, da soll das ja besonders schlimm sein. Mit einer veryhigh oder ultra config bist du da ganz schnell bei 700MB und mehr. Man merkt dann wie das Spiel ruckliger läuft und die FPS nehmen auch ein wenig ab.
 
Bevor hier irgendwelche Vermutungen geschrieben werden, sollte man richtigen Fakten darlegen!
Hamma ist auch der Meinungswechsel, vorher lief Deine GTS doch ach so gut, jetzt wo die ATI drin ist nicht mehr oder wie. Da fällt einen echt nichts mehr ein:lol:

Wie nennt man das bei den ATIs, das die unter 4xAA nicht hinter den nVidias hinterherkommen, ist das auch ein Bug?
Mal ehrlich, hier werden teilweise Einstellungen verglichen, die keiner benutzt....das sieht für mich eher nach einen vs nVidia Flamethread aus.

nein soll es nicht!

habe die 8600GTS übriegens behalten und sie ist weiter im zweitgame Rechner verbaut ( weil sie bis 1280x1024/1440x900 vollkommen OK ist und ich immer sehr zufrieden war und bin!
Nur habe ich eben wie oben geschrieben dieses "Problem" bei BF2 nach MAP wechseln Online gemerkt, da hatte dann die MAP plötzlich Laderuckler, die sonnst bei erstladen einer MAP nicht da waren!
Und das mit dem "Kompressionstrick" der Plötzlich von NV erfunden wurde, könnte ja wohl etwas damit zu tun haben oder nicht ?
Übriegens bei meiner 7300GT Sonic die ebenfalls gute leistungen in BF2 unter 1280x1024 bringt habe ich diese Nachladeruckler bei Mapwechsel nicht !
 
so ein glück dass der ram bug nur bei den g80 chips ( die g92 basieren auf ihm) vorkommt.....seid wann hat eine 8600gts auch einen g80....obwohl da hardwarekenners 8600 sowieso fast genauso schnell war wie eine 8800gtx^^
 
Am besten solche Teste selber machen und den VRAM Verbrauch messen dann sehr Ihr was geht.
 
so ein glück dass der ram bug nur bei den g80 chips ( die g92 basieren auf ihm) vorkommt.....seid wann hat eine 8600gts auch einen g80....obwohl da hardwarekenners 8600 sowieso fast genauso schnell war wie eine 8800gtx^^

der V-RAM bug ist sogar in den G92/G94 Chips noch drinn!

und er hat alle G8x Chips betroffen!

"Überprüfungen ließ sich jedoch feststellen, dass jede Grafikkarte der Geforce-8-Serie diese Fehler besitzt."

Quelle: http://de.wikipedia.org/wiki/Nvidia-Geforce-8-Serie
 
Zuletzt bearbeitet:
Mal sehen was an der ATI alles schlecht ist wenn du wieder irgendwann auf nV gwechselt bist, kannst jetzt ja etwas Erfahrungen sammeln.:d
 
@hardwarekenner:
...und so beginnt es erneut....

on topic:
also ich für meinen teil konnte noch nichts dergleichen feststellen mit meiner 8800gt, habe allerdings auch noch keine vram messungen durchgeführt da ich keinerlei anlass dazu hatte, mag auch sein dass es bei meiner auflösung (1440x900) gar keine relevanz hat
 
ich habe keine vram bug, ich kann mit guten fps zocken über, auch längere zeit
 
@kenner
in wikipedia stehen viele sachen drin:d:d:d heute hat uns unser physik lehrer einen45minütigen vortrag gehalten......könntest du lesen, wüsstest du das ich mit " der g92 basiert auf dem g80" gemeint habe das der bug nicht weg ist......ich glaube es sollten sich mal einige leute hier zusammen "setzten" und einen wikipedia eintrag über hardwarekenner schreiben:d:d:d
 
.ich glaube es sollten sich mal einige leute hier zusammen "setzten" und einen wikipedia eintrag über hardwarekenner schreiben:d:d:d

Oje, das wäre ja gar nicht ich Worte zu fassen.

Ist dieser VRam Bug mit irgend einem Treiber mehr oder weniger zu bemerkten? Wenn ja, mit welchem Treiber kommt er am wenigsten zu tragen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh