Korrigiere mich wenn es nicht stimmt, aber wenn ich mich richtig erinnere gab es auch damals schon eine Menge Applikationen die weitaus mehr als 320MB VRAM belegt haben und unweigerlich abgeschmiert sind weil das "Feature" eben verhindert das der VRAM regelmäßig geleert wurde. Schnell war das Teil, aber Speed ist halt nicht alles......
Du hast schon recht, es war definitiv nicht 100% durchdacht das ganze damals. Und man hat ja auch dran rumgepatcht. Nur das ganze beispielsweise allein auf die 320MB Version zu schieben ist heute wie damals schon nicht ganz richtig. Es hatten zwar alle G80 Karten das Problem zu Anfang. Aber nur bei der 320MB Version viel es massiv auf. Eben weil es möglich war vom Speed her, Settings zu fahren, die eben den VRAM überladen haben.
Mach das mal heute
-> das Ergebnis ist quasi analog zu damals, teils sogar mit Abstürzenden Games.
Skyrim mit 4xSGSSAA auf nem 2560er Monitor + ein paar Texturmods und du bist im VRAM Limit. Andauernde Nachladeruckler bei 2GB VRAM sowie FPS Raten im Unspielbarkeitsbereich, teils sogar unter 10 FPS.
Das Problem ist also in meinen Augen kein Problem, sondern es ist einfach ein Umstand, die Karte VRAM seitig zu überfüllen, das diese nicht mehr weis was sie tut. Das das ganze dann abschmiert, ist sicher unschön, nur ändert es an der Schuld des Users nix, der diese Settings fahren will, obwohl die Karte dafür nicht taugt.
Die Politik die AMD bzw. ATI zu der Zeit fuhr, ist auch nicht das gelbe vom Ei gewesen, nämlich alle Nase lang die Daten wieder aus dem VRAM zu kicken. Mit einem ähnlichen, wenn auch nicht ganz so massivem Effekt -> Nachladerruckler, wenn mal wieder was davon benötigt wird.
Ich habe damals hier im Forum mal Benches gemacht, G80 vs. R600. Beispielsweise war Anno ich glaube 1701 ein Extremes Beispiel für gute sowie schlechte VRAM Politik.
Bei einer NV Karte wurde alles im VRAM behalten. Man scrollte über die Karte, und je nach veränderter Vegetation in den Klimazonen wurden massiv viel andere Daten benötigt. Bei NV hatte man genau ein einziges mal Nachladeruckler, nämlich wo die Daten zum ersten mal auf dem Schirm sichtbar waren. (die VRAM Auslastungskurve ging stetig nur aufwärz) Bei ATI/AMD Karten damals war es so, das die Daten nach wegscrollen von einer Insel sichtbar (durch Auslastungsanzeigen) aus dem VRAM gekickt wurden und man quasi jedes mal, wenn man eine Insel betrat, die Daten neu einladen musste -> Nachladerruckler. (Auslastungsanzeige erst massiv runter, dann wieder hoch -> idR sogar mit kurz sichbarer Sanduhr vom Spiel)
Und genau das meine ich beispielsweise. Die einen nennen es Feature, die anderen nenne es Bug. Wenn ich will, das die Daten alle im VRAM sind, muss auch genügend Platz da sein
Den hatte die 320MB Version schlicht nicht... -> deswegen die Probleme, die eigentlich keine waren. Will ich möglichst wenig VRAM Belastung, kicke ich den Spaß immer wieder raus. (was aber wenig Sinn macht, da Nachteile)
Gothic 3 war auch so ein Beispiel. Da gab es auch massiv sich ändernde Daten nach Klimazonen.
Wies hier schon beschrieben wird, wenn neue games kommen gibts von nv entweder glecih nen neuen treiber oder das funzt mit dem letzten, bei amd wars offt so das es zuerst massive probleme gibt und die dann nach wochen- monaten mal gelöst wurden..
warum? ganz einfach, nvidia arbeitet mit den entwicklern zusammen und löst die probleme vorher, während amd nach gamerlase offt erstma dasteht wie bier macht blöd und sich dann erst an die arbeit macht..
Könnte schlicht und einfach wohl auch daran liegen, das NV sich diese "nahe" Zusammenarbeit mit den Entwickler einkauft, wärend AMD dies nicht macht. Es gibt/gab Newsmeldungen, das NV Geld an die Entwickler zahlte, damit diese NV only Features in ihre Games implementierten. Ebenso gab es Fälle, wo man AMD exklusiv Features zur damaligen Zeit aus dem Game schlicht rausgepatcht hat, damit NV Karten bei einem TWIMTBP Titel nicht zu schlecht dastehen
Man kann ja gerne eine leichte Herstellerverbundenheit verspüren, nur an irgend einem Punkt wäre es ratsam, einfach mal opbjektiv zu sein. Es bringt niemanden was, einen Hersteller zu verteidigen oder runter zu machen. Die wollen alle samt nur einfach euer Geld
schau dir nur mal den letzten gta release an, schatten gehen bis huete bei bf2 auf amd karten nicht richtig, bei swtor ging aa moantelang auf amd karten nicht, das setzt sich fort...
und von win 8 halte ich garnix für den desktop, die 6150 hat nichtma unified shader oder ?
Thema GTA, also wenn die Probleme durch den Hersteller selbst weggepatcht wurden, was hat der Grafikkartenhersteller damit zu tun?
BF2 und SWTOR spiele ich nicht, keine Ahnung. Aber AA ist wenn es nicht vom Game selbst bereit gestellt wird nie ein Garant, das es gehen muss. Und wenn es vom Game kommt, geht es idR auch.
Thema Windows 8 und Geforce 6. Spielt es eine Rolle ob das unified shader sind bzw. ob Windows 8 im Desktop Betrieb taugt? Fakt ist, der Treiber ist offiziell sowohl für die GPU Reihe als auch das OS freigegeben, funkt aber scheinbar nicht...
Umsonst leigt nvidias marktanteil bei dedizierten grakas derzeit bei ca 70%, da half auch die monatelange keplerverzögerung nicht...
Es liegt wohl einfach daran, das nicht jeder gleich losrennt, wenn es neue GPUs gibt
Schaut man sich über längere Zeit mal Statistiken an, so sieht man schon was Phase ist. Bei Steam beispielsweise Stand Nov. 2012 ist die 560TI die meist verwendete DX11 Karte. Und es verwenden aktuell gerade mal grob 55% aller an der Umfrage teilgenommenen User eine DX11 GPU. Wie man unschwer erkennen kann, schwingt also bei fast der Hälte der User noch eine Kaufentscheidung von Hardware aus der Zeit von vor 3 Jahren mit.
Stand 2010 beispielsweise war die meist verwendete GPU übrigens eine aus der HD4800 Reihe
Und mit ~10% waren 3x mal mehr HD4800er GPUs in Verwendung als es heute die 560TI (mit ~3,5%) ist.
Ebenso sieht man, das der meist verwendete AMD Treiber aus dem Jahr 2010 ist, wohingegen der NV Treiber aus dem Jahr 2012 ist.
Auch sind die Zuwächse von Monat zu Monat interessant. Dort halten sich NV und AMD in den jeweiligen Produktklassen relativ die Waage...
es scheint so, als kauft der überwiegende Teil nach P/L und nicht dediziert nach Marke. Sonst wäre dieser Umstand nicht ziemlich ausgeglichen.
Alles in allem sind das übrigens halbwegs objektive Fakten, die jeder nachlesen kann... Irgendwelche Forenposts mit den Quengeleien der User sind hingegen oft schwer subjektiv.
Mich persönlich interessiert dabei auch nicht im geringsten, wer hier irgendwelche Probleme in welcher Art auch immer, mit AMD Hardware oder dessen Treibern hat. Wenn ich etwas teste, mache ich das selbst anstatt mich auf unbekannte Dritte zu verlassen. Und ich kann dir sagen, das für mein Einsatzgebiet sich NV und AMD Treibertechnisch absolut die Waage halten.
Und dabei nehme ich die Leute hier voll und ganz ernst. Nutzt mir nur absolut gar nichts, wenn ich das gleiche Problem nicht habe bzw. das Problem bei mir nicht aufkommen kann, weil ich das Spiel nicht habe.
Das gleiche gilt natürlich auch andersrum, nur die wenigsten werden hier zwei bzw. drei unterschiedliche Monitore in einem drei GPU (zwei im SLI + eine dediziert) Gespann nutzen und können somit Probleme mit eben jener NV Hardware/Software nachstellen bzw. deren Relevanz einschätzen/einstufen.
Es bleibt also einfach nur im Endeffekt zu sagen, das es klar zu differenzieren gilt. Pauschalaussagen sind idR ziemlicher quatsch.
Meine Aussagen basieren übrigens auf ATI/AMD Hardware seit der R300 GPU und aus fast jeder Generation mindestens eine. Genauso bin ich bei NV seit der Geforce2 dabei
mit ebenso fast aus jeder Generation mindestens einem Produkt.