gut das Du es ansprichst. Die wurde um 27 % erhöht. Wäre hier das Limit, dann dürfte die Karte nirgends um diesen Prozentsatz schneller sein als ihre Vorgängerkarte.
Zum Thema Speicherbandbreite gibts schon einiges im Technikthread, fakt ist, das man hier keine Pauschalaussgen treffen kann...
Ich kann dir ne Anwendung schreiben, die sogut wie gar keine Last auf den Shadern erzeugt, dafür aber extrem Speicherbandbreiten limitiert ist, ebenso wie ich dir ne Anwendung schreiben kann, die massiv an den Shadern hängt, dafür aber mit ganz ganz wenig Speicherbandbreite auskommt...
Ergo, das ganze (also, was limitiert wo) hängt massiv von der Anwendung ab und lässt sich nicht pauschalisieren...
@GPU erstezt CPU: meiner Meinung nach wird die GPU zwar nicht die CPU ersetzen aber dafür Hilfestellungen leisten (wie z.B. KI, Wegfindung in Spielen usw.) Bis dahin wird noch ein bisschen Zeit vergehen - d.h. die Spieleentwickler müssen schauen, dass sie die Software entsprechend der geg. Hardware anpassen und das vorhandene effizient nutzen. Die Grundvoraussetzungen sind schon vorhanden.
Die Frage ist doch, macht es Sinn der GPU noch weitere Aufgaben zu überreichen? Gerade wenn man mal vom HighEnd Markt weggeht, der ja weit kleiner ist, als die Mittel- und Unterklasse, dann stellt man fest, das quasi alle Performance der Karte für die Games verbraten wird...
Weitere Aufgaben auf die GPU zu übertragen, würde die Games noch schlechter (optisch und Leistungstechnisch) aussehen lassen...
wer zum Henker nutzt bitteschön eyefinity? Die 5870 ist doch eigendlich eine Midrangekarte und eyefinity gehört da eigendlich garnicht rein. Auf High-End Karten ok. Auch wenn sie schon die Power hat, aber wer leistet sich mindestens 3 Monitore, der sich ne Midrangekarte kauft???
Ne, gerade im Einstiegsklasse und Mittelklassebereich macht es viel mehr Sinn für günstig Geld support für mehr als 2 Monitore zu bieten...
Speziell wenn man auf das Firmenumfeld abzielt.
Wenn ich da bei mir auf Arbeit schaue, da haben quasi alle Festrechner mindestens 2 Monitore, das Arbeiten geht einfach entspannter von der Hand, wenn man die Fenster nicht immer hin und her klicken muss...
Und alle Rechner mit Onboard GPU werden da durch ein kleinst Modell von NV oder AMD zum Dual Monitoring Support überredet, würde die Karte 3 Ausgänge bieten, hätten einige Leute auch 3 TFTs dran...
Die restlichen Sachen finde ich alle gut und schön was ATI da von sich gegeben hat und bin gespannt wie der GT300 gegen die x2 wittern kann. Dieses weitaus ruhigere Spieleverhalten wie es alle hier berichten macht einem auch keine Lust auf ein CF mehr. Dementsprechend wartet alles auf den GT300 weil EINE 5870 irgendwie noch etwas zu wenig ist und man höchstwahrscheinlich mit der neuen x2 wieder vom Regen in die Traufe kommt was MR und dementsprechend das unruhige Spieleverhalten angeht.
Die ganze MR Problematik ist doch auch viel zu heiß gekocht... Ganz ehrlich, es gibt tausende User von Dual GPU Karten oder SLI/CF Systemen, die davon überhaupt nix mitbekommen.
Ebenso gibts die "Probleme" schon seit den PCIe Anfängen, wo erste Karten das beherschten... Da hat keiner Gemeckert oder fand es schlecht...
Erst als irgendjemand die Frametimes untersucht hat, fingen alle an zu schreien und zu meckern... Und viel schlimmer noch, selbst die Leute, die nie derartige Systeme besessen haben, meckern mit (unbegründet)
Von daher, am besten nicht immer gleich Mutmaßungen über den Untergang von Firmen mit 5000 Arbeitnehmern machen die auf Gerüchten basieren die ziemlich wahghalsig sind und nicht davon ausgehen das NV nicht genug Kapital hätte um auch mal ne Schlappe durchzustehen, sie FX.
Neja, bei der FX war NV ja in DX8 Games immernoch ganz oben dabei, einzig in DX9 Games (welche damals noch recht selten waren) konnte ATI deutlich vorbei ziehen...
Und sooo schlecht waren die FXen nun auch nicht...