Das stimmt natürlich. Allerdings wäre es aufgrund von Skalierung der Chips deutlich einfacher verschiedene Segmente mit Karten auszustatten. Was anderes macht ATI mit den X2 Versionen ihrer Karten schon jetzt nicht. Und auch 3Dfx hat diesen Weg eingeschlagen und wäre laut Entwicklungen bei ihm geblieben.
Das mit dem Randprodukt ist fraglich, immerhin ist das nen logischer Weg weil die Chipherstellung irgendwann an ihre Grenzen stoßen wird und man irgendwann versuchen muss das ganze noch mehr zu parallelisieren. Das ist auch der Hauptgrund für die Multicores im CPU Bereich. Außerdem wäre es mal interessant zu erfahren wie die Entwickler bei ATI und NV wirklich zu Raytracing stehen. Klar, Intel ist nur ein Konkurent, aber beide wissen das Intel gut darin ist Dinge mit Gewalt durchzupreschen und der Larrabee zwar ziemlich ominös ist, aber vielleicht ne Gefahr darstellt. Im grafikkartenmarkt gab es viele Hersteller und Entwickler die pleite gingen weil sie Trends verschlafen haben, auch wenn sie noch so groß waren.
Neja also der Vergleich zu den CPUs ist genau der Fehler den viele machen.
Wenn man so will wäre eine CPU mit einem Kern einer GPU mit einem Shader gleichzusetzen.
Oder andersrum, die 280/285GTX wäre mit einer CPU mit 240 Cores gleichzusetzen.
Die GPU ist von Grund auf für das paralelle Abarbeiten von Berechnungen ausgelegt, da brauch es quasi nicht zwei dieser Gesamtrecheneinheiten, sondern man brauch nur einfacherweise die Recheneinheiten erhöhen.
Klar das lässt den Chip aufblähen, aber das ist nix, was sich lösen lassen sollte. Und ein Ende ist derzeit auch nicht wirklich in Sicht, wenn man bedenkt, wie viel Leistung quasi mit jeder neuen Generation hinzu kommt, sieht man in jedemfall keinen Abwärztrend. So wie es bei den CPUs derzeit der Fall zu sein scheint.
Zum Thema Raytracing, das wird offensichtlich heißer gekocht, als es gegessen wird.
Von Raytracing brauch man sich so viel wohl nicht erwarten, klar, es kann in einigen Bereichen manches deutlich besser, als die herkömmliche Methode, aber es gibt nicht zu verachtende Teile, wo Raytracing quasi voll im Nachteil ist.
Ob man nun das ganze mit der einen oder der anderen Methode bewergstelligt ist wohl recht egal, für das Gesamtbild sind beide Sachen nicht 100% optimal und es müssen hier und da immer kompromisse aus Optik und Leistung eingegangen werden.
DX10 hat wirklich unter Vista gelitten. Aber auch bei DX10 only Titeln waren die grafischen Ergebnisse nicht wirklich berauschent. Ich schätze mal das Windows 7 das glattbügeln wird, bisher siehts ja gut aus und es wird als wahrer Nachfolger von XP propagiert.
Da es keine DX10 only Games gibt, zumindest keine richtigen lässt sich sowas schwer behaupten.
Fakt ist jedoch, mittels DX10 können die gleichen Effekte wie in DX9 mit deutlich weniger Aufwand realisiert werden.
Nur nutzt dieser Vorteil eben keinem so richtig was, wenn sich Vista und somit DX10 nicht richtig durchsetzen will.
Ob Windows 7 das schafft, bleibt abzuwarten. In jedemfall werden aber frühestens ein Jahr nach Windows 7 Release die ersten DX11 only Games kommen. Und das ist noch laaange hin
Übrigens, wenn man so will kann man via Software alles bewerkstelligen, sprich auch eine GPU von vor 10 Jahren könnte theoretisch die gleiche Optik auf den Schirm zaubern wie es heutige GPUs schaffen. Zwar mit unspielbarer Geschwindigkeit, aber es wäre alles möglich.
Und wenn man das so bisschen im Hinterkopf weis, kommt einem auch ins Bewustsein, das die aktuelle Lage mit DX9 und dessen ständig verbessernder Optik eigentlich ganz logisch ist.
Man muss sich nur was einfallen lassen, wie man den Effekt so baut, um diesen in brauchbarer Geschwindigkeit auf den Schirm zaubern zu lassen.
Es bleibt aber weiterhin so, das mit DX10 oder DX10.1 die gleiche Optik wesentlich effizienter zu erzeugen wäre, wenn denn alle Vista und DX10 GPUs hätten.
OpenCL! Cuda war ne tolle Idee, keine Frage, aber ohne OpenCL wird es wohl keinen Durchbruch geben, der nicht nur richtung Physikspielerei geht. Die Physik wird in Zukunft, wenn sie richtig in Spiele implementiert wird wohl, ähnlich viel Power fressen wie die Grafik.
Jupp so schauts aus...
Wobei das sicher ein langjähriger Prozess wird, denn man bedenke, der Überwiegende Anteil an GPUs muss DX11 können, bevor die Hersteller sind entscheiden in ihre Games derartige Sachen einzu bauen.
Und es bleibt weiterhin der Punkt, Abwärzkompatibilität zu schächeren Karten... Es wird wohl so weiter gehen, das Games mit max. Details immer gut und toll aussehen, aber sobald man Grafikkartenbedingt gezwungen wird, die Details runter zu drehen, wird der Qualitätsverlust wohl größer den je sein.
@Piefke
also ich wäre sehr interessiert an einem Anno1701 Test.
Also einfach mal ein Spielchen starten und eine gute Siedlung aufbauen.
Dann mal eine Messung starten und von der eigenen Siedlung über die Karte scrollen zur Siedlung des Gegners (wenn möglich in einer anderen Vegetationszone)
Das mögen nämlich AMD Karten gar nicht, da kann noch so viel Speicher vorhanden sein.
Am besten das ganze mit Frameverlaufsdiagramm und VRam Auslastungsmessung
Ansonsten bleibt zu sagen, das die meisten Benchfunktionen für so einen Test unbrauchbar sind.
Spiel dich in neueren Games ein wenig ein und fang dann im irgendwann mitten im Spiel die Messung an.
Auch hier wieder mit Frameverlaufsdiagramm (kann ja Fraps erstellen zumindest die Zahlen) und VRam Auslastungsmitschnitt.
So zeigen sich die eventuellen Schwächen der 512er Karte im Gegensatz zur 1GB Karte.
Games wären Crysis, FarCry2, HL2 mit Cinematic Mod 9,5+HD Addon, Fallout 3 mit HD Texturen, CoH (auch immer sehr interessant) und andere Titel, was es eben gerade sonst so gibt