Das sind noch 18 Tage...theoretisch müssten die bekannten Newsseiten voll von Leaks sein zu diesem Zeitpunkt.
Das sehe ich auch so... Klingt eher so, als kommt so bald nix
Auch wenn man diverse Leaks schließen kann. Es gibt immer Leute, die irgendwo quatschen. Nur das was aktuell an Gerüchten im Umlauf ist, hat ja nichtmal Hand und Fuß... Wenn überhaupt gibts ne grobe Richtung, was halt noch sehr wenig ist, wenn man daran glaubt, es geht in drei Wochen los
Und ich frag mich immernoch, wann die Single-GPU Grafikkarten Geschichte sind. Wenn man den Stromverbrauch weiter senken kann und vor allem die Mikroruckler irgendwann gar nicht mehr zu sehen sind, dann wirds eh nur noch Multi-GPU Lösungen geben. Bei den CPUs wars ja absolut ähnlich. Der Pentium 4 ging grob bis 3,6GHZ, dann gabs den Dual-Core Umschwung.
Die Zukunft liegt doch eh im Clusterbereich, oder etwa nicht?
Das macht keinen Sinn... GPUs sind von Anfang an schon hoch parallelisiert ausgelegt. Es macht quasi keinen Sinn diese Auslegung nochmals zu doppeln oder weiter zu mehren.
Dann lieber die Einheiten selbst erhöhen, so wie man es nun schon seit Jahren selbst macht und das ganze aufeinander abstimmen.
Und zum letzten, auch das ergibt weniger Sinn.
Wenn man so will, kann man einzelne Einheiten durchaus heute schon als Cluster bezeichnen. Es gibt nicht erst seit heute idR gewisse Einheiten, die zu "Verbünden" zusammengeschalten sind. Das nennt man Rechencluster, Shadercluster oder weis der Teufel.
Eventuell geht in Sachen Zukunft eher was im Bereich Cloudlösungen. Aber so recht mag ich daran noch nicht glauben. Da einfach irgendwo die Rechenpower auch her kommen muss. Und ich als Endkunde will ehrlich gesagt auch nicht monatlich oder per Nutzung für den Erhalt der Rechenleistung zahlen. Da leg ich lieber den 1000er auf den Tisch und kauf zwei HighEnd GPUs und machs mir sozusagen selbst
Allerdings muss man hier bedenken, dass es keine hochbandbreitige Interchipkommunikation gibt. Wäre das der Fall (und das ist nötig, um AFR zu begraben), dürften sich beide Lösungen bzgl. der Effizienz nicht so viel geben.
Es gibt ja noch andere Mittel und Wege weg von AFR zu gehen. Wobei das ja nichtmal unbedingt sein muss... Eigentlich würde es reichen, die Nachteile von AFR auszumerzen. Zumindest bis sagen wir vier GPUs würde das wohl noch gehen. Und in erster Linie ist hier das Thema MR zu benennen. Eine angeglichene Framerate wäre da ein Anfang. Klappt aber idR nur mit Leistungsverlust bzw. mit erhöhten Inputlag. (da das Angleichen Zeit kostet)
Den Interconnect bekommt man auch weg, wenn man quasi zwei GPUs auf einem DIE vereint. So ne Art Dualcore sozusagen. Da wäre in Sachen Verbindung untereinander auch die Möglichkeit zumindest gegeben. Vllt auch in Verbindung mit nem Shared Texturcache. Unterm Strich bleiben eigentlich nur Probleme... Und die größe selbst sinkt nicht, dürfte sogar eher steigen. -> bringt also nix.