Vorallem G92 und GT200 ist doch mit dem Vorgang jetzt identisch.
Nicht wirklich. Beide basierten doch auf unterschiedlichen Architekturen bzw war der GT200 die Weiterentwicklung der Architektur. G92 war mehr oder weniger ein G80 Shrink mit leichten Überarbeitungen.
Ersten sind es ca. 10% und zweitens sind 10% nach 2 Monaten und 3 Wochen deutlich besser als 20% nach 14 Monaten.
Ich sehe auf CB zwar Unterschiede von 1-11%, je nach Auflösung und AA/AF, was im Schnitt weniger als 10% sind. Aber gut, ob 5% oder 10% verändert die Sachlage natürlich vollkommen.
Nö. Es geht darum, dass man angeblich mit Lahmiti doch so schön auf dem GPGPU Zug aufspringen könnte. Dumm nur, dass die, die wirklich interesse haben, dass schon in den letzten Jahren mit Fermi und Cuda getan haben. Die, die also erstmal auf dem Lahmiti-Zug wollen, sind Gamer.
Also nochmal: Was hat AMD's Fermi Kopie ihnen gebracht?
Nun gut, deine Unsachlichkeit ist ja für jedermann zu sehen. Insofern nehme ich deine Aussagen nicht wirklich ernst. Aber um mal was wahres beizutragen, für die Leute, die sachlich über das Thema diskutieren wollen, AMD hat zB schon bei der HD 3870 Double Precision Support implementiert, um GPUs auch mehr Möglichkeiten für GPGPU zu geben. Wenn du glaubst, die Fokussierung auf GPGPU gibt's erst seit Fermi, liegst du ziemlich falsch. Auch war CUDA bei weitem nicht die erste softwareseitige Lösung für GPGPU. Eine Fermi Kopie ist SI natürlich nicht. Dafür sind die Unterschiede der Architekturen viel zu gravierend. SI hat mehr mit NI als mit Fermi zu tun. Fermi hat eine ganz andere Pipeline, eine andere Shader Architektur, eine andere Geometrie Engine, andere Taktdomains, etc.
Okay, wenn man den Umbau auf die skalare Rechenarchitektur, das hierarchische Cache-System, den unified L2-Cache etc. ignoriert, dass ist Slow Island keine Fermi (GF100) kopie.
SI ist keine skalare Architektur. Nur weil das einige Seiten immer mal wieder schreiben, wird es nicht wahr. SI ist grundsätzlich aus Vector-ALUs aufgebaut, 16-fach. Sozusagen "16D", wenn man die Analogie zur vorherigen "5D" bzw "4D" Architektur sucht. Skalare Einheiten gibt's nur für Integer. Man sollte auch immer zwischen der Vektorisierung der Daten und der Instruktionen unterscheiden. Non-VLIW gehört zu letzterem und ist ganz gewiss keine Nvidia Erfindung. Intel GPUs sind zB auch Non-VLIW. ATIs GPUs vor dem R600 waren meines Wissens auch Non-VLIW. Und was soll bitteschön an einem "hierarchischen Cache-System" besonderes sein? Ein Cache-System ist immer hierarchisch. Und das gab es auch schon vor Fermi.
Und daher meine Frage: Was hat AMD die Umstellung der Architektur jetzt nochmal genau gebracht?
Grundsätzlich ging es um die Aussage von Poloniumium. Und diese war nun mal subjektiv und lässt sich nicht anhand von Fakten belegen. Aber um auf deine Frage zu antworten, GCN wurde vor allem in Hinblick auf Fusion entwickelt. Das erste Design kommt nächstes Jahr in Form von Kaveri. Weitere werden folgen. Was die Architektur gebracht hat, kannst du also gerne nochmal in ein paar Jahren nachfragen.
Kaufbar in 4 Tagen. Damit war es das für AMD. Die können schonmal ihre tolle Webseite anpassen. Und ein neues Logo - mein Avatar passt doch zur jetzigen Situation.
Klar, das war es für AMD. Die sollten am besten gleich den ganzen Laden dicht machen, oder? Seit wann sind Dual-GPU Karten wirtschaftliche Zugpferde? Das ist ein Nischenmarkt, mehr nicht. Mensch Junge, wir haben über die eventuelle Abspaltung von GK104 und GK110 diskutiert und nicht über irgendwelche Dual-GPU Lösungen.