MetaMorphX
Semiprofi
- Mitglied seit
- 13.09.2002
- Beiträge
- 1.721
Hier mal ein älterer Ausschnitt zum Theam Ati bzw. nVidia und F@H.
Keine Ahnung ob da der G80 schon mit einberechnet wurde, glaube aber nicht.
Die komplette News gibt es hier LINK
Der Stanford-Mitarbeiter Mike Houston betont, dass die Chips der X1800/X1900-Reihe ein gutes Speicherinterface besitzen und effizient mit einer großen Zahl von Threads umgehen können. Zudem enthalte die Simulationssoftware sehr viele Schleifen und Sprunganweisungen. Und nur die X1000-GPUs seien in der Lage, den Overhead der Sprunganweisungen mit mathematischen Berechnungen zu überdecken, während die Nvidia-Chips Sprung-, Textur- und ALU-Berechnungen nicht gleichzeitig durchführen könnten. Außerdem unterbrächen die Nvidia-GPUs die Berechnung nach 64.000 Instruktionen und könnten die komplexe Software aus mehreren Millionen Anweisungen pro "Pixel" und pro Iteration nicht in einem Pass ausführen. (Manfred Bertuch) / (anw/c't)
Keine Ahnung ob da der G80 schon mit einberechnet wurde, glaube aber nicht.
Die komplette News gibt es hier LINK