Edit: ich schreibe grade mit nem Kumpel aus tschechien der hat fast immer solche neuen karten als testsample vor ort vieleicht sagt er ja was.. Vorausgesetzt er hat eine von nv bekommen!
Damals zum GT200 hat er auch 3 stück bekommen!
Du hattest ja geschrieben (wurd leider beim "Wischen" mitgelöscht), dass er ein Testsample (mit niedrigeren Taktraten als die finalen) des GF100 von NV erhalten hätte und er gesagt hätte, dass die GTX 380 im Schnitt (natürlich abhängig von Anwendung und Settings) ~ 15% langsamer wie die HD 5970 (also ~ 5850 CF) sei.
Wahrscheinlich mit finalen Taktraten verglichen? Laut Gerüchten sollen die der früheren Revisionen ja recht niedrig gewesen sein.
Also wenn er ein Testsample erhalten hätte,
dann kennt er vermutlich auch schon die finalen Taktraten.
Mit der Rev. A3 sollten diese ja stehen oder halt bald stehen....zumindest falls Charlie nicht Recht hat und noch eine Rev. A4 kommt.
In diesem Fall würde aus März aber ganz schnell Mai als Release-Termin (wenn nicht etwas später).
Ich schätze mal, dass 650/1400/1000 MHz als finalen Taktraten für die GTX 380 hinkommen könnten.
Das Ergebnis wär auf jeden Fall ein anständiger Wert - vor allem dann, wenn man bis 250 Watt verbrauchen würde (die HD 5970 ist ja mit 294 Watt angegeben).
Grob gesagt ist ja die 5970 zwschen 40 und 50% schneller als die HD 5870.
Folglich wär die GTX 380 auch grob geschätzt zwischen 25 und 35% flotter als die HD 5870 -
zumindest falls man es mit der Fermi Architektur schafft im Vergleich zu ATi nicht mehr so sehr bei 8xAA einzubrechen (ok, bei 8xAA sind die Karten eh nicht so gut vergleichbar, da man unterschiedliche Modi nutzt).
Wär halt schön, wenn die Prognose deines Bekannten stimmen würde...was sie zumindest vor Release des G80, R600 oder GT200 gewesen war.
Optimal wäre es dann, wenn er anonym ein paar Benches mit Screens (z.B. auch GPU-Z) veröffentlichen könnte.
Nun ja...hoffentlich gibts dann wenigstens zur CeBit echte Fakten von NV - am besten wär natürlich der Fall der NDA.
Zum Thema Multimonitoring: Ist zwar schade, dass eine einzelne Karte weiterhin maximal nur 2 Monitore ansprechen kann, aber im Bezug auf 3D Vision Surround find ich die Lösung alleine aus Gründen der Performance besser (Karte 1 wird dann wohl Monitor 1 und 2 ausgeben und Karte 2 Monitor 3...optimal wär ja eine Last - Verteilung von 50/50). 120 Hz (3D) und dann noch Multimonitoring würden echt zuviel Leistung kosten, um es mit einer GPU flüssig darstellen zu können. Schon alleine 3D Vision lässt die fps ja halbieren.
Das würden auch die ATi Single GPU Modelle nicht schaffen (also Eyefinity + 3D).
Hier kann man mal als Vergleich sehen, wie stark die Leistung mit je 1 x HD 5870, 5850 und 5770 einbricht
(mittlerweile sollte das ja auch in CF laufen, zumindest wohl bei der HD5970....bin da aber nicht auf dem neusten Stand; der Artikel von Ende Oktober auch nicht):
http://www.computerbase.de/artikel/...y_spieletest/4/#abschnitt_direct3d9benchmarks