EVGA wird ja allem anschein nach bis März die auf der CES vorgestellte, und wohl auf GF114 basierende Eigenkreation bringen -
ein EVGA Mitarbeiter hatte schon auf einem Video bestätigt, dass diese "nur" 2 x 1GB haben wird (außerdem sind pro GPU 4 Phasen verbaut) - also wohl GTX 560 Ti 1GB SLI.
Wenn das der Fall sein sollte, stehen die Vorzeichen ja nicht gerade günstig für die Absolute High-End Karte, wenn man sich bei Computerbase die
Performance Ratings @ 2560x1600 anschaut. Da sich 560-SLI unter der Auflösung nur noch geringfügig bis garnicht vor einer 580er befindet.
Games ansich sollten schon sehr gut mit steigender ALU Anzahl skallieren.
Aber unterm Strich ist es immer noch ein 1:1 Verhältnis. 100% mehr Takt bringen in Games annähernd 100% mehr Leistung, bei 100% mehr ALUs, sollte das nicht anders sein (lässt sich aber etwas schwerer vergleichen aus Mangel derartiger Kartenkonstellationen)
Wäre es dann nicht eigentlich aus nVidias Sicht, welche sich ohnehin schon mit der 580er nahe der gehandelten 300(bis 375)W Grenze bewegen, einfacher da nochmal ein Taktupdate zu bringen mit
einem GF110 Chip?!
Laut dem
hardwareluxx Test einer GTX 580 mit einem angehobenen Takt von 906/1812/1137MHz bei extremen Einstellungen (2560x1600, 8xAA, 16xAF) im Durchschnitt 14% Mehrleistung bei 10% (49W) mehr Energieaufnahme. Hier wäre also mit einer "Durchschnittskarte" bei etwa 900/1800/1130MHz die 300W Marke erreicht.
Mit "verbessertem" PCB / Kühlung und selektierten Chips könnte man sicherlich 950/1900MHz (+23%) erreichen, beim Speicher könnte man auf 2750MHz (+37,5%) wie bei der HD6970 umsteigen. Das wäre in der Summe eine Taktsteigerung von runden 30 Prozent, dessen Leistung in jeder Anwendung zur Verfügung steht und nicht unter MGPU Krankheiten beeinträchtigt wird. Denke dies wäre bei ca 325W realisierbar.
Im Computerbase
2560x1600 8xAA/16xAF Performance Rating leistet ein HD6950 CF-Gespann (2x 200W TDP) rund 62% mehr als eine normale GTX 580. Wenn sich AMD 300W als Ziel für die Dual-GPU Karte setzt (laut bisherigen Infos), müßte der Verbrauch um 25% gesenkt werden. Ich schätze mal "blauäugig" das kostet etwa 20 Prozent Leistung.
Wenn ich als diese
sehr einfach gehaltene Spekulationsrechnung beende, von den 62% (6950-CF > GTX580) runde 20 (6950 CF auf 300W trimmen) und 30 (GTX 580 OC) Prozent abziehe, bleiben am Ende etwa 12% auf der AMD Haben Seite, dafür jedoch auch die üblichen MGPU Problemchen. Während nV wahscheinlich besser über den Preis agieren könnte aufgrund Single-GPU Lösung, bei AMD schwieriger da alles zweifach verbaut.
Ich würde eine High-Clock Single-GPU Karte einer Dual Lösung vorziehen bei annähernd gleichem Stromverbrauch und etwas weniger Leistung.
...und ja, ich hatte ich grad Langeweile