Man sieht es doch durchgängig in allen IT-Branchen. Die Chips können ihre Leistung einfach nicht mehr so schnell steigern wie früher
Einleuchtend ist das schon. Nur...
Wir sind noch nicht an dem Punkt angekommen, wo es nicht mehr weitergeht, nur die Firmen, machen daraus nun einen.
Von der technischen Seite her sind wir noch im Machbaren um 30-40% mehr Performance zu erreichen. Der GK110 wäre so ein Schritt gewesen, wenn NVIDIA nicht auf die Idee gekommen wäre, statt ihn den GK104 ins Rennen zu schicken und diesen dann als High-End zu vermarkten.
Stattdessen wurde dann der GK110 häppchenweise präsentiert. Immer ein Stückchen mehr, für den nächsten Preisanstieg.
Beim GM ist es nun genauso. Statt auf 20nm Fertigung zu gehen und damit einen GM100/200 zu ermöglichen, wird beim alten 28nm geblieben um Kosten zu sparen und eben dann beim kleinen Performanzechip zu bleiben, der für High-End-Preisen an den Mann gebracht werden soll...
Bei CPUs gibts inwischen nur 10-20% Leistungssteigerung pro Generation und das schon seit 3-4 jahren und trotz milliardenschwerer Investitionen (Intel investiert nicht weniger in die Forschung als früher!).
Eine CPU ist keine GPU. Irgendwann sind die Algorithmen so perfektioniert, das man sie kaum noch beschleunigen kann. Auch den Takt kann man nicht mehr so wie Früher einfach verdoppeln.
Aber eine GPU kann man mittels kleinerem Fertigungsverfahren deutlich mehr Rechenleistung ermöglichen indem man mehr Shader verbaut. Zudem scheint es wieder architektonisch deutlich Verbesserungen zu geben.
Eine GPU kann man immer wieder neu erfinden. Eine auf x86er basierende Basis einer CPU lässt sich irgendwann nicht weiter verbessern.
Stattdessen scheint es einfacher geworden zu sein die Chips sparsamer zu machen und das spricht die Kunden ebenso gut an. Denn seien wir mal ehrlich... die die maximale "Leistung am limit" haben wollen und z.B. GTX 780 ti kaufen, machen wahrscheinlich sowieso keine 3% der Gesamtkundschaft aus.
Was nützt mir eine sparsame (GTX 780ti), wenn ich mir für 600 Euro eine neue Grafikkarte kaufen möchte ? Wenn ich Stromsparen will, so spare ich wo anders deutlich sinnvoller ein.
Des weiteren, lasst uns mal nicht dermaßen über die Preise herziehen bevor noch nicht mal ein Prototyp gezeigt wurde.. ^_^
Günstiger wird es bei NVIDIA mit Sicherheit nicht werden.