Ganz ehrlich man verwechselt bei Maxwell ständig Stromverbrauch der Referenzkarten mit Leistung der Customkarten.Wenn man mal vom Nvidia Karusell runter kommt sieht der Abstand gar nicht mehr uneinholbar aus.
Anhang anzeigen 317646
Welches Karusell meinst du?
Wenn ich mir Benchmarks der Custom Karten ansehe, dann existiert dort ein Leistungsunterschied von ~6% zwischen dem langsamsten und den schnellsten 970er Modellen. Bei der 980er sind es ~14% Unterschied.
Das macht den Kohl im Grunde nicht wirklich Fett. Oder andersrum gesagt, die Customs sind nicht wirklich derart viel schneller, dass es neue Leistungsregionen regnet... Im Grunde zeigt das eigentlich ganz gut, das NV den Schnitt zwischen Verbrauch und Leistung relativ gut getroffen hat. Bei der 970er sogar was besser als bei der 980er...
Außerdem, wenn der GM200 bereits bei einen GDDR5-Speichertakt von 8GHz ins Limit läuft, was immerhin beachtliche 384GB/s wären, würde ein 512bit Speicherinterface mit 7GHz GDDR5 auch nur 448GB/s liefern können. Für diesen im Vergleich minimalen Zugewinn an Bandbreite, müsste man aber enorme Defizite bei Effizienz und Gesamtkosten in Kauf nehmen. Da würde dann HBM wesentlich besser ins Gesamtkonzept passen.
Nur scheint bei NVs GM200 der Anteil des Speicherinterfaces im Gesamtverbrauch unter Spielelast deutlich unter dem zu liegen, wie es bspw. der Hawaii Chip von AMD bietet.
Der GM200 ist in etwa 50% schneller als der kastrierte GM204 der 970er und benötigt dazu im Schnitt wohl um die 45% mehr Energie. Ggü. der 980er sinds immerhin noch ~35% mehr Leistung bei ~37% mehr Energiebedarf. -> dafür das der GM200 quasi ein GM204 mit 50% mehr im Ganzen ist, skaliert das schon relativ gut.
Auch zeigt der GM200, dass der Bedarf in Sachen Bandbreite nicht bei was weis ich denn, 400GB/sec+ liegt. Der Chip kommt ganz gut mit dem aus, was er hat. GPU OC skaliert ebenso ähnlich wie beim GK110 schon gesehen. Von daher...
Sicher magst du recht haben, dass ein großer Chip mit fettem 512Bit SI und hohem Takt/viel Bandbreite bei GDDR5 energiehungrig ist. Mir stellt sich halt nur die Frage, ist das überhaupt notwendig? Die möglichen 4096 ALUs der Fiji GPU sind zwar nochmal eine andere Hausnummer, aber das wäre platt gesagt auch "nur" 1/3 mehr wie GM200 hat. Und 1/3 mehr würde auch das SI noch hergeben bei GDDR5.
Ich sehe da keinen Grund von der Seite, HBM einsetzen zu müssen... Zumal die Problematik mit der Größe ja OnTop kommt. Und ganz ehrlich, mir kann niemand erzählen, dass AMD aus allen Wolken gefallen ist, als die TitanX mit 12GB um die Ecke bog... Es ist und war für Jederman abzusehen, dass 4GB HBMv1 eigentlich dürftig wenig sind für eine GPU dieser Leistungsklasse... Ebenso wusste man im Vorfeld schon relativ genau vom größen Maxwell. Vielleicht nicht dediziert die ganze Geschichte, aber die Ausmaße in etwa waren abzusehen seit NV mit dem GM107 kam. Und das ist schon Monate zurück!
Also an einen kurzfristigen Schwenk auf 8GB mit HBM glaube ich da ehrlich gesagt einfach nicht. -> naheliegender ist, dass die Technik einfach noch nicht so weit ist/war und man sich mit HBM für diese Generation leider einfach etwas verzettelt hat.
Mir hat es schon gereicht als ich gemerkt hab das Standardmäßig bei nVidia die Texturqualität nur auf "hoch" steht bei ner Highendkarte... und man wundert sich das die Bildquali so komisch ist wenn man seine mittlerweile Altbackene 7870 im Zweitrechner daneben laufen hat...
Dann musst du dich wohl oder übel etwas getäuscht haben
Tests der Filterqualität belegen, dass der Quality Filter bei NV mit dem von AMD relativ gleich auf liegt. Allerdings der HQ Filter bei NV nach wie vor unerreicht für AMD ist. AMDs HQ Filter ist dazu kein wirklicher HQ Filter, wie man es vom Namen her erwarten kann. Sondern das Endergebnis ist etwas schärfer, dafür etwas "flimmriger" -> es passt eher "anders" als höhere Qualität.
Das NV nur Quality als default verteilt, ist keine Neuheit und schon seit ewig so, würde ich meinen...
Cool ist das via DX12 nVidia seinen Willen bekommt eine "Standard-API" mit den Features von Mantle zu bekommen... nachdem sie FreeSync ja schön direkt boykottiert haben obwohl es wohl auch in Zukünftige DisplayPorts aufgenommen wird (Außer die bekommen die VESA irgendwie dazu das sie das fallenlassen) und auch Mantle nicht mal im Ansatz angeschaut haben... wundern würde mich heutzutage nichts mehr.
Auch hier bist du etwas stark selektiv... NV hat G-Sync als Technik gebracht. Da gab es kein FreeSync und es war nichtmal ansatzweise klar, ob dies mal in einem Standard etabliert wird oder nicht. Sicher ist der Background keine dedizierte Erfindung seitens NV. Allerdings haben/hatten sie einfach mal den Finger zu einem Zeitpunkt am Drücker, wo von Rot dahingehend noch nix dergleichen zu sehen war.
Man kann sich jetzt gern darüber streiten, ob Propritär oder Standard das Bessere für den Endkunden ist. -> allerdings beinhaltet dieses Thema dann die Zeitschiene eben nicht... Ein quasi Standard, der AdaptiveSync mittlerweile ist, ist gut und schön, allerdings hat NV eben ihre eigene Technik schon fertig und verkauft diese... Rein aus wirtschaftlicher Sicht ist es einfach folgerichtig, auf ihr eigenes Pferd zu setzen.
Das gleiche gilt für den Mantle-Ansatz bei AMD. In einigen der Mantle Titel steht NV trotz "nur" angepasster Treiber für DX11 nicht schlechter dar. Manche laufen auf NVs DX11 Umsetzung gar schneller -> Trotz dass es Mantle Titeln sind (Thief bspw.)
Es existiert also mit Nichten ein Bedarf für NV, sich bei einer Technik einzukaufen, die man selbst nicht braucht, da das Eigene dem gängigen Standard entspricht und dazu noch in Sachen Problemkinder meilenweit vor der Konkurenz agiert (DrawCall Performance)
Bei Mantle kommt noch erschwerend hinzu, dass gerade diese Propritäre Sache, die man bspw. bei NV immer wieder kritisiert, eine von Anfang an absehbare Lebenszeit hatte. DX12 war/ist ein paar Wochen nach Mantles offiziellem Release angekündigt worden... Einige der Versprechungen seitens AMD wurden dazu noch zurückgezogen (kein SDK bspw.) -> mittlerweile ist Mantle 1.0 wohl sogar eingestellt.
Rückblickend könnte man fast sagen, NV hat alles richtig gemacht... Zumindest wenn man es wirtschaftlich sieht.
PS: das Mantle MS dazu genötigt hat, ein DX12 zu bringen, ist ebenso ein unbestätigtes Gerücht. Die Zeitliche Abfolge der Ankündigungen lässt bei weitem eher das Gegenteil vermuten. Bestenfall könnte man Zusammenhänge noch erkennen, wenn man auf OpenGL schaut, denn das war VOR Mantle schon im Gespräch von wegen Hardwarenäher, besseres/mehr MT Bestandteile usw. usf.