Dieses Argument nervt nur noch... Erstmal ist nicht wirklich die selbe Leistung erreicht worden, sondern nur eine halbwegs anähernde. Zweites wissen wir überhaupt nicht wie das erreicht wurde - mit grosser Wahrscheinlichkeit aber mit recht viel manpower zur Optimierung. Wenn es kein kostenintensiver Vorgang war, wieso hat Nvidia das dann erst zu dem Zeit Punkt gemacht als sie durch Mantle unter Druck standen?
Ich sehe das so: Mantle braucht keine intensiven Extra-Optimierungen um seine Leistung zu entfalten! Es muss einfach nur eingebunden werden wie DirectX normalerweise.
Ergo wird sich im Endefekt Mantle eher durchsetzen als dass jedes Studio extrem mit DX optimiert oder gar Nvidia für jedes Spiel einen extra Treiber bringt.
Wenn das doch so arg nervt, warum kocht man das dann aber immer wieder hoch?
Der Zeitaufwand lässt sich nicht abschätzen. Weder für die Implementation von Mantle in einen quasi fertigen Titel noch für die Optimierung seitens NV für einen quasi fertigen Titel.
Fakt ist aber, das NV mit der Treiberoptimierung auf einem Niveau agiert, wo AMD mit DX nicht ist. (in Mantle Titeln!)
Das heist unterm Strich, das das Argument, was uns AMD verkaufen will, nämlich das DX am Ende sei und man daher eher zu Mantle greifen soll, so nicht ganz richtig sein kann.
Warum NV das erst jetzt macht, kann ich dir auch sagen. Optimierungen jeglicher Art kosten Zeit und somit Geld. Man macht dabei idR nur das notwendigste. Ohne Mantle hat NV ohne diese Optimierungen mindestens auf AMD Niveau agiert. Weder NV noch AMD sind die Wohlfahrt, die dem geneigten Spieler was gutes wollen. Da gehts rein ums Geld. Und man macht auch nur das, was sich am Ende rechnet. Warum hätte NV DX weiter stark optimieren sollen, wenn man doch so schon mit AMD konkurieren konnte? Diesen Umstand hat AMD mit Mantle erzeugt. Und NV konnte zeitnah nachlegen. Es reicht imho nicht für 100% Mantle Speed, aber das muss es auch nicht, aus meiner Sicht. Es reicht sich anständig zu plazieren... Und der absolute Vorsprung in FPS in Sachen aktueller Mantle Titel ist bei der AMD'schen Mantleumsetzung nun alles andere als riesig. (unsinnig realitätsferne Settings mal ausgeklammert, denn die interessieren bestenfalls auf dem Papier)
PS: was deine Sicht der Dinge angeht, ja das wird wohl annähernd so sein. Zumindest Stand heute hier und jetzt.
Was du aber vergisst bei dem Argument, DX11 ist vergleichsweise alt. Und Mantle ist vergleichsweise taufrisch. Es wäre äußerst unlogisch, das man Mantle erst extra irgendwie hinoptimieren müsste, damit ein Vorteil gegenüber dem betagten DX11 hinten rauskommt. Insofern ist das also nichts verwerfliches... Das Problem ist eher, das es nur den aktuellen Iststand betitelt. Das Argument kippt spätestens mit der nächsten DX Version. Oder auch schon den aktuellen Erkenntnissen in Sachen DX Leistungsoptmierung. Denn dann wird aller Vorraussicht nach der Vorteil bei Mantle schrumpfen. Um wie viel, ist noch nicht ganz klar. Aber er wird wohl. Heist also, willst du ähnlichen Mehrwert von Mantle auf z.B. DX12, musst du wohl genau so optimieren. -> und damit ist das Argument dann hinfällig.
Geh noch einen Schritt in die Vergangenheit, Stichwort DX9 oder DX10 und du stellst fest, das jedes neue DX genau diesen Satz auch als Vorteil mitbringt
Mantle hat hier und heute einfach den Pluspunkt, das man Sachen, die bei DX11 blöd laufen, angegangen ist und sie eben zum Teil besser macht. Dieser Vorteil gilt aber eben nur für DX11. Ob da auch schon ein DX11.1 drin ist, ist nicht ganz raus. Fakt scheint zu sein, das sowohl der AMD als auch der NV DX11 Part mit Windows 8.1 und DX11.1? in BF4 zulegen... Mantle hingegen bleibt auf seinem Niveau. Klar erkennbar sollte sein, wo der Hase dabei lang läuft...
Nunja, Mantle ist aber theoretisch ein einmaliger Initial-Aufwand... bei dem Treiber müsste man das später widerholen.
Warum?
Der Programmierer in mir spricht klar vom Gegenteil...
Eine Sache muss immer über die Laufzeit angepasst werden. Gerade bei Software ist das der Fall um sich an den aktuell gültigen Gegebenheiten zu orientieren.
Mal ganz davon ab, ein Treiber wird auch nicht jedesmal von Grund auf neu entwickelt. -> das ist aufbauend. Was NV mit dem R337 gemacht hat, wird über absehbare Zeit erstmal in den Treibern integriert bleiben. Heist, ebenso Einmalaufwand. Man muss sich dann nur noch hinsetzen um das ganze auf die aktuell vertriebenen GPUs anzugleichen oder noch an weitere Baustellen ansetzen um da Performance rauszuquetschen.
Interessant dabei ist zum Beispiel. Der R337 legt nachweislich in BF4 und DX11 anständig zu (BF4 MP mit großen Maps und vollen Servern) -> auch ein BF:Hardline in der aktuellen Beta profitiert davon. (obwohl es ziemlich sicher ist, das NV hier keinerlei Einblick in der Entwicklung dieses Titels hat/hatte!) Ebenso andere Titel profitieren von der drastisch gesteigerten "draw call" Performance des R337 -> Hitman:Absolution, oder auch die StarSwarm Demo...
Man sollte sich also ebenso davon lösen, das Treiberoptimierungen zwingend NUR "Auf-bestimmte-Titel" Optimierungen beinhalten. Denn das Gegenteil scheint viel eher der Fall zu sein. Gerade wenn man sich dem Umsetzungspart von DX11 annimmt, profitiert da im Endeffekt sogut wie alles, was die Schnittstelle nutzt. Wenn man so will, 1:1 das gleiche Ergebnis wie mit Mantle. -> mit dem kleinen aber feinen Unterschied, das DX11 in den Titeln schon drin ist
Denn selbst mit Mantle oder Diretx12 werden CPU´s irgendwann zum Flaschenhals.
Das ist dann aber viel eher eine Ausrichtungsfrage der Spiele...
Auch vor 10 Jahren gab es schon eher CPU limitierende Szenen oder Spiele. Und auch damals schon war der Leistungszuwachs auf der GPU Seite zwischen den Generationen deutlich größer als auf der CPU Seite.
Komischerweise können wir heute trotzdem noch anständig spielen...
Und auch ein Mantle reicht heute schon nicht um das maximum an möglichen FPS aus einer 290X im BF4 MP rauszuquetschen, wenn unten drunter "nur" ein 7850K Kaveri tuckert.
Um so unsinniger finde ich diese Hochloberei von einer alternativen API. Der Umstand wird in Zukunft keinesfalls besser werden, davon kann man getrost ausgehen
Und bevor es wieder kommt, nein, reine Taktsenkung auf CPU Seite scheint das ganze nicht stark zu beeinflussen!
Zumindest hat es mit weniger Leistungseinbußen funktioniert als GPU-Physx, insofenr verstehe ich die Häme nicht.
Oh nein, da ist vielleicht mal ein anderes Erzeugnis besser, als das vom Lieblingshersteller.
Diese beiden Sätze in einem Zusammenhang verbieten sich schon rein logisch.
Zeig uns doch bitte den GPU PhysX Titel, der mehr Leistungseinbußen verursacht für eine reine Haarsimulation im Vergleich zu TressFX in TR. Das letzteres TR mit TressFX ist, steht außer Frage, es gibt schlicht keinen anderen Titel, der TressFX nutzt..
Nur welchen PhysX GPU Titel führst du als Argument ins Feld? Und vor allem, welcher PhysX GPU Titel bringt rein eine Haarsimulation über PhysX implementiert auf den Schirm? Mir wäre keiner bekannt... Objektiverweise hättest du dir den Satz völlig sparen können, da es keine belegbare Grundlage dafür gibt. Aber nein, da muss man erstmal irgendwas in den Raum stellen um den (wie nennst du es so schön) "Lieblingshersteller" doch irgendwas positives anzudichten!