Also ich würde jetzt nicht sagen dass das das Hauptargument ist, das AMD anführt. Wo hat AMD das überhaupt gesagt? Auf deren offiziellen Seiten findet sich dazu erstmal garnichts:
AMD
Sicher war das meinerseits etwas überspitzt ausgedrückt, aber die Gründzüge davon erkennst du zweifelsfrei auf der ersten Mantle Präsentation.
Stichwort "draw calls".
Schau dir an, was AMD als Faktor für die Leistungssteigerung angibt und schau dir dazu an, auf welcher Basis die Leistungssteigerung ruht. -> du wirst zu der Erkenntnis kommen, das man bei AMD das Problem klar an DX11 sieht und nicht an der eigenen Umsetzung davon. Und nun gibts Mantle und man wirbt klar mit dem Punkt als Pro Mantle Argument.
Was an der Stelle nicht verwundert, das NV sich den gleichen Hut aufsetzt und mit dem "Wundertreiber" eben genau dieses Problem ebenso anging. Wobei stimmt nicht ganz, schon der R334 war in diesem Punkt wohl schon deutlich fixer als der direkte Vorgänger R331.
AMD sagt uns damit also, nimm Mantle, das ist schneller als DX11 und NV sagt uns, mit DX11 gehts doch irgendwie auch
Als Kunde kann man nun entscheiden, was man will...
Wie läuft das genau ab mit einer Optimierung eines Treibers für ein Game? Dabei wird doch geschaut wie man genau dieses Game flotter kriegt.
Will Nvidia das nun für einen weiteren Mantletitel machen, muss da wieder ein großer Aufwand her (einen den sie langfristig nicht machen können). So ist zumindest meine Vermutung...
Wenn es irgendwelche Allheil-Methoden zur Optimierung gäbe die man nur einmal durchführen muss und sie dann schnell an alle Spiele anpassen kann, wieso soll das nur Nvidia drauf haben? Wieso hätte AMD das nicht gemacht und einfach damit geworben - ein Treiber kann ja genau so proprietär und ein kaufargument für die eigenene Produkte sein, wie eine neue API. Trotzdem hat sich AMD für die Variante entschieden Mantle zu entwickeln.
Zum ersten, wie gesagt, löst euch vom Gedanken, das es ausschließlich "Auf-Spiel-Optimierungen" gibt. Alle aktuellen Mantle Titel sind doch FrostBit Engine Titel (Außer Thief, was auf der schon horn alten UE3 basiert), wenn ich das richtig sehe oder? -> es ist also nicht ganz abwegig, das man seitens NV auf eine Engine hin optimiert. Die Engine ist halt das Grundgerüst und somit die Basis für die Titel. Eine Optimierung auf die Engine kann grundsätzlich in allen Titeln greifen, die auf der Engine basiert und die in ähnliche Limits laufen, wo die Optimierung eben ansetzt.
Diesen Umstand erkennt man, wie vorhin schon angesprochen auch daran, das selbst ein BF:Hardline scheinbar heute schon vom NV R337.5 profitiert, obwohl das Spiel noch Beta ist und aller Warscheinlichkeit NV da absolut keinerlei Eingriff/Einblick in die Entwicklung hat, zumindest nicht, wo AMD doch mit im Boot sitzt.
Zum dritten und markierten. Es spricht niemand davon, das sowas nur NV drauf hat. Viel eher ist der Punkt doch der, das sich AMD selbst damit die Mantle Lorbeeren stibizen würde... Um so größer die Lücke zwischen AMD DX11 und AMD Mantle, desto besser kann man mit diesen Performancesteigerungen Mantle bewerben. Sei mal ehrlich, was würde es dich interessieren, wenn da 10 oder 20% stehen würde? Würde doch effektiv niemanden interessieren. So wirbt man mit 50 oder teils gar 100% und erreicht damit auch ein paar Leute (scheinbar).
Und als vierte Sache. Wie schon oft erwähnt wurde, scheinen die Entwickler auch mit Nachdruck eine Art Low(er) Level Ansatz gefordert zu haben. Auch scheint man im PC Spieleumfeld mehr Wert in Sachen Entscheidungsfreiheiten zu legen. DX11 ist da wohl scheinbar eher starr und gibt einen Rahmen vor, wie es zu laufen hat. Mit Mantle scheint ein Stück von der Geschichte auf die Entwickler zu wandern. Was A) mehr Verantwortung zur Folge hat, B) aber ebenso mehr Möglichkeiten und Freizüge bietet. -> AMD hat sich offenbar nun dazu entschlossen diese Nachfrage zu bedienen und lieferte Mantle.
Wie gesagt, der optimierte Treiber ist für 1-2 Spiele optimiert. Die Mantle API ist eine einmalige Investition die zwarnatürlich supportet werden muss, aber keinesfalls für jedes Spiel angepasst (wie ein Treiber).
D.h. will man die Kosten die AMD insgesat reinscken musste, mit DX vergleichen, muss man neben der Treiberentwicklung auch die Entwicklungskosten von DX dazu zählen.. so seh ich das zumindest...
Glaubst du, Mantle benötigt keine Optimierungen? -> dann bist du äußerst naiv in deiner Denkweise.
Gerade eine Frische Software benötigt enorm viel von diesen Optimierungen. Warum? Es fehlt schlicht und ergreifend jegliche Erfahrung in Sachen Umsetzung.
Willst du ein Beispiel?:
-> Es ist äußerst verwunderlich, das sogut wie alle Mantle Titel scheinbar das von BF4 zuerst gezeigte VRAM Problem im Mantle Mode inne haben. -> hier hat man irgendwo irgendwas verkannt und man läuft in ein Problem mit voll/überlaufendem Speicher.
Für mich ein Indiz von klarem Erfahrungsmangel!
Erst baut sich die Erfahrung langsam auf, dann lässt man diese Erfahrung einfließen. Und im dritten Step kommen die Optimierungen... Nämlich weil man dann die Faktenlage kennt und weis, was geht, was geht nicht...
Mantle als alleinigen Initialaufwand zu betrachten ist somit nicht der Realität entsprechend!
Nimmt man das Ganze sogar genau, haben sich jetzt die Entwickler von BF4 und die Entwickler von Thief unabhängig von einander hingesetzt um das Problem halbwegs auszumerzen. Es wurde also eine Optimierung geschaffen, die im Endeffekt die FPS steigert, weil die Einbrüche im VRAM Limit wegfallen.
ich finde diese argumentation ziemlich inkonsequent. je nach dem aus wessen sicht du das betrachten willst, kann man mantle-treiber erwähnen oder eben nicht. für amd ist es natürlich ein mehraufwand, für uns nutzer isses wumpe. nehmen wir halt die sicht von amd: auch in dem fall stehen sie auf einer stufe mit nvidia, deren cuda, das ja grundvorraussetzung für physX ist, und physX selbst sind im treiber ebenfalls gesondert zu implementieren. also gleichstand. aus kundensicht haben wir bei beiden herstellern nur den einen treiber um die graka zu installieren. auch gleichstand.
Cuda und PhysX sind aber keine APIs, wie sie Mantle und DirectX sind... Ergo zieht das Argument nicht.
Hier gehts doch um den Aufwand, der zwischen den Herstellern für Spiele entsteht. Das ist wie, wenn du Intel den Aufwand der Xeon Phi aka Knights Landing anrechnest und die Kosten/den Aufwand dafür in die Betrachtung im Vergleich zwischen einem AM3+ AMD Prozessor und einem S1150 Haswell Prozessor reinmischst. -> ist und bleibt völliger Quatsch.
Mal ganz davon ab, Cuda hat als Hauptaugenmerk den Profimarkt um die Tesla und Quadro Karten. Das es in der Geforce Reihe mit nutzbar ist, ist netter Beigeschmack... Aber steht in absolut gar keinem Zusammenhang mit Spielen. Mir ist genau ein einziger Titel bekannt, der überhaupt Cuda Code ausführt -> und das ist Just Cause 2 mit diesem einen Effekt...
Selbst PhysX zieht da nicht als Argument, denn PhysX ist immernoch Zusatz. Die CPU Implementation läuft ohne jegliches Zutun von NV in Sachen GPU. Und die GPU Implementation ist REINER Aufsatz oben drauf. PhysX bedient sich einzig dem Umstand, das Cuda auf Geforce GPUs nutzbar ist. Und genau dieser Punkt ist maßgeblich daran schuld, dass GPU PhysX derzeit nicht flächendeckend in den Spielen einzug gehalten hat! PhysX als reine (CPU) basierte Physikengine ist nämlich alles andere als wenig verbreitet! Der Grundstück ist da also lange schon gelegt wurden...