Das sind die typischen "Totschlagargumente" der Halbwissenden. DX12.1 ist mehr als DX12.0, also muss es besser sein. Genauso wie HD+ besser als HD ist, richtig?
Danke für die Bestätigung, denn ich finde auch dass Directx12 im Allgemeinen mehr ist als nur asynchronous compute und Nvidia keinesfalls failt nur weil sie es nicht unterstützen.
DX12.1 bietet im Wesentlichen 2 zusätzliche Features, CR und ROV. CR kann die Bildqualität verbessern, kostet aber Performance. ROV verbessert die Bildqualität nicht, kann aber die Performance verbessern. Beides ist im Moment relativ uninteressant für Spieleentwickler.
Ja, ich stimme zu, nur was ich komplett anders sehe ist, dass das uninteressant sein soll.
GDC 2016 | Session Scheduler | F1 2015 Case Study: Enabling for Multi-Core and DX12 (presented by Intel)
Formel 1 2015 und Just Cause 3 bekommen einen Directx12 Patch mit ROVs. Asynchronous Shader funktionieren in Ashes of the Singularity und Hitman.
Ich sehe beides als interessant für Entwickler an.
Und der Nutzen von ROVs muss auch erst noch in der Praxis nachgewiesen werden.
Der von asynchronous Compute ebenso, bisher erreicht man ja weniger als 10% in Hitman und Ashes of the Singularity, bringts das jetzt?
Macht es das eine total uninteressant und das andere total interessant? Ganz ehrlich nicht die Bohne.
Du hörst dich an wie ein Vertreter.
Tja, das trifft es aber eigentlich recht gut. DirectX 12 ist für Nvidia im Moment so ziemlich der heftigste Magenschmerzenverursacher. Nicht nur dass sie aufgrund ihrer veralteten Architektur davon kaum profitieren. Schlimmer ist, dass AMD davon umso mehr profitiert.
Natürlich profitiert AMD davon, schließlich bremst deren Treiber ( was den Treiberoverhead angeht etwas ) zudem lassen sich die Karten dank asynchronous Compute bisschen besser auslasten.
Das zu einem Desaster zu machen, ist Fanboysprech, sowas sollte man unterlassen, genauso ist der Overhead von AMD unter Directx11 kein Desaster, man ist einfach nicht so schnell wie man könnte.
Wie kommst du denn darauf, dass Nvidia ihre Einheiten besser auslastet?
Vergleiche mal die FLOPS einer Fury X mit einer 980 Ti und schaue dir an wie schlecht AMD die Leistung auf die Straße bekommt.
Ist doch wohl offensichtlich, dass Nvidia die Einheiten deutlich besser auslastet und das Grundgerüst der Architektur bis zum heutigen Zeitpunkt einen anderen Ansatz verfolgt.
Bei AMD steigt beim Einsatz von Asynchronous Compute allerdings wieder der Stromverbrauch, wo da der Vorteil letztendlich sein soll?
Beide Ansätze sind gut und keiner verdient als als Magenschmerzverursacher oder Desaster angespriesen zu werden, dafür bringt es viel zu wenig Performance um wirklich irgendetwas zu ändern.