Oxide: NVIDIA-GPUs unterstützen Asynchronous Compute/Shaders unter DX12 nicht

iToms

Redakteur
Thread Starter
Mitglied seit
25.11.2011
Beiträge
2.016
<p><img style="margin: 10px; float: left;" alt="nvidia 2013" src="/images/stories/logos-2013/nvidia_2013.jpg" />Mit <a href="http://ashesofthesingularity.com/" target="_blank">Ashes of Singularity</a> hat <a href="http://www.oxidegames.com/blog/" target="_blank">Oxide Games </a>ein Spiel kreiert, mit dem man sehr gut die Auswirkungen von DirectX 12 auf die Leistung der Grafikkarten nachstellen kann. Nun soll ein Mitarbeiter im Guru3D-Forum gepostet haben, dass der Grafikchipspezialist <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> unter Führung von Jen-Hsun Huang an das Entwicklerstudio mit der Bitte herangetreten sei, das DirectX 12 Feature „Asynchronus Shader“ für GeForce-Grafikkarten zu deaktivieren, obwohl der Treiber eindeutig zu verstehen gebe, dass...<br /><br /><a href="/index.php/news/hardware/grafikkarten/36454-oxide-nvidia-gpus-unterstuetzen-asynchronous-computeshaders-unter-dx12-nicht.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich gönne es AMD, wenn sie mal was ordentlich und richtig gemacht haben.
 
Kommt drauf an, wenn ich wenig zahle und viele Features habe, was spricht dagegen?!?
 
Auch wenn ich gegen Nvidias propritäre Haltung sowie gegen ihren Bullshit bin, gebe ich Persönlich nicht viel auf Oxide Games!

DirectX 12 wird in der aktuell und ersten Generation sicherlich von AMD gewonnen, immerhin haben die den Grundstein dafür gelegt.
Genauso wie bei DirectX 9, als sich das intensive mit entwickeln von ATi gelohnt hatte!
Doch Nvidia ist wie man bei DirectX 11 sieht, extrem gut wenn es um das Thema Optimieren geht.

Nächstes Jahr werden die Karten sowieso so stark gemischt, wie seit Jahren nicht mehr!


Was mir allerdings große sorgen macht, ist die Möglichkeit das "Asynchrone Shaders" nur von AMD genutzt wird.
Dann ist es egal wie schnell die AMD GPUs sind auch wenn sie damit deutlich vor Nvidia liegen würden, wenn Nvidia nicht in diese Richtung baut, wird kein Spiel darauf entwickelt / optimiert werden.

Ich hab da sehr große bedenken dass sich dies zu einem neuen "DirectX 10.1" entwickelt!
 
Zuletzt bearbeitet:
Bei der anhaltenden Diskussion kristallisiert sich aus meiner Sicht jedenfalls etwas heraus.
Nvidia unterstützt wie schon zu Directx11 Zeiten wieder mal nicht ein wichtiges Feature von Directx12, was jetzt schon Verwendung findet.
Das ist ein Facepalm für all die Ignoranten die Nvidia bei Direcx12 aufgrund der Unterstützung eines höheren Featurelevels als klare Vorteilseigner dargestellt haben.
Ich freue mich insofern schon wieder auf die Patches die dann kommen werden, damit AMD keine Vorteile generieren kann, ich hoffe die Entwickler bleiben da neutral.
Zudem scheint es so, als ob AMD Nvidia keine Steine in den Weg gelegt hat. Der Quellcode ist seit einem Jahr frei und Nvidia arbeitet auch mit Oxide zusammen.
 
Zuletzt bearbeitet:
Denke aber das Selbe wie NasaGTR.
Wenn AMD diesmal nicht die Entwickler unterstützt, bringen ihnen die asynchronen Shader gar nichts.
Der einzige Lichtblick der bleibt ist das Microsoft an DX12 werkelt und dies auch weit verbreitet sehen will.

Naja, mal abwarten was passiert.
 
Und das ist der grund warum Papa sich vom lieben Onkel Ethen keine 780ti gekauft hat, weil er wusste, dass mit Directx 12 alles besser wird.

Nächstes mal: Wie ich eure Mutter kennengelernt hab und wie ich und euer Onkel Barney (tim) einen drauf gemacht haben.
 
Zuletzt bearbeitet:
Was mir allerdings große sorgen macht, ist die Möglichkeit das "Asynchrone Shaders" nur von AMD genutzt wird.
Dann ist es egal wie schnell die AMD GPUs sind auch wenn sie damit deutlich vor Nvidia liegen würden, wenn Nvidia nicht in diese Richtung baut, wird kein Spiel darauf entwickelt / optimiert werden.

Naja, da sollte man dann auch einen Blick auf die PS4 und XB1 werfen, die bereits asynchrone Shader besitzen und davon deutlich profitieren werden. Ich gehe deshalb mal davon aus, dass die meisten Entwickler in Zukunft dieses Feature auch nutzen werden. Wenn NVIDIA in Zukunft das volle Potential aus DX12 schöpfen möchte, wird man auch auf asynchrone Shader setzen müssen, sonst stünde man schnell im Abseits. Glaube nicht, dass NVIDIA da genug Macht hätte die Entwicklung so stark in ihre Richtung dann zu lenken.
 
Naja solange wir 2016 keine HBM Karte von nVidia sehen werden, laut einer asiatischen HW-Page, könnte es dieses mal für nV dick in die Buchse gehen.

Erst das Debakel mit der GTX 970, jetzt das.

Sollte sich das aktuelle Thema als wahr erweisen und nVidia hat den Kunden wieder einen Bären aufgebunden ( voll DX12 kompatibel / ausführend ), dann war die GTX 980 wirklich als Reaktion die letzten nVidia Karte vorerst.

Da ich eh hin und her wechsel, würde ich mich sogar für eine AMD Karte begeistern können! :)
 
Denke aber das Selbe wie NasaGTR.
Wenn AMD diesmal nicht die Entwickler unterstützt, bringen ihnen die asynchronen Shader gar nichts.
Der einzige Lichtblick der bleibt ist das Microsoft an DX12 werkelt und dies auch weit verbreitet sehen will.

.

was bedeutet das, ist nicht noch immer Konsolenimports das Problem?
 
Ich hab gar nicht soweit gedacht zwecks Konsolen.

Dachte eher daran das Microsoft ihr Windows 10 weit verbreiten wollen und dazu gehört auch die weit verbreitete Verwendung ihrer Features(z.b DX12).
 
Nutzt DX12 automatisch asynchronous shaders?
Denke das ist eher etwas was die Entwickler explizit einsetzen müssen, und dafür muss es Anreize geben.
Dx12 an sich wird sicher die Basis für viele ENgiens der nächsten Jahre bilden. Macht ja keinen Sinn, auf veralteter Technik zu entwickeln.
 
Auch wenn ich gegen Nvidias propritäre Haltung sowie gegen ihren Bullshit bin, gebe ich Persönlich nicht viel auf Oxide Games!

DirectX 12 wird in der aktuell und ersten Generation sicherlich von AMD gewonnen, immerhin haben die den Grundstein dafür gelegt.
Genauso wie bei DirectX 9, als sich das intensive mit entwickeln von ATi gelohnt hatte!
Doch Nvidia ist wie man bei DirectX 11 sieht, extrem gut wenn es um das Thema Optimieren geht.

Nächstes Jahr werden die Karten sowieso so stark gemischt, wie seit Jahren nicht mehr!


Was mir allerdings große sorgen macht, ist die Möglichkeit das "Asynchrone Shaders" nur von AMD genutzt wird.
Dann ist es egal wie schnell die AMD GPUs sind auch wenn sie damit deutlich vor Nvidia liegen würden, wenn Nvidia nicht in diese Richtung baut, wird kein Spiel darauf entwickelt / optimiert werden.

Ich hab da sehr große bedenken dass sich dies zu einem neuen "DirectX 10.1" entwickelt!
Ähm, Oxide war Massgeblich an Mantle beteiligt und sie schufen somit auch DX12.
Async Shader sollten im Schnitt 33% mehr Gewusel auf dem Schirm bedeuten.
Da es die Spiele Entwickler der Konsolen schon nutzen wird das ein Heidenspaß die Async Shader raus zu patchen, da geht neu schreiben schneller. :fresse:
 
Zuletzt bearbeitet:
Nutzt DX12 automatisch asynchronous shaders?
Denke das ist eher etwas was die Entwickler explizit einsetzen müssen, und dafür muss es Anreize geben.

Soweit ich weis nicht...
Wenn ich den Text im Schnellüberflug richtig deute, dann empfiehlt NV, das Feature einfach nicht zu nutzen und die Jungs von Oxide haben eine grausame Performance für das Feature bei NV festgestellt...
Das sagt uns erstmal nur, dass NV Hardware offenbar ohne das Feature besser zurecht kommt. Warum also zwingend (bei NV) nutzen, wenn es auch ohne geht?
Auf AMD Hardware kann man es ja nutzen und es scheint auch gut einen Effekt zu bringen...

Vielleicht ist das einfach nur wieder so ein Threadscheduler Ding -> dem AMD FrontEnd wird ja seit GCN schon nachgesagt, dass es "zu schmal" ist für das Backend. Und auch eben nicht richtig skaliert zwischen den verschiedenen GPUs. Hier könnte natürlich gerade so ein Feature punkten um die Shader besser auszulasten.
Ob das bei NV hingegen ein Grund ist, warum es offenbar nicht richtig läuft (oder gar nicht vorhanden ist), lässt sich effektiv nur spekulieren... Vielleicht gibts dazu ja noch ein Statement von NV.

Mich wundert allerdings, dass bei Futuremark im DX12 Test davon absolut gar nichts gesagt wurde :confused:
Wenn Maxwell das nicht kann oder nur in Software irgendwie vorgaukelt, dann dürfte das wohl sicher noch anderen Entwicklern aufgefallen sein??

Wartet auf fdsonne der wird uns dann aufklären wie schlecht „Asynchronus Shader“ ist :bigok:

Warum sollte ich?
Ich programmiere atm nicht in DX12 und beschäftige mich damit auch aktuell nicht wirklich...
Von daher werde ich das kaum direkt bewerten können.

Aber kläre uns doch mal auf, wie "gut" das sein soll??
 
Zuletzt bearbeitet:
Nutzt DX12 automatisch asynchronous shaders?
Denke das ist eher etwas was die Entwickler explizit einsetzen müssen, und dafür muss es Anreize geben.
Dx12 an sich wird sicher die Basis für viele ENgiens der nächsten Jahre bilden. Macht ja keinen Sinn, auf veralteter Technik zu entwickeln.

Eine DX12-Engine ohne Unterstüzung von asynchronen Shadern wäre Vergeudung, denn anscheinend liegt es in der Natur von DX12 nur mit diesen auch optimal zu arbeiten.
 
Ich muss noch was rein werfen, nvidia ist deswegen nicht hinter her, sie haben ja mit DX11.1 gezeigt das es auch ohne geht.
Wichtig für die Entwickler ist eben beide Code Pfade (AMD & nvidia) zu berücksichtigen, gut möglich dass das der DX12 Compiler bereits macht.
Durch Async Shader lassen sich jedoch auch mehr Effekte realisieren ohne Geschwindigkeit zu verlieren. ;)
 
fdsonne schrieb:
Vielleicht ist das einfach nur wieder so ein Threadscheduler Ding -> dem AMD FrontEnd wird ja seit GCN schon nachgesagt, dass es "zu schmal" ist für das Backend. Und auch eben nicht richtig skaliert zwischen den verschiedenen GPUs. Hier könnte natürlich gerade so ein Feature punkten um die Shader besser auszulasten.
Ob das bei NV hingegen ein Grund ist, warum es offenbar nicht richtig läuft (oder gar nicht vorhanden ist), lässt sich effektiv nur spekulieren... Vielleicht gibts dazu ja noch ein Statement von NV.

Also in den einschlägigen Thread stellt sich das Problem doch mitunter recht deutlich heraus.
Das Oxide Game ist gar kein Titel der auf gleichzeitige Compute und Wavefrontsabarbeitungsbefehle ausgelegt ist.
Letztendlich liegt es so wie ich es verstanden habe nur daran, dass Nvidia das nicht unterstützt und bisher sieht alles danach aus, dass Nvidia es nicht unterstützt.

Aber kläre uns doch mal auf, wie "gut" das sein soll??

http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
 
Zuletzt bearbeitet:
Das Oxide Game ist gar kein Titel der auf gleichzeitige Compute und Wavefrontsabarbeitungsbefehle ausgelegt ist.
Letztendlich liegt es so wie ich es verstanden habe nur daran, dass Nvidia das nicht unterstützt und bisher sieht alles danach aus, dass Nvidia es nicht unterstützt.

Wenn allerdings der Einsatz auf AMD Hardware gut Performance bringt nach eigenen Angaben, bei NV hingegen irgendwie nicht -> und man es dort lieber ausschaltet (ausschalten sollte), stellt sich doch die Frage, wie groß ist der Anteil am Ende wirklich?
Ist es denn nun eigentlich bei NV an oder aus? Das geht irgendwie aus dem Text so explizit nicht hervor... Sprich war das Feature in den Versionen, welche schon in den Reviews vorhanden sind, an bei NV?

Weil rein vom Feature her ist das durchaus sinnig. Ob es aber am Ende auch den Effekt in Hardware bringt oder die sequenzielle Methode schneller arbeitet? Lässt sich schwer beurteilen...

Du meinst doch nicht den Drawcall-Test?

Genau den ;)
Wobei das Feature dort möglicherweise gar keine Verwendung findet und entsprechend es auch nicht aufgefallen ist?
 
Vielleicht ist das einfach nur wieder so ein Threadscheduler Ding -> dem AMD FrontEnd wird ja seit GCN schon nachgesagt, dass es "zu schmal" ist für das Backend. Und auch eben nicht richtig skaliert zwischen den verschiedenen GPUs. Hier könnte natürlich gerade so ein Feature punkten um die Shader besser auszulasten.
Ob das bei NV hingegen ein Grund ist, warum es offenbar nicht richtig läuft (oder gar nicht vorhanden ist), lässt sich effektiv nur spekulieren... Vielleicht gibts dazu ja noch ein Statement von NV.

Beitrag von einen AMD-Mitarbeiter...

https://www.reddit.com/r/AdvancedMi...ide_games_made_a_post_discussing_dx12/cul9auq

Oxide effectively summarized my thoughts on the matter. NVIDIA claims "full support" for DX12, but conveniently ignores that Maxwell is utterly incapable of performing asynchronous compute without heavy reliance on slow context switching.

GCN has supported async shading since its inception, and it did so because we hoped and expected that gaming would lean into these workloads heavily. Mantle, Vulkan and DX12 all do. The consoles do (with gusto). PC games are chock full of compute-driven effects.

If memory serves, GCN has higher FLOPS/mm2 than any other architecture, and GCN is once again showing its prowess when utilized with common-sense workloads that are appropriate for the design of the architecture.

Oder auch ganz interessant zu lesen...

This is the explanation because AMD will be performs better than NVIDIA over DIRECXT12 | TechPowerUp Forums
 
Gerade wegen der 970er Geschichte wird jetzt vermutlich noch genauer auf die Finger von Nvidia geschaut, ich hoffe für die GPU Besitzer das es sich nicht bewahrheitet, ich würde mich veräppelt fühlen auch wenn AMD statt Nvidia in der News stehen würde, da ginge es rein um das Prinzip.....
 
Wenn allerdings der Einsatz auf AMD Hardware gut Performance bringt nach eigenen Angaben, bei NV hingegen irgendwie nicht -> und man es dort lieber ausschaltet (ausschalten sollte), stellt sich doch die Frage, wie groß ist der Anteil am Ende wirklich?

Bei den Konsolen bringt es offenbar bis zu 30% mehr Leistung, riecht für mich zumindest nach dem defitigen Bottleneck für Nvidia Karten, sofern man das zulassen sollte.
Der Titel von Oxide ist ja jetzt kein Titel, wo man, bevor man es auf ASync-Shaders umgestellt hat, darauf geachtet hat dass es dieses Feature später gibt.
Da könnte man noch ganz andere Dinge mit anstellen.
Das ist in etwa sowas wie die Tesselationsschwäche der früheren AMD Gens.

Mit dem Unterschied, dass es hier wohl Sinn ergibt das einzusetzen, im Gegensatz zur sinnlosen Tesseliererei.
 
Ist doch positiv für AMD.
Immerhin hat man unter DX12 dann eine ähnliche oder leicht bessere Leistung als die NV Pendants, anstatt 10-15% hinterherzuhinken.

Für NV Nutzer kein Nachteil, da wie schon zu ewarten war, die Treiber unter DX11 fast perfekte Arbeit geliefert haben. Bei AMD hat man sich nie gross darum gekümmert und hat halt die 10-20% Leistung verschenkt.

Interessant wird auch, wie stark der Stromverbrauch der AMD Karten unter DX12 ansteigt, weil die GPUs besser ausgelastet werden und nicht ständig limitiert werden durch nicht optimierte Treiber.
 
Bei AMD hat man sich nie gross darum gekümmert und hat halt die 10-20% Leistung verschenkt.

Von welchen 10 bis 20% sprichst du denn konkret?

Für NV Nutzer kein Nachteil, da wie schon zu ewarten war, die Treiber unter DX11 fast perfekte Arbeit geliefert haben.

Wieso soll das kein prinzipieller Nachteil sein, die Begründung die du Anführst, hat mit Asyncshaders doch nix zu tun.

Interessant wird auch, wie stark der Stromverbrauch der AMD Karten unter DX12 ansteigt, weil die GPUs besser ausgelastet werden und nicht ständig limitiert werden durch nicht optimierte Treiber.

Die GPU´s werden auch in Directx11 sehr gut ausgelastet und werden im Spielemittel von einem i 2500k statt einem OC i7 nur minimal gegenüber denen von Nvidia gebremst.
Test: Siehe Computerbase!
 
achja, das nächste dx mit dem nvidia seine kacke zwar bewirbt, aber an sich überhaupt nicht vollständig unterstützt.
scheißladen.
 
ist eigentlich eh schon seit monaten bekannt, nur wollte halt niemand darüber berichten, eh wie immer...!
 
Fanboy-Flamewars? Ernsthaft?
Ich dachte die Zeiten wären längst vorbei. ;)

Sollte es sich bewahrheiten, dass die aktuellen NV-Flagschiffe DX12 nicht voll unterstützen wäre das meiner Meinung nach Täuschung am Kunden und ich würde von NV eine Art finanzielle oder materielle Entschuldigung erwarten. Ich habe z.B. nicht wenig Geld in meine GPUs investiert. Dies jedoch in der festen Überzeugung, dass die Karten alle DX12-Funktionen (wie angekündigt und versprochen) unterstützen.
Na mal sehen was da am Ende bei herauskommt. Vielleicht auch nur wieder ein Sturm im Glas der hinter vorgehaltener Hand von der Konkurrenz losgetreten wurde.
 
ACEs sind für DX12 nur optional, NVIDIA hat eigentlich nicht gelogen.
die unterstützung ab Maxwell 2.0 war einfach ein Fanboymärken und viele IT-Seiten haben den unsinn übernommen:\

DX12.1 unterstüttz Maxwell 2.0 voll, zumindest ist bis jetzt nichts gegenteiliges bekannt!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh