Oxide: NVIDIA-GPUs unterstützen Asynchronous Compute/Shaders unter DX12 nicht

Vom Prinzip her hast du Recht, bis jetzt relativ sinn frei da es an weiteren Fakten hapert, es wird sich zeigen wie sich das ganze in den nächsten Wochen/Monaten entwickeln wird....

Edit:

Quelle: https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

Interestingly enough, the GTX 960 ended up having higher compute capability in this homebrew benchmark than both the R9 390x and the Fury X - but only when it was under 31 simultaneous command lists. The 980 TI had double the compute performance of either, yet only below 31 command lists. It performed roughly equal to the Fury X at up to 128 command lists.

Bis zu einer Queue von 31 SCL ist eine 960 schneller als Fury, erst wenn alle Queues ausgelastet werden ist die AMD GCN Implementierung anscheinend effizienter da sie mehr Queues zur Verfügung stellen kann als die Implementierung von NV.

Also das Feature dürfte da sein.....

Edit:

Ich hoffe nur das NV die Entwicklerstudios nicht dazu nötigt die Queue bis max. 32 zu limitieren oder generell das Feature zu deaktivieren/umgehen etc. zum Nachteil des Mitbewerbers....
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmmm, fühle mich ein wenig an das 970er- Desaster erinnert. Mal abwarten was da am Ende wirklich rauskommt.

Sollte nVDIA da wieder mal eine, sagen wir mal, suboptimale Kommunikation bezüglich der Specs gehabt haben, wird meine nächste GraKa definitv ne rote. Müsste dann halt leider auf 3D Vision verzichten, aber das wär dann halt so.
Ansonsten freu ich mich für AMD. Hoffe sie können diesen Aufwind gut für sich nutzen. Denn davon profitieren dann alle Kunden durch den stärkeren Wettbewerb.

Für mich persönlich hoffe ich, dass ich meine Games in den nächsten Jahren noch mit guten Details und annehmbaren fps zocken kann. Und wenn die AMD'ler bei den gleichen Spielen 10, 20, oder 50% mehr Leistung haben freu ich mich für die. Hab ja selber nicht mehr oder weniger Leistung deswegen.
 
Edit:

Ich hoffe nur das NV die Entwicklerstudios nicht dazu nötigt die Queue bis max. 32 zu limitieren oder generell das Feature zu deaktivieren/umgehen etc. zum Nachteil des Mitbewerbers....

Wie kann man das als Laie einschätzen: Sind 32 schon "viel" oder eher so: "Bei 32 fängt man erst an"?
 
Wie kann man das als Laie einschätzen: Sind 32 schon "viel" oder eher so: "Bei 32 fängt man erst an"?
In einem Zitat weiter oben im Thread, ist die Rede davon dass das AMD-Gegenstück an die 128 kommt, aber was das für Auswirkungen in der Praxis hat, ist noch nicht wirklich bekannt. Da muss definitiv noch einiges getestet werden. Auch steht die Möglichkeit im Raum, dass der NV Treiber das ganze nur simuliert.
DX12 ist noch immer noch nicht offiziell fertig gestellt. Sobald das der Fall ist, werden wir sicher auch von Microsoft selbst ein par Infos erhalten wie die neuen Funktionen, bei welcher Grafikkarte am sinnvollsten einzusetzen sind.
 
Zuletzt bearbeitet:
Welchen Leistungsschub soll DX12 bei einer XBone bewirken? 20, 30%?

Und da steckt ja zufällig AMD-Hardware drin. Microsoft dürfte da ganz eigennützig denken.
 
ich meine mich zu erinnern das es doch schonmal bei irgendeiner Generation von Grakas und DX soetwas gab, oder täusche ich mich da?

Weiterhin stellt sich mir die Frage wie schnell findet DX12 wirklich einzug in die Spiele? Oder geht die Entwicklung wie es wegen oben genannten Konsolenports diesmal schneller?

Ich frage mich das nur, da bei mir eigentlich schon seit Ewigkeiten nen Graka Update ansteht und sich nun wieder die Frage stellt, muss/sollte ich wegen DX12 nun wirklich warten oder ist es eigentlich egal.
 
PS4 hat zumindest mal die "gleiche" APU drin, d.h. die gleichen Hardware-Voraussetzungen. Ich nehme an die reagiert genauso gut auf die async. Dingers.
 
Pascal hat das Tape Out schon hinter sich, oder?
Wollen wir mal hoffen, das sie nicht vergessen haben dort a.Shader einzubauen. (Musste jetzt sein ;) )

- - - Updated - - -

PS4 hat zumindest mal die "gleiche" APU drin, d.h. die gleichen Hardware-Voraussetzungen. Ich nehme an die reagiert genauso gut auf die async. Dingers.

XBox hat 2 ,die PS4 hat 8, wie eine 290x auch
 
Zuletzt bearbeitet:
XBox hat 2 ,die PS4 hat 8, wie eine 290x auch
Hm? verstehe ich nicht ganz was du meinst. Ich hab mich an folgendem Zitat orientiert:
"In numerical terms, the Xbox One GPU has 12 compute units (768 shader processors), while the PS4 has 18 CUs (1152 shaders). The Xbox One is slightly ahead on GPU clock speed (853MHz vs. 800MHz for the PS4)."
Ich bin mal davon ausgegangen, dass die CUs vom Typ her gleich aufgebaut sind.
 
Oh okey, und da haben PS4 und XBONE wirklich so eine Differenz? Oo Das hätte ich mir jetzt nicht gedacht.
Danke an Alle für die Aufklärung! :)
 
Zuletzt bearbeitet:
Da hast Du aber vergessen noch etwas zu zitieren:
Extra point: all of the NVidia cards show a linear increase in time when you increase the number of compute kernels, stepping up every 32 kernels since Maxwell has 32 thread blocks. The 980Ti took 10ms~ for 1-31 kernels, 21ms~ for 32-63 kernels, 32ms~ for 64-95 kernels, and 44ms~ for 96-127 kernels.
The Fury X took 49ms~ for all 1...128 kernel runs, didn't even budge. It looks like the 49ms is some kind of fixed system overhead and we haven't even seen it being strained by the compute calls at all yet.


Schauen wir mal was die Geschichte in Zukunft für Auswirkungen hat, wenn AMD ein neues TopSelling-Argument hat würde es Ihnen auf keinen Fall schaden :)
 
Zuletzt bearbeitet:
Geht ja jetzt auch nicht um Feinheiten und ich wollte schon gar nicht eine OT Diskussion vom Zaun brechen, meine Frage war ob die PS4 ebenfalls davon profitieren wird oder eher nicht, weil die XBOX wird dank dx12 und W10 vermutlich es tun und das sind schon zwei gewaltige dafür statt dagegen Argumente... Aber meine persönliche Auffassung bitte...

Ich bin mir auch sicher das dieses dx12 Feature bei den Konsolen sehr gut ankommen wird und wie gesagt bei dem Port auf PC vermutlich dieses pro AMD ausfallen könnte sofern NV dieses nicht durch Ihre GW Umgebung verhindert..
 
Geht ja jetzt auch nicht um Feinheiten und ich wollte schon gar nicht eine OT Diskussion vom Zaun brechen, meine Frage war ob die PS4 ebenfalls davon profitieren wird oder eher nicht, weil die XBOX wird dank dx12 und W10 vermutlich es tun und das sind schon zwei gewaltige dafür statt dagegen Argumente... Aber meine persönliche Auffassung bitte...

Ich bin mir auch sicher das dieses dx12 Feature bei den Konsolen sehr gut ankommen wird und wie gesagt bei dem Port auf PC vermutlich dieses pro AMD ausfallen könnte sofern NV dieses nicht durch Ihre GW Umgebung verhindert..

Inwiefern Entwickler die asynchronen Shadertechniken in den Konsolen bereits ausnutzen, weiß ich nicht. Aber auch ich bin mir ziemlich sicher, falls es nicht bereits schon geschehen ist, es in Zukunft zum Standard werden wird. Da steckt schließlich eine Menge Potenzial dahinter, welches man sicher nicht einfach so verschenken wollen wird, dafür dürfte es auch zu wichtig sein. Mit DX12 hat man nun auch den Weg dahin bereits eingeschlagen. Asynchrone Shader und DX12 gehen quasi Hand in Hand, das liegt in der Natur der Sache. Was mit DX11 nicht möglich war, wird nun durch DX12 und die Nutzung von async. Shadern möglich. Wenn die Spiele/3D-Engines auf den Konsolen dies auch nativ unterstützen, wird es auch auf den PC rüberschwappen. Ich kann mir nur schwer vorstellen, wie NVIDIA das verhindern möchte. Ein herauspatchen dürfte nicht so ohne weiteres Möglich sein.
 
Heraus patchen nicht aber vermutlich per Treiber on/off stellen?

Wenn sich dieses Feature als Performance Killer herausstellen sollte, AMD besser da stehen würde, was sollte NV daran hindern durch Ihre Position und Macht bei den Entwicklern/studios da gegenzuwirken?

Es ist soweit ich das mitbekommen habe kein Pflicht Feature damit eine dx12 Engine funktioniert und solange NV vor AMD bei den Tests besser da steht ist die Welt für NV in Ordnung...... (sonst würden Sie ja nicht so nervös auf die Geschichte reagieren)......

Und:
Ich nix Fan Boy, mir ist es egal ob NV oder AMD bei mir drinnen ist und würde AMD das Problem haben würde ich genauso schreiben...
 
Zuletzt bearbeitet:
Viel Lärm um nichts oder wenig?

Also sind 20-30% Mehrleistung nichts?

Sorry, das sehe ich anders.
 
NVIDIA ist und bleibt eben die beste Vermarktungsfirma im Grafikkartenbereich. Man muss nicht das verkaufen was die Leute wollen, sondern nur das, was sie bekommen. :)

Eine womögliche fehlende Asynchron-Shaderleistung wird höchst wahrscheinlich mal wieder als offizielles Feature per Treiber-Cut beworben um die bestmögliche Gaming-Leistung für sein Geld zu bekommen. Ähnlich wie mit dem Speicherausbau der GTX970, was ja auch ein offizielles Feature von NVIDIA darstellt.

Wer es glaub, soll eben damit leben. ;)
 
Heraus patchen nicht aber vermutlich per Treiber on/off stellen?

Auch da weiß nicht ob das so einfach möglich wäre. Wenn ein Spiel damit von Grund auf entwickelt wurde, dann kann das Deaktivieren schon zu einigen Überraschungen führen, denke ich. Schlimmstenfalls leidet das Spielerlebniss so sehr, dass man kaum noch sinnvoll spielen kann. Schwer einzuschätzen...

Wenn sich dieses Feature als Performance Killer herausstellen sollte, AMD besser da stehen würde, was sollte NV daran hindern durch Ihre Position und Macht bei den Entwicklern/studios da gegenzuwirken?

Es ist soweit ich das mitbekommen habe kein Pflicht Feature damit eine dx12 Engine funktioniert und solange NV vor AMD bei den Tests besser da steht ist die Welt für NV in Ordnung...... (sonst würden Sie ja nicht so nervös auf die Geschichte reagieren)......

Möglich ist natürlich vieles. Da DX12 uns sicher noch einige Jahre erhalten bleiben wird, frage ich mich da schon ob NVIDIA da wirklich sich ständig mit irgednwelchen Entwicklern auseinander setzen möchte. Auf lange Sicht dürfte es deshalb für NVIDIA wesentlich einfacher sein sollte eine Architektur mit verbesserter Implementierung von asynchronen Shadern zu veröffentlichen, so dass man zu AMD zumindest keinen Nachteil mehr hat.

Anscheinend unterstützt Maxwell 2.0 auch asynchrone Shader, nur unterscheidet sich die Implementierung zu derer AMDs. Die Frage ist auch, ob NVIDIAs Implementierung hier wirklich einen Flaschenhals bildet oder ob sie einfach nur nicht richtig ausgenutzt wird. Ich frage mich, ob Oxide die Eigenarten der Maxwell-Architektur hinsichtlich asynchroner Shader auch versucht hat zu berücksichtigen oder ob man einfach die bisherige auf Mantle hin optimierte Engine ohne die nötigen Anpassungen vorzunehmen einfach so übernehmen wollte. Man sprach doch davon, dass man die vom NVIDIA-Treiber gemeldeten asynchronen Shaderfähigkeiten zwar nutzen wollte, aber sobald man das versuchte, dies in einer starken Leistungsminderung mündete. Kann es also sein, dass das vielleicht einfach nur das Resultat einer falschen Optimierung war?
 
Zuletzt bearbeitet:
Nvidia entwickelt zusammen mit Oxide an dem Game. Die haben Einblick in den Sourcecode. Da kann mir keiner erzählen, es läge an irgendeiner falschen Optimierung. Und selbst wenn, wäre Nvidia mitverantwortlich.
 
Viel Lärm um nichts oder wenig?

Also sind 20-30% Mehrleistung nichts?

Sorry, das sehe ich anders.

Lies dir den verlinkten Bericht durch, dann wirst du verstehen was gemeint ist.
Selbst wenn es einige Spiele geben sollte bei denen AMD 20% Mehrleistung bringt wären sie vermutlich trotzdem nur knapp vor NV, da diese i.d.R. in den letzten Jahren immer die leistungsfähigeren Karten hatten.
Im Gegenzug gibt es aber auch DX12-Funktionen die AMD-Karten nicht unterstützen, also wird es auch Spiele geben bei denen NV 20% vorne liegt. Unterm Strich als viel Lärm um wenig Substanzielles. Es wird sich nicht viel ändern im Vergleich zu jetzt.
Mal hat AMD die Nase vorn (da Features unterstützt werden die NV nicht unterstützt), mal hat NV die Nase vorn (da Features unterstützt werden die AMD nicht unterstützt).
Da könnt ihr euch von mir aus gerne gegenseitig die Köpfe einschlagen (was ich nebenbei erwähnt lächerlich hoch zehn finde), aber wenn selbst der AMD-Chef im Voraus sagt keine Karte könne alle DX12-Features unterstützen wird er sich schon was dabei gedacht haben.
Also offenbar alles halb so wild. Bin auf jeden Fall mal auf weitere Benchmarks gespannt, da es ja bisher nur diese eine Aussage gab welche der Grund für all den Rummel hier ist.
 
NVIDIA ist und bleibt eben die beste Vermarktungsfirma im Grafikkartenbereich. Man muss nicht das verkaufen was die Leute wollen, sondern nur das, was sie bekommen. :)

Eine womögliche fehlende Asynchron-Shaderleistung wird höchst wahrscheinlich mal wieder als offizielles Feature per Treiber-Cut beworben um die bestmögliche Gaming-Leistung für sein Geld zu bekommen. Ähnlich wie mit dem Speicherausbau der GTX970, was ja auch ein offizielles Feature von NVIDIA darstellt.

Wer es glaub, soll eben damit leben. ;)

ich kann mir schon vorstellen, dass ein richtig derbes A....loch sowas schon ernst meint. "Hey, wir mussten sie cutten. sie wär sonst zu schnell. aber dann gehen voll angebundenen 4GB nicht und wir wollen aber 4GB! und ihr kriegts nicht mit oder findets kagge oder toll oder was auch immer; wir haben 75% Marktanteil. Wir könnens und wir machens und ihr werdets kaufen."

ich zB ...
tangiert mich peripher.
aber wenn da echt an die 30% Leistnungsunterschied sind, ... denk ich dann evtl übern Herstellerwechsel nach.
gnnnnnnnnnnnnnnnnnnnnnnnnnnn :/
 
der titel fällt mir wunderbar, nicht
das wollte ich mal gesagt haben, nicht
deutsch bei yoda du gelernt
 
Nvidia entwickelt zusammen mit Oxide an dem Game. Die haben Einblick in den Sourcecode. Da kann mir keiner erzählen, es läge an irgendeiner falschen Optimierung. Und selbst wenn, wäre Nvidia mitverantwortlich.

Und nur weil sie Einblick haben darf/kann sowas nicht sein? Die Frage ist doch, war es auch eine gute Zusammenarbeit? Den Kindergarten, den Oxide und NVIDIA die letzten Wochen losgetreten haben, lässt mich da schon daran zweifeln. Ich könnte mir z.B. schon vorstellen, dass man die asynchronen Shader nur abgeschaltet hat, weil es einen enormen Aufwand bedeutet hätte alles nochmal auf NVIDIA-Hardware anzupassen. Man fing doch ursprünglich mit AMD als Partner und Mantle als Untersatz für die Engine an, hat also schon einiges an Vorarbeit geleistet. Dann kam DX12 und plötzlich gesellte sich auch NVIDIA dazu, man musste dann aber feststellen, das die bisher erbeitete Engine nicht in der Art und Weise mit der NVIDIA-Hardware zurecht kommt wie es mit AMDs GCN-Archtektur der Fall ist. Man hätte vieles von Grund auf neu/anders machen müssen. Vielleicht bestand NVIDIA auch auf eine Optimierung und Oxide wollte nicht, aus welchen Gründen auch immer, es kam zum Streit und man "einigte" sich dann u.a. darauf die async. Shader abzuschalten. Vielleicht auch ein Grund warum NVIDIA immer davon spricht Ashes of the Singularity sei kein gutes Beispiel für DX12. Man weiß es nicht...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh