NVIDIA will Funktion der Asynchronous Shader per Treiber nachreichen

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.060
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" width="100" height="100" alt="nvidia 2013" style="margin: 10px; float: left;" />AMD sieht sich als Vorreiter bei der Entwicklung neuer APIs – Mantle war dabei nur ein erster Schritt, DirectX 12 gehört sicherlich die Zukunft und soll aktuelle Programmierdoktrin erneuern. Doch Ende August erschienen Meldungen, <a href="index.php/news/hardware/grafikkarten/36454-oxide-nvidia-gpus-unterstuetzen-asynchronous-computeshaders-unter-dx12-nicht.html" target="_self">nach denen NVIDIA-GPUs unter DirectX 12 nicht in der Lage seien, die Asynchronous Shader zu unterstützen</a>.</p>
<p>Der Vorwurf stammt von Oxide, dem Entwicklerstudio von Ashes of Singularity, einem der ersten DirectX-12-Titel, den auch wir in einer Neuauflage in unseren...<br /><br /><a href="/index.php/news/software/treiber/36525-nvidia-will-funktion-der-asynchronous-shader-per-treiber-nachreichen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
NVidia könnte ja auch einfach mal reinen Tisch machen und klipp und klar aussagen, ob die Hardware nun Async Comute kann, oder nicht.

Da sie das aber nicht tun und lieber nur mit irgendwelchen Aussagen zu Treibern herumdrucksen, erweckt das zumindest bei mir den Eindruck, dass ihre Hardware es wohl nicht kann.
 
#ironie an#
Wird aber wahrscheinlich von nVidia als "spezielles" Feature verkauft.
Wahrscheinlich als Stromsparfunktion unter DX12...was es nicht gibt kann auch kein Strom verbrauchen
#ironie aus#

Entschuldigung aber das konnte ich mir nicht verkneifen.
Nicht allzu ernst nehmen aber wer den Schaden hat braucht für den Spott nicht zu sorgen heist es ja bekanntlich.:d
 
NVidia könnte ja auch einfach mal reinen Tisch machen und klipp und klar aussagen, ob die Hardware nun Async Comute kann, oder nicht.
haben sie das nicht eh schon indirekt getan?
AS wird durch die CPU emuliert weil es die hardware nicht unterstützt, das war doch direkt die aussage von NVIDIA?
 
NVidia könnte ja auch einfach mal reinen Tisch machen und klipp und klar aussagen, ob die Hardware nun Async Comute kann, oder nicht.

.. nach dem 970 und "4gb" Debakel inkl. dem Hick-hack dazu wundert mich das nicht ..
ich erwarte schon gar keine Ehrlichkeit mehr dazu - sonst bekommt man als Kunde noch nen Herzinfakt :d
 
Nvidia ist lächerlich. Trotzdem gibt es genug Leute die denen alles glauben.

Ich kaufe keine Produkte mit Nvidia Inhalt.
Verlogene Drecksfirma
 
Das beste ist doch jetzt, dass man bei der Graka Kaufberatung immer gegen die GTX Serie argumentieren kann, weil die das nicht kann und Pascal ist schon lange fertig (also Tapeout), die Wahrscheinlichkeit dass der das dann kann ist auch eher gering.
und die ersten DX12 Spiele kommen schon bald, immerhin 5 gute und bekannte Spiele. 2016 legt dann richtig nach dank Konsolen.
 
Nvidia ist lächerlich. Trotzdem gibt es genug Leute die denen alles glauben.

Ich kaufe keine Produkte mit Nvidia Inhalt.
Verlogene Drecksfirma

Wirbt AMD nicht auch mit DX 12? Hat nicht kürzlich ein AMD Funktionär gesagt "Keine Grafikkarte auf dem Markt unterstützt DirectX 12!" ... Nvidia sind die einzigen die Lügen? Na wenn du meinst :d
 
99.9% der Dummschwätzer hier wissen nicht mal wie Asynch Shader jeweils implementiert sind.

Die Ausführungseinheiten sind bei NV und AMD vorhanden. Der Unterschied besteht darin, dass AMD selbst die Zuteilung in Hardware implementiert hat. Damit ist man halt weniger flexibel. Im Endeffekt zählt nur die erbrachte Leistung, falls diese nach Treiberoptimierung nicht passt, kann man sich bei NV beschweren.

Und AMD Fanboys sollten nicht so laut wegen Lügen schreien: Ich warte immer noch auf den versprochenen Overclockers Dream. Bis jetzt haben sie nur eine billige AIO Lösung mit minimaler Verfügbarkeit geliefert.
 
Die Ausführungseinheiten sind bei NV und AMD vorhanden. Der Unterschied besteht darin, dass AMD selbst die Zuteilung in Hardware implementiert hat. Damit ist man halt weniger flexibel.
Lol... hast du grad allen Ernstes die Hardware-Implementierung als Nachteil bezeichnet? -_-'
Wenn etwas nur eine Aufgabe hat: Last auf mehr Einheiten aufzuteilen - dann ist eine feste Implementierung immer der bessere weg.
 
Nicht die komplette Implementation, aber das Frontend.
Ich stimme dir zu, dass die Implementation in Hardware für eine feste, immer gleiche Aufgabe viel effizienter ist. Jedoch stecken die Async Shaders noch in den Kinderschuhen, d.h. sollte man etwas an der Aufteilung grundlegend ändern, wird man auch bei AMD einen Software-fix benötigen.

Alles in Hardware ist unflexibel und macht nur Sinn, wenn man auch die Marktmacht besitzt es als defacto Standard durchzusetzen.

Wir müssen einfach mal abwarten bis mindestens Mitte 2016.
 
Also wenn neue GraKa geplant, dann die Anschaffung Weihnachten :xmas: 2015 besser auch auf Mitte 2016 verschieben? :hmm:

Neuen Monitor will ich ja auch noch.
 
Nicht die komplette Implementation, aber das Frontend.
Ich stimme dir zu, dass die Implementation in Hardware für eine feste, immer gleiche Aufgabe viel effizienter ist. Jedoch stecken die Async Shaders noch in den Kinderschuhen, d.h. sollte man etwas an der Aufteilung grundlegend ändern, wird man auch bei AMD einen Software-fix benötigen.

Alles in Hardware ist unflexibel und macht nur Sinn, wenn man auch die Marktmacht besitzt es als defacto Standard durchzusetzen.

Wir müssen einfach mal abwarten bis mindestens Mitte 2016.

Und was sollte sich denn so gravierend ändern?
 
Da wird sich recht wenig ändern, immerhin wird dieselbe Technik auf den Konsolen schon erfolgreich eingesetzt. Also so sehr stecken die AS auch nicht mehr in den Kinderschuhen, als das AMD nicht langsam wüsste auf was es ankommt.
 
Einfach mal auf den Treiber warten und dann schauen, ist ja auch nicht so abwegig, das die DX12 Teile des Treibers noch lange nicht vollständig sind bzw. auch noch gravierende Fehler enthalten könnten (auch bei AMD), weil noch gibt es nicht ein echtes DX12 Spiel auf dem Markt. Das AMD hier wegen Mantle einen Vorsprung hat, sollte auch klar sein, abgesehen davon sind Aussagen, die bisher nach wie vor nur auf den Aussagen dieses eines Entwicklers beruhen (ist ja nicht so, das sonst kein Schwein DX12 Spiele / Engines entwickelt), eher mit Vorsicht zu geniesen (wer garantiert den hier, das die nicht einfach nur zu blöd sind? - Man muss sich schon Fragen, warum man zB von anderen Entwicklern wie Epic usw. nicht ein Wort dazu hört).

PS: Und nur weil eine Technik vorteile auf einer Console mit der Rechenleistung eines besseren Taschenrechners Vorteile hat, muss das nicht auch bei Gamer PCs sein (Der Vorteil von mantle wurde bei adäquater CPU ja auch sehr viel geringer).
 
Zuletzt bearbeitet:
@Betabrot
Es gibt offizielle Folien von NV, wo die später (Volta oder später) sowas wie ACE's einbauen.
Wie aktuell mit Context Switch ist zwar drin, aber wird über die CPU emuliert - schlechter Umweg.

Klare Sache wie es laufen wird, falls viele Spiele auf Async Compute setzen werden.
 
Einfach mal auf den Treiber warten und dann schauen, ist ja auch nicht so abwegig, das die DX12 Teile des Treibers noch lange nicht vollständig sind bzw. auch noch gravierende Fehler enthalten könnten (auch bei AMD), weil noch gibt es nicht ein echtes DX12 Spiel auf dem Markt. Das AMD hier wegen Mantle einen Vorsprung hat, sollte auch klar sein, abgesehen davon sind Aussagen, die bisher nach wie vor nur auf den Aussagen dieses eines Entwicklers beruhen (ist ja nicht so, das sonst kein Schwein DX12 Spiele / Engines entwickelt), eher mit Vorsicht zu geniesen (wer garantiert den hier, das die nicht einfach nur zu blöd sind? - Man muss sich schon Fragen, warum man zB von anderen Entwicklern wie Epic usw. nicht ein Wort dazu hört).

PS: Und nur weil eine Technik vorteile auf einer Console mit der Rechenleistung eines besseren Taschenrechners Vorteile hat, muss das nicht auch bei Gamer PCs sein (Der Vorteil von mantle wurde bei adäquater CPU ja auch sehr viel geringer).

Es ist ja nicht nur Oxide, die das sagen, es gibt auch Benchmarks bzw. Tests, die das bestätigen.
Die Garantie, dass die nicht zu blöd sind ist zB. auch das Eingeständnis von Nvidia, das es auf Maxwell2 nicht läuft (nach dem sie die Leute bei Oxide auch erst mal als zu blöd bezeichnet haben ;) ).

Und zu der letzten Aussage kann ich nur den Kopfschütteln... Wenn man keine Ahnung hat und so.
 
@Betabrot
Es gibt offizielle Folien von NV, wo die später (Volta oder später) sowas wie ACE's einbauen.
quelle?

- - - Updated - - -

zB. auch das Eingeständnis von Nvidia, das es auf Maxwell2 nicht läuft (nach dem sie die Leute bei Oxide auch erst mal als zu blöd bezeichnet haben ;) ).
wenn es Maxwell 2.0 unterstützt, dann würde der treiber es wohl auch unterstützen.
eine emulation per CPU muß auch erst in den treiber integriert werden, würde doch niemand machen wenn man auch die die richtige hardwareunterstützung in den treiber integrieren könnte!
 
Und zu der letzten Aussage kann ich nur den Kopfschütteln... Wenn man keine Ahnung hat und so.

Dann schüttel mal nur den Kopf, das hilft sicherlich weiterhin die realität zu verweigern und nur AMD zu sehen ;). Ich hab Mantle mehr als genug ausprobiert um zu wissen von was ich rede (auch mit AMD und Intel CPUs, mit und ohne OC). Aber solangsam sind AMD Fanboys echt schlimmer als die nVidia -.-, da bin ich echt froh, nach 12 Jahren, meine aller erste nVidia gekauft zu haben .....
 
Hat eines der Mantle spiele Async Compute genutzt? Meines Wissens nach nicht. Die haben lediglich den Vorteil des geringeren Overheads ausgenutzt.
 
Hat eines der Mantle spiele Async Compute genutzt?

Thief ist auf AMDs GCN-Architektur hinsichtilich Async Compute optimiert, aber mehr will mir auch nicht einfallen...
 
99.9% der Dummschwätzer hier wissen nicht mal wie Asynch Shader jeweils implementiert sind.

Die Ausführungseinheiten sind bei NV und AMD vorhanden. Der Unterschied besteht darin, dass AMD selbst die Zuteilung in Hardware implementiert hat. Damit ist man halt weniger flexibel. Im Endeffekt zählt nur die erbrachte Leistung, falls diese nach Treiberoptimierung nicht passt, kann man sich bei NV beschweren.

Jeder weiß dass du mittlerweile mit voller Absicht Unsinn verzapfst, langsam nervt dein Ge"blubbOr".
Gehe jede Wette ein, dass du nicht mal nen Artikel dazu gelesen hast, dazu gibts einige die darüber aufklären für was das gut ist, wie Nvidias Implementierung aussieht und wie AMD´s.
Dass Nvidia flexibler sei, ist absoluter Bullshit.
 
Ich werde wahrscheinlich nie verstehen warum sowas als Fight zwischen AMD und Nvidia genutzt wird, statt einfach abzuwarten bis DX12 da ist mit den ersten triple AAA spielen und dann gibts doch auch Benchmarks die zeigen werden wer jetzt besser dasteht.

AMD ist da ja auch nicht grad besser, hauen einfach sowas wie "die meisten dx12 games werden unsere partnerschaften sein" und das wars ... und in benchmarks steht dann nvidia wieder besser da. Ist fast immer so. Sieht man ja an der Awesome R9 Nano, die ist ganz knapp über einer GTX 980 und sollte den Markt auffräumen..
 
@Tazmal29

Es ist wie bei Apple vs den Rest. Jeder pickt die besten Argumente raus. Aber der NV-Wahn hat schon Apple Züge angenommen.
Bei AMD wird zu jeder Zeit die Heizung, astronomisch hohe Verbräuche genannt und das ewige Gerücht der schlechten Treiber hält sich immer noch.

Nano ist ja auch deutlich kompakter und der Gegner ist erster Linie die 970 mini.
Im mITX passt nicht immer eine 980 rein.
Das sie die 980 ab 2k schlägt ist i.O.
 
Solche Meinungen ändern aber nichts am Kaufverhalten der meisten Leute. Ich selbst hab den mist geglaubt und eine r9 390 getestet vor 2 Tagen und war maßlos enttäuscht. Wichtig ist doch was man von bekannten empfohlen bekommt und nicht was in Foren geschrieben wird.

Ich kann auch niemanden eine AMD empfehlen wenn ich selbst damit nicht zufrieden war. Mir ist das egal ob NV oder AMD. Aber man sollte wirklich mal abwarten wie es am ende rauskommt bei den fertigen Versionen. Aktuell begreifen die meisten noch garnicht das sie über Alpha und Testversionen diskutieren.

Besser ist der, der am Ende vorne steht.
 
Ich selbst hab den mist geglaubt und eine r9 390 getestet vor 2 Tagen und war maßlos enttäuscht.
Ja sicher.. nachdem du schon seit deiner Anmeldung hier, passend zum vram Debakel NV verteidigst und AMD indirekt (und des öfteren wie hier, auch direkt) niedermachst...
Das glaubt dir doch kein Mensch.

Besser ist der, der am Ende vorne steht.
Leider nein, denn weiter vorne steht oft der, der mehr Fanboys per Marketting eingefangen hat.
 
Zuletzt bearbeitet:
Ich werde wahrscheinlich nie verstehen warum sowas als Fight zwischen AMD und Nvidia genutzt wird, statt einfach abzuwarten bis DX12 da ist mit den ersten triple AAA spielen und dann gibts doch auch Benchmarks die zeigen werden wer jetzt besser dasteht.

AMD ist da ja auch nicht grad besser, hauen einfach sowas wie "die meisten dx12 games werden unsere partnerschaften sein" und das wars ... und in benchmarks steht dann nvidia wieder besser da. Ist fast immer so. Sieht man ja an der Awesome R9 Nano, die ist ganz knapp über einer GTX 980 und sollte den Markt auffräumen..
Solche Meinungen ändern aber nichts am Kaufverhalten der meisten Leute. Ich selbst hab den mist geglaubt und eine r9 390 getestet vor 2 Tagen und war maßlos enttäuscht. Wichtig ist doch was man von bekannten empfohlen bekommt und nicht was in Foren geschrieben wird.

Ich kann auch niemanden eine AMD empfehlen wenn ich selbst damit nicht zufrieden war. Mir ist das egal ob NV oder AMD. Aber man sollte wirklich mal abwarten wie es am ende rauskommt bei den fertigen Versionen. Aktuell begreifen die meisten noch garnicht das sie über Alpha und Testversionen diskutieren.

Besser ist der, der am Ende vorne steht.
Man bist du peinlich. Bei dir muss man demnächst die Warnung "Vorsicht, kann Spuren von Ignoranz und Fanboygehabe enthalten!" bei jedem deiner "Beiträge" hinzufügen.
Du hast noch nie eine R9 390 in deiner Schrottkiste gehabt. Lügen also auch noch. Armselige Wurst.
Diskutier nicht mit Holz..... wie zutreffend.
 
Zuletzt bearbeitet:
Also ich glaube der Kampf zwischen Nvidia und AMD ist aktuell recht offen. Da ist nichts entschieden weder pro Nvidia noch pro AMD.

AMD hat mit der Fury eine tolle Karte rausgebracht, aber zumindest mich haben sie auch etwas enttäuscht. Ich hätte erwartet das mit Fiji und dank HBM die Fury durchgängig besser sein müsste als die 980ti. Maxwell ist ja immerhin doch etwas in die Jahre gekommen. Mag sein das ich zu viel erwartet habe und total auf den HBM Hype reingefallen bin aber wie gesagt, ich hätte erwartet das eine Fury X eine 980ti auch bei FHD schlägt.
Der Grund warum ich persöhnlich mich besser bei Nvidia aufgehoben fühle, auch wenn AMD nicht abgeneigt bin, ist das sie in meinen Augen mehr aus der Hardware rausholen.
Bei allem was es bei Nvidia zu Recht zu kritisieren gibt, wie fehlendes Async Compute und die 3,5GB 970, gibt es da aber auch einige Pluspunkte für Nvidia wenn man in Brief vom Oxide Mitarbeiter schaut:
Oxide: NVIDIA-GPUs unterstützen Asynchronous Compute/Shaders unter DX12 nicht
From our perspective, one of the surprising things about the results is just how good Nvidia's DX11 perf is. But that's a very recent development, with huge CPU perf improvements over the last month. Still, DX12 CPU overhead is still far far better on Nvidia, and we haven't even tuned it as much as DX11.
Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD
Nvidia supported die Entwickler in meinen Augen deutlich besser, indem sie sich mehr an der Entwicklung beteiligen und unteranderem GameWorks bereitstellen. Noch so ein Beispiel abseits von Spielen ist Blender. Die AMD Karten können in OpenCL mit den Nvidia den Boden aufwischen, aber der OpenCL Support in Blender ist schlecht, auch wenn schon vieles besser geworden ist. Es fehlen Features, ist teils verbuggt und kommt von der Performance nicht an CUDA heran, auch wenn der April Patch von AMD einiges besser gemacht hat. Da mag ich ein Fanboy sein, aber bei Nvidia habe ich das Gefühl die holen einfach das Beste aus den Karten raus und haben den besseren Treiber, auch wenn der AMD Treiber nicht schlecht ist. AMD liefert wirklich gute Hardware, aber in meinen Augen kümmern sich nicht genug darum das man auch das Beste aus ihr herausholt. Das in meinen Augen ein bisschen wie bei der PS3 mit der Cell CPU. Sehr Potent, nur lange konnte niemand die volle Leistung rauskitzeln. Durch die Ähnlichkeit von Mantle und DX12 hat AMD sicherlich Vorteile aber zumindest unter DX11 hat Nvidia gezeigt, dass sie die besseren Treiber Entwickler haben.
Das AMD auf die Dauer durch bessere Hardware Erfolg haben wird glaube ich nicht, dafür fehlt ihnen schlicht das Geld. Spätestens mit Pascal wird Nvidia Async Compute haben, genauso wie HBM Speicher und ich sehe aktuell auch keine AMD exklusive Technik die ihnen den technisch den Vorsprung erhalten kann. AMD muss sich etwas einfallen lassen, fettere Chips bei günstigeren Preisen als Nvidia kostet ordentlich Marge und lässt sich nicht dauerhaft durchhalten. Sonst ergeht es der GPU Sparte irgendwann wie der CPU Sparte und das will niemand egal ob Nvidia Fan oder nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh