Oxide: NVIDIA-GPUs unterstützen Asynchronous Compute/Shaders unter DX12 nicht

Und was versprichst du dir daraus?
Irgendwie hat das keinen Sinn... So eine Lösung wäre wohl massiv im Bandbreitenlimit. Man müsste den Cache aufbohren in der Größe, die 128MB (irgendwie spekuliert man ja nun für Skylake, dass es auch 64MB Modelle geben soll?) sind heute schon arg knapp. Auch Intel kann hier nicht zaubern... Sie können im Endeffekt nur das gleiche machen, wie AMD es auch macht mit den APUs, nämlich das aktuelle Optimum aus dem Bandbreitenflaschenhals rausholen.
Schau dir ne HD7770 an, die ist gute 50% schneller als die AMD APU und das trotz quasi gleichem Aufbau bei deutlich mehr Bandbreite als quasi einziger richtiger Unterschied...

Verschwindet der Bandbreitenflaschenhals, gehts mit den APUs massiv bergauf, da somit auf einen Schlag die GPU in der ALU Anzahl stark nach oben skalierbar ist. Bei AMD steht das faktisch auf dem Fahrplan. -> auch wenn es noch ein Stück hin ist, bis wir das sehen werden. Heute ist das einfach nicht drin bei der lahmen Bandbreite... Da kann man noch so viel GPU verbauen, es wird nicht besser...
Eine Zwischenlösung mit kleinem Cache wäre für AMD genau so denkbar. Stichwort XBoxOne -> die machts imho vor. Allerdings denke ich nicht, dass AMD auf zu vielen Baustellen tanzen wird. Einfach des lieben Geldes wegens...

Ich denke nicht das Intel ein Problem hätte die Bandbreite für prop interfaces zu erhöhen (da macht man nen Bus der direkt ohne PCIe angebunden ist)

atm reguliert das "Anti Thrust" vieles aber Intel könnte locker eigene Grafic Units an die CPU außerhalb von PCIe anbinden (die igps laufen ja auch prop)
was damit möglich ist siehste ja bei Iris (und die ist skallierbar)

in 5-10 Jahren wird sich eh die dominanz von Intel zeigen .... aber das ist wie ne Timecapsule ... mark my words

wer älter ist kennt evtl noch "Intel pentium .. das Web schöner, schneller, bunter" (2000) - damals war AMD noch ein Gegner .. heute ist AMD nur (leider) ein Nischenfüller
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Neuer AMD 15.8 BETA Treiber ist draußen.

Getestet mit einer 290X.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10765832&postcount=416

Performance Anstieg von ca. 25%, damit deutlich vor der 980TI. Ne 290X wohlgemerkt.
 
...oder gibt es dazu neue Erkenntnisse?

Ich fasse mal zusammen, was ich bisher mitbekommen habe...

- NVIDIA unterstützt asynchrone Shader, jedoch ist die Funktionalität nicht wie bei AMDs GCN-Architektur in Hardware implementiert, sondern wird über die CPU emuliert. Insofern kann man NVIDIA da nichts ankreiden was den Support an sich betrifft, denn es wird nirgendwo beschrieben wie eine Implementierung/Unterstützung von asynchronen Shadern genau auszusehen hat.

- Grundsätzlich ist AMDs GCN-Architektur besser auf DX12 und Parallel Computing angepasst, gleichzeitig bedeutet das aber auch, dass unter DX11 nicht das volle Potenzial aus der Architektur abgerufen werden kann.

- Es zeichnet sich ab, dass NVIDIAs Maxwell-Architektur dagegen mehr auf eine reine DX11-Umgebung angepasst ist und leistungstechnisch von DX12 nicht mehr viel profitieren kann.

- Um Grunde lässt sich festhalten, dass beide Architekturen nur auf einen für sie angepassten Workload auch am besten funktionieren.

- Auf kurze Sicht spielt das alles noch keine Rolle, erst auf lange Sicht, wenn DX12-Spiele sich mehr und mehr am Markt breit machen, könnte AMD davon profitieren.
 
Weil wir gerade bei Games sind... (danke übrigens)

Deus Ex: Mankind Divided - Erstes Spiel mit AMDs TressFX-Nachfolger "Pure Hair"

In Deus Ex: Mankind Divided wird erstmals eine Technologie namens "Pure Hair" zum Einsatz kommen. Dienen soll diese der besseren Darstellung von Haaren, das hat Eidos Montreal auf der Siggraph 2015 verraten. Pure Hair wurde gemeinsam mit AMD entwickelt und ist der Nachfolger von TressFX. Um noch realistischere (Licht-)Durchschein-Effekte zu erzeugen, kommen bei Pure Hair sogenannte Per-Pixel Linked Lists (PPLL) zum Einsatz. Außerdem wurde die Haarsimulation insgesamt "signifikant" verbessert, wie AMD betont.

Für eine bessere Lastenverteilung bei der aufwendigen Berechnung soll auch in Deus Ex: Mankind das Divided Asynchronous Compute Shading sorgen.

Rise of the Tomb Raider (Eidos Montreal) macht hiervon ebenfalls Gebrauch, um einige Grafiktricks zu ermöglichen. Neuere AMD Radeon-Grafikchips mit GCN-Kern besitzen die dafür nötige ACE-Einheit bereits von Haus aus. Abzuwarten bleibt, wie und ob die martkführenden Geforce-GPUs von Konkurrent Nvidia mit Pure Hair in Deus Ex: Mankind Divided zurecht kommen.

The future is wide open..... :fresse:
 
Ich fasse mal zusammen, was ich bisher mitbekommen habe...

- NVIDIA unterstützt asynchrone Shader, jedoch ist die Funktionalität nicht wie bei AMDs GCN-Architektur in Hardware implementiert, sondern wird über die CPU emuliert. Insofern kann man NVIDIA da nichts ankreiden was den Support an sich betrifft, denn es wird nirgendwo beschrieben wie eine Implementierung/Unterstützung von asynchronen Shadern genau auszusehen hat.

schon etliche Seiten vorher gabs Links (auch von mir) dass ASS zwar laufen, jedoch nur bis zu 1:31 .. Amd bietet mehr Ques und tiefer
 
Zuletzt bearbeitet:
- NVIDIA unterstützt asynchrone Shader, jedoch ist die Funktionalität nicht wie bei AMDs GCN-Architektur in Hardware implementiert, sondern wird über die CPU emuliert.
Oder mit anderen Worten, Nvidia unterstützt Async Shaders NICHT. CPU Emulation zählt einfach nicht. Ansonsten könnte man auch sagen, AMD unterstützt Direct3D Feature Level 12.1 vollständig. Schliesslich kann das auch alles mittels CPU emuliert werden.
 
schon etliche Seiten vorher gabs Links (auch von mir) dass ASS zwar laufen, jedoch nur bis zu 1:31 .. Amd bietet mehr Ques und tiefer

Naja, nicht ganz, die Angabe ist etwas irreführend, weil eben diese Funktion bei NVIDIA über Software-Sheduler laufen soll und nicht nativ in Hardware implementiert ist. Wie man darauf kommt? Es gibt da ein Benchtool, das die Funktionalität überprüfen soll, ob Async-Shader laufen oder nicht. Lässt man dieses auf Maxwell 2.0 laufen und beobachtet dabei die CPU-Auslastung, fällt auf das die Auslastung ansteigt und es kurze Spitzen gibt. Bei AMD hingegen ist das nicht der Fall, was eben die Theorie auf eine Emulation bei NVIDIA weiter stützt.

@mr.dude

Damit hast du auch nicht unrecht. Die Frage aber ist, ob NVIDIA trotzdem behaupten darf Async Shader zu unterstützen oder nicht. Anscheinend darf NVIDIA diese Definition rechtlich so benutzen, auch wenn wir alle wissen, das es technisch etwas anders aussieht.
 
einfach lesen

ja NV hat ASS, aber nicht so "ausgeprägt" wie AMD

finde ich das toll ... nein

brauche ich die .. nein

brauche die games in Zukunft .. ja (Konsolen Ports)
 
Zuletzt bearbeitet:
schon etliche Seiten vorher gabs Links (auch von mir) dass ASS zwar laufen, jedoch nur bis zu 1:31 .. Amd bietet mehr Ques und tiefer

genau wie, die grafikkarte hat zwar 4gb aber es sind nur 3,5 schnell angebunden

weltklasse nvidia
naja die jetzige 28nm gen von amd und nv hat sich für mich sowieso erledigt
 
Zuletzt bearbeitet:
Die werden da gar nix "fully" implementieren, das läuft schlicht und einfach wegen der hohen Latenzen beim context-switching per Umweg über die CPU.
Aber man dreht es sich schon so hin, dass man es unterstützt, dann könnte AMD auch sagen, sie unterstützen ROVs.

- - - Updated - - -

Wer bestimmt was zählt und was nicht zählt?

Normalerweise das was nativ von der Hardware unterstützt wird.
 
Wer bestimmt was zählt und was nicht zählt?

ähm der chip?

sonst könnte ja jeder kommen und sonstwas unterstützen.
also unbrauchbar langsam und emuliert versteht sich. aber solange ein grünes logo drauf ist zählt das trotzdem.

andernfalls wäre ja auch das physx argument hinfällig. unterstützt amd ja auch. (wobei physx aufgrund der bedeutlungslosigkeit eh kein argument darstellt. genau so wie mantle.)
 
Wer bestimmt was zählt und was nicht zählt?
Direct3Ds HAL.

- - - Updated - - -

brauche ich die .. nein
Nun ja, wenn es danach gehen würde, was du brauchst, dann brauchst du nicht mal DirectX 12. Die Frage ist, was sinnvoll ist. Und Async Shaders ist eines der interessantesten Features der neuen Grafik-APIs überhaupt. Es kann Effizienz und Performance deutlich verbessern und darüber hinaus einige andere Features erst richtig brauchbar machen, siehe VR.
 
Oder mit anderen Worten, Nvidia unterstützt Async Shaders NICHT. CPU Emulation zählt einfach nicht. Ansonsten könnte man auch sagen, AMD unterstützt Direct3D Feature Level 12.1 vollständig. Schliesslich kann das auch alles mittels CPU emuliert werden.

Genau so ist es. CPU Emulation zählt einfach nicht.

Dass Nvidia gerne bescheißt ist ja mittlerweile bekannt.
 
so viele Antworten hab ich hier, glaub ich, noch nie bekommen :d
 
 
Der Typ ist einfach genial vor allem kurz vor Schluss ~2:00:fresse:
 
Zuletzt bearbeitet:
Die werden da gar nix "fully" implementieren, das läuft schlicht und einfach wegen der hohen Latenzen beim context-switching per Umweg über die CPU.
Aber man dreht es sich schon so hin, dass man es unterstützt, dann könnte AMD auch sagen, sie unterstützen ROVs.
Schau Dir mal meinen Post an wenn Du schon von Latenzen sprichst, das wurde nämlich gerne verschwiegen.
AMD hat auch irgendeine fixe Latenz im Chip bei Nutzung von ASS, und bis 128 Kernel wächst bei NV zwar die CPU-Last und Latenz, aber die Latenz ist bei NV immer noch niedriger als bei AMD weil AMD da irgendeine fixe Latenz drinnen hat.

Wir werden sehen in welche Tiefe ASS wirklich implementiert werden, was die Entwickler davon wirklich nutzen und natürlich auch wie die Treiber sich bei AMD und NV entwickeln werden.
Die Geschichte mit den aktuellen Benches ist so sinnvoll wie der DrawCall-Benchmark, sagt alles nichts über Spieleleistung aus.
 
@ Cippoli: geniales Video! Ich bin vor Lachen beinahe vom Stuhl gefallen! :banana:
 

spain_reworknrxlv.png


What? :rofl:
 
Soweit ich das erkenne, ist das aber auch nur eine reine Software-Emulation. :hmm:
Ja, ist eben ein Overhead Test und kein Benchmark und schon gar kein InGame feeling. :xmas:
Interessant ist der GraphX Delta 27 vs 400FPS und der nvidia Treiber auf einem AMD System only. :)

€dit: Captain, we take it over, rogger?
 
Zuletzt bearbeitet:
Ja, ist eben ein Overhead Test und kein Benchmark und schon gar kein InGame feeling. :xmas:
Interessant ist der GraphX Delta 27 vs 400FPS und der nvidia Treiber auf einem AMD System only. :)

Dürfte aber immerhin vergleichbar mit dem sein, was NVIDIA in den Treiber integrieren möchte um asynchrone Shader zu nutzen.
 
Schau Dir mal meinen Post an wenn Du schon von Latenzen sprichst, das wurde nämlich gerne verschwiegen.
AMD hat auch irgendeine fixe Latenz im Chip bei Nutzung von ASS, und bis 128 Kernel wächst bei NV zwar die CPU-Last und Latenz, aber die Latenz ist bei NV immer noch niedriger als bei AMD weil AMD da irgendeine fixe Latenz drinnen hat.

nur das bei Nvidia auf die bessere Compute-Zeit noch die Zeit für die Grafikberechnung hinzu kommt. Bei AMD dank Asyncronous Shadern eben nicht (nur minimal).
Mal schauen, ob Nvidia das nach gepatched bekommt, zumindest laut Specs sollte Maxwell das ja können.
Auch sieht das nach einer Limitierung auf der FuryX aus, denn ich würde erwarten, dass ab 64 Kerneln die Zeit sich verdoppelt, eben wie bei Nvidia mit allen 32 Kerneln.

Wir werden sehen in welche Tiefe ASS wirklich implementiert werden, was die Entwickler davon wirklich nutzen und natürlich auch wie die Treiber sich bei AMD und NV entwickeln werden.
Die Geschichte mit den aktuellen Benches ist so sinnvoll wie der DrawCall-Benchmark, sagt alles nichts über Spieleleistung aus.

Doch es sagt schon etwas über die Spieleleistung aus, denn sobald Compute- und Grafik-Taks parallel auf die GPU los gelassen werden, ändern sich die FPS bei AMD nicht/nur minimal, bei Nvidia, da eben nicht parallel berechnet werden kann, deutlich stärker.

Klar spielt es eine Rolle wie viel in Zukunft mittels GPU berechnet werden wird, auf Grund der Consolen und der Vorteile die Asynchronous Shader bieten sehe ich es nicht aus als ausgeschlossen, dass es in DX12 Spielen durchweg eingesetzt wird (außer vllt. bei Ubisoft)

Sidenote: Schade, dass Intel Havok aufgekauft hat und die zu dem Schluss gekommen sind, das Physikberechnungen auf der GPU scheiße sind. Obwohl damals erste Tests zeigten, dass es auf der GPU deutlich schneller zu berechnen ging (Faktor 9 auf einer Radeon 4000).
 
Öhhm wichtig ist doch nur was am ende bei den Benchmarks der DX12 spiele dabei rauskommt. Wenn jetzt die Nvidia karten über den von AMD sind dann stimmt was nicht und AMD hat mist erzählt. Muss man abwarten. Ich glaube sowieso das solche dinge via Treiber gefixt werden wenn es aktuell ist.

Bisher hat nicht ein einziges Drama oder Desaster wirklich für Stress gesorgt und ich finde es naiv deswegen jetzt die karte zu wechseln. Zumal DX12 erst Mitte 2016 in frage kommt für die meisten. Aber immerhin, einen zweck erfüllt es ja, die Diskussionen werden aktiv :) bringt forenaktivität

Wer bestimmt was zählt und was nicht zählt?

der kunde, sonst garkeiner. Keine Ahnung warum die meisten hier hardwarebedingt ankommen. Am Ende entscheidet der Kunde der die Hardware kauft was für ihn zählt und was nicht ...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh