Deep Learning Anti Aliasing: Nächste AI-Technik debütiert für GeForce-Spieler

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.153
nvidia.jpg
Vor einigen Tagen verkündete ein Entwickler bei den ZeniMax Studios, dass Elder Scrolls Online die Unterstützung von DLAA (Deep Learning Anti-Aliasing) erhalten werde. Es handelt sich dabei um die erste Umsetzung von DLAA, einem AI-unterstützten Anti Aliasing (Kantenglättung). Mit DLAA will NVIDIA seine Deep-Learning-Techniken nach dem Deep Learning Super Sampling (DLSS) offenbar weiter ausbauen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wozu sollte man für DLAA irgendwann die Shadereinheiten(Cuda Cores) wieder verwenden ? Sollte AMD hier auch ein Derivat bieten wird es auch Compute basierend sein.
Der Sinn ist es doch mit den mixed precision maps bzw. dem vom Supercomputer seitens Nvidia vorbereiteten Daten die Tensorkerne zu belasten und das klassische Rendering zu entlasten, daher auch der starke Leistungszuwachs trotz Upscaling und Downscaling bei DLSS.

Diesen Effekt wird man jetzt als klassisches Anti Aliasing auch verwenden, viele Gameengines schalten nämlich wenn DLSS aktiv ist ihr internes AA ab und nicht auch noch zu wie es bei PCGH fälschlicherweise steht.
Der Grund ist das abgesehen von MSAA alle AA-Algorithmen post-processing Effekte sind und nicht gut mit AI und Deep Learning harmonieren, weil diese teilweise Bewegungen des Bildes vorhersagen bzw. voraussagen müssen um einen brauchbaren Effekt zu erzielen.
Aber gerade etwas betagte Spieleengines leiden stark unter Kantenflimmern und haben Supersampling und AA eigentlich viel mehr nötig als der klassische GPU Killer(id tech, UE, RAGE, Frostbite etc.), trotzdem schön zu sehen das man sich dem nicht verschließt und DLAA als Option bringt bei ESO.

Ich glaube aber das hier auch Nvidia und vor allem Microsoft seine Finger im Spiel hat, ZeniMax wird man zumindest nicht komplett ohne Plan gekauft haben ich denke hier wird man sich seitens MS etwas austoben 8-).
 
GTA5 mit DLAA wird in GTA6 unbenannt und Ende xD. Es dürfte tatsächlich enorm von dieser Alientech profitieren, um auch die letzte Unruhe(Treppechenbildung) zu beseitigen.
 
wobei wir mit modernen ppi zahlen da auch massiv viel helfen. damals 22inch mit 1650x irgendwas. heute 4k auf 27 zoll hilft da massiv.
 
Wozu sollte man für DLAA irgendwann die Shadereinheiten(Cuda Cores) wieder verwenden ?
Ich gebe dir durchaus recht, dass man die Tensor Cores genau dazu in die Architektur gebracht hat und auch nutzen sollte. Das schließt aber nicht aus, dass man als Fallback auch die Shader verwenden könnte. DLSS hat auf den Shadern auch recht gut funktioniert, mir ist nicht bekannt, ob man da einen direkten Vergleich hat machen können zwischen DLSS 1.9 und 2.0 – nur auf die Nutzung der Tensor Cores bezogen.

Gerade DLAA als Ansatz für wenig herausfordernde Spiele ließe sicher die Option auch ohne Tensor Cores zur funktionieren. So schränkt man es auf die RTX-Karten ein.
 
wobei wir mit modernen ppi zahlen da auch massiv viel helfen. damals 22inch mit 1650x irgendwas. heute 4k auf 27 zoll hilft da massiv.
Das ist ja auch real mehr Informationen. Wichtigste Anwendung sind einfacher Text und Bilder. Das wir Leistung verbraten um minderwertige Ausgabegeräte mit Tetris Fliegengitter zu füttern ist ja der Humor an AA. Die eigentliche Frage wie wir extrem Hochauflösende Bildschirme schnell mit Daten füttern und wie viel AA dann noch notwendig ist wurde ja mit DLSS gestellt (wenn auch mit RT als falsche Ursache). Das Oligopol im Monitormarkt ist das eigentliche Problem.
Beitrag automatisch zusammengeführt:

So schränkt man es auf die RTX-Karten ein.
Hat NV nie anders gemacht. Mit Blick auf die Bilanz auch alles richtig.
 
Wozu sollte man für DLAA irgendwann die Shadereinheiten(Cuda Cores) wieder verwenden ? Sollte AMD hier auch ein Derivat bieten wird es auch Compute basierend sein.
CUDA steht fuer 'Compute Unified Device Architecture'. das IST fuer computing...
 
CUDA steht fuer 'Compute Unified Device Architecture'. das IST fuer computing...
CUDA Cores sind aber nicht das CUDA Framework, CUDA Cores sind einfach FP32 Units aka Shadereinheiten die Nvidia dann im Sinne von "Compute Power" als Cuda Cores angibt. CUDA ist fürs Computing das ist richtig, das DL Framework(DLSS,DLAA etc.pp) aka Deep Learning basiert aber auf der Idee der Tensor Computation, sprich die tatsächlich vorhandenen Tensor Kerne werden behilflich.
Davon wird man denke ich nicht mehr abkehren seitens Nvidia, das wollte ich damit sagen.

Ich gebe dir durchaus recht, dass man die Tensor Cores genau dazu in die Architektur gebracht hat und auch nutzen sollte. Das schließt aber nicht aus, dass man als Fallback auch die Shader verwenden könnte. DLSS hat auf den Shadern auch recht gut funktioniert, mir ist nicht bekannt, ob man da einen direkten Vergleich hat machen können zwischen DLSS 1.9 und 2.0 – nur auf die Nutzung der Tensor Cores bezogen.

Gerade DLAA als Ansatz für wenig herausfordernde Spiele ließe sicher die Option auch ohne Tensor Cores zur funktionieren. So schränkt man es auf die RTX-Karten ein.

Ich glaub das hat tatsächlich technische Gründe. Vor allem die AI Upscaling und Denoiser Sache scheint ne ziemliche Rakete zu werden. Die "Einschränkung" ist denke ich nur Vorsichtshalber, die Tensorcores wurden von Generation zu Generation teils dramatisch Leistungsstärker, speziell der DGX SaturnV wird genau die selbe Hardware haben wie die Tensorkerne der RTX Generation und seine Daten für die jeweilige Engine bzw. Spiel dann weiter geben. Ne anständige Implementierung ist aber ähnlich wie bei RT schwieriger als Gedacht evlt. gibt es deshalb auch noch keine Bilder von ESO mit DLAA :giggle:. Natürlich will man auch etwas Geld verdienen und neue Karten auch für etwas ältere Spiele evtl. an den Mann oder die Frau bringen ist doch klar.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh