HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.949
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich gebe dir durchaus recht, dass man die Tensor Cores genau dazu in die Architektur gebracht hat und auch nutzen sollte. Das schließt aber nicht aus, dass man als Fallback auch die Shader verwenden könnte. DLSS hat auf den Shadern auch recht gut funktioniert, mir ist nicht bekannt, ob man da einen direkten Vergleich hat machen können zwischen DLSS 1.9 und 2.0 – nur auf die Nutzung der Tensor Cores bezogen.Wozu sollte man für DLAA irgendwann die Shadereinheiten(Cuda Cores) wieder verwenden ?
Das ist ja auch real mehr Informationen. Wichtigste Anwendung sind einfacher Text und Bilder. Das wir Leistung verbraten um minderwertige Ausgabegeräte mit Tetris Fliegengitter zu füttern ist ja der Humor an AA. Die eigentliche Frage wie wir extrem Hochauflösende Bildschirme schnell mit Daten füttern und wie viel AA dann noch notwendig ist wurde ja mit DLSS gestellt (wenn auch mit RT als falsche Ursache). Das Oligopol im Monitormarkt ist das eigentliche Problem.wobei wir mit modernen ppi zahlen da auch massiv viel helfen. damals 22inch mit 1650x irgendwas. heute 4k auf 27 zoll hilft da massiv.
Hat NV nie anders gemacht. Mit Blick auf die Bilanz auch alles richtig.So schränkt man es auf die RTX-Karten ein.
Die haben aber auch bereits eine dementsprechende hohe Verteilung. Ist mittlerweile vertretbar würde ich behaupten. Gibt ja erst seit über 3 Jahren Produkte die das bereits könnenSo schränkt man es auf die RTX-Karten ein.
CUDA steht fuer 'Compute Unified Device Architecture'. das IST fuer computing...Wozu sollte man für DLAA irgendwann die Shadereinheiten(Cuda Cores) wieder verwenden ? Sollte AMD hier auch ein Derivat bieten wird es auch Compute basierend sein.
CUDA Cores sind aber nicht das CUDA Framework, CUDA Cores sind einfach FP32 Units aka Shadereinheiten die Nvidia dann im Sinne von "Compute Power" als Cuda Cores angibt. CUDA ist fürs Computing das ist richtig, das DL Framework(DLSS,DLAA etc.pp) aka Deep Learning basiert aber auf der Idee der Tensor Computation, sprich die tatsächlich vorhandenen Tensor Kerne werden behilflich.CUDA steht fuer 'Compute Unified Device Architecture'. das IST fuer computing...
Ich gebe dir durchaus recht, dass man die Tensor Cores genau dazu in die Architektur gebracht hat und auch nutzen sollte. Das schließt aber nicht aus, dass man als Fallback auch die Shader verwenden könnte. DLSS hat auf den Shadern auch recht gut funktioniert, mir ist nicht bekannt, ob man da einen direkten Vergleich hat machen können zwischen DLSS 1.9 und 2.0 – nur auf die Nutzung der Tensor Cores bezogen.
Gerade DLAA als Ansatz für wenig herausfordernde Spiele ließe sicher die Option auch ohne Tensor Cores zur funktionieren. So schränkt man es auf die RTX-Karten ein.