NVIDIA geht auf die Kritik an DLSS ein

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.772
rtxon.jpg
Mit der Einführung von Deep Learning Super Sampling in Battlefield V sowie der Unterstützung vom Start weg durch Metro: Exodus will NVIDIA zeigen, dass die Ray-Tracing-Techniken und DLSS bereit sind für den Praxiseinsatz. Während die Simulation der gesamten Beleuchtung einer Szenerie mittels Ray Traced Global Illumination sowie die der Reflexionen und Spiegelung als gelungen gelten können, kämpft DLSS...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein neues Feature das die Bildqualität erhöht und zu viel Rechenleistung kostet wird kompensiert durch ein anderes neues Feature welches ersteres Feature ermöglicht flüssig dargestellt zu werden, aber die Bildqualität wiederum verschlechtert.

So dürfte es zusammengefasst den meisten Spielern vorkommen.
Da Nvidia in ihrem Statement klar deutlich machen, dass die Technik überspitzt gesagt erst ab 4k greift und DLSS erst dann nicht mehr zu solch verwaschenem Bild führt, wird einem schnell bewusst, dass man selbst gar nicht die Zielgruppe ist.
Oder wer spielt wirklich in 4k? Laut steam Hardware-Dings kaum jemand.
Und wer dann noch ganz ehrlich ist und wirklich mal in 4k spielt, wird widerum feststellen, dass die aktuelle 20er RTX Generation für aktuelle Titel inklusive der beiden Features zu schwach ist.

Am Ende finde ich es richtig gut, dass mal wieder die Hardware nicht hinterherkommt. Die letzten Jahre waren zugepflastert mit mageren Konsolenports und keinem wirklichen Kaufanreiz für eine neue High End Grafikkarte.
Der einzig fade Beigeschmack ist das Nvidia sich selbst diese Hürde auferlegt hat und nicht die Spieleindustrie...
 
RayTracing ist nicht etabliert, DLSS ist sinnlos, die RTXX Serie allgemein zu Teuer, Nvidias Gewinn sinkt stark, aber die RTX Serie soll nicht das Problem sein...
 
RayTracing ist nicht etabliert, DLSS ist sinnlos, die RTXX Serie allgemein zu Teuer, Nvidias Gewinn sinkt stark, aber die RTX Serie soll nicht das Problem sein...

Natürlich ist die RTX-Serie in letzter Konsequenz das Problem. Die Hardware kann vielleicht ein Jahr zu früh. Aber daran kann MVIDIA jetzt auch nichts mehr ändern. Das sind Produktentscheidungen die sind vor Jahren gefallen.
 
Ob sich die Technik dann durchsetzt kann man bezweifeln, auch Chris Roberts wird es in Star Citizen vorerst zb nicht unterstützen.

Aja - also weil ein einzelner Bubi mit einer Art Weltraum Simulation und der Global Player im PC Gamer-GPU Geschäft AMD nicht mitspielt, kann bezweifelt werden, ob sich die Technik durchsetzt??
Ich glaub du hast da irgendwo bisschen was verwechselt ;)

PS: und nein ich gehe nicht davon aus, dass sich DLSS global durchsetzt. Es ist proprietär - und damit eben kein allgemeiner Standard oder etwas, was unmittelbar nach Veröffentlichlung zu einem solchen werden kann.
Die Begründung ist aber bisschen weit her geholt...
DXR hat das Potential sich global durchzusetzen. Aber auch das wird, wenn es denn so kommt, nicht binnen ein paar Wochen nach Release des Features ansich funktionieren. Auch wird man damit vorerst keine Tendenzen erkennen können. Irgendwann wird DX12 auch mal der "Standard" werden. Wie viele Jahre gibt es das aber nun schon und wie viele Entwickler/Studios lassen es noch links liegen?

- - - Updated - - -

Natürlich ist die RTX-Serie in letzter Konsequenz das Problem. Die Hardware kann vielleicht ein Jahr zu früh. Aber daran kann MVIDIA jetzt auch nichts mehr ändern. Das sind Produktentscheidungen die sind vor Jahren gefallen.

Ist sie das wirklich?
Oder sind die angesprochenen Problemstellen der RTX-Serie effektiv "nur" das Resultat eines ganz anderen Problems?
Ich meine, warum hat die Radeon VII in gewissem Maße denn die selben Probleme, allen vorran auf der Kostenseite obwohl sie mit NV exakt gar nichts zu tun hat?

Die Hardware kam mMn auch nicht zu früh, sondern eher gar bisschen zu spät. Ist aber so nicht eindeutig zu erkennen, weil die "Kunden" so schon nicht bereit sind/waren, Unsummen während der Mining-Hochpreisphase in die Hardware investieren zu wollen. Der Absatz sinkt also (bei normalen Gamern) - wurde aber durch Verkäufe an Kunden mit anderem Zweck kompensiert.
Technisch gesehen wäre die 2000er Reihe ein würdiger Aufsatz/Nachfolger der 1000er Reihe, wenn man nicht hätte am Speicher so knausern müssen. Die Karten liefern bis auf exakt zwei Ausnahmen in effektiv in allen anderen Lebenslagen das bessere Ergebnis. Nummer 1 ist der Speicher - und nummer 2 ist der Verkaufspreis. Der Rest stimmt. Speichermenge geht direkt mit dem Preis einher - und der Preis ist effektiv zu hoch, wahrscheinlich aber eben aktuell nicht deutlich drückbar in einer Marktsituation wie wir sie heute haben. -> Ob die Karte da nun ein Jahr später gekommen wäre oder nicht -> welche Rolle hätte es gespielt??
 
Ich nutze DLSS in 4K mit einer 2080TI in Metro auf einem 65" 4K HDR OLED TV. DLSS ist der Unterschied zwischen RTX in Ultra spielbar bzw. unspielbar.

Ich habe die Wahl. DLSS ON und steady FPS mit RTX (Ultra), DLSS OFF mit nativen 4K mit RTX (High) bei unstabilen FPS oder gar nur noch matschigere 1440p RTX (Ultra).

Ich bin froh das Feature zuschalten zu können. RTX Ultra nicht in nativen 4K spielbar (flüssig), also DLSS aktivieren und besser dran als in 1440p.

Und das sag ich euch, sowas wie Metro in 4K DLSS max Detail, Hairworks, Tessellation, etc. mit der RTX Beleuchtung in HDR auf OLED ... holy shit, das ist eine verdammt gute Kombination :hail:
 
Zuletzt bearbeitet:
65" und 3-4m entfernt? Ist was anderes, als mit 32" auf dem Tisch und ca. 65-80cm entfernt.
 
Ist sie das wirklich?
Oder sind die angesprochenen Problemstellen der RTX-Serie effektiv "nur" das Resultat eines ganz anderen Problems?
Ich meine, warum hat die Radeon VII in gewissem Maße denn die selben Probleme, allen vorran auf der Kostenseite obwohl sie mit NV exakt gar nichts zu tun hat?

Die Hardware kam mMn auch nicht zu früh, sondern eher gar bisschen zu spät. Ist aber so nicht eindeutig zu erkennen, weil die "Kunden" so schon nicht bereit sind/waren, Unsummen während der Mining-Hochpreisphase in die Hardware investieren zu wollen. Der Absatz sinkt also (bei normalen Gamern) - wurde aber durch Verkäufe an Kunden mit anderem Zweck kompensiert.
Technisch gesehen wäre die 2000er Reihe ein würdiger Aufsatz/Nachfolger der 1000er Reihe, wenn man nicht hätte am Speicher so knausern müssen. Die Karten liefern bis auf exakt zwei Ausnahmen in effektiv in allen anderen Lebenslagen das bessere Ergebnis. Nummer 1 ist der Speicher - und nummer 2 ist der Verkaufspreis. Der Rest stimmt.

In einer freien Marktwirtschaft ist der Verkaufspreis eines Produktes aber nicht gerade unerheblich für die Kaufentscheidung. Der kann durchaus den Unterschied dazwischen machen, ob das Produkt ein Verkaufsschlager auf voller Linie wird oder zur Radeon 7. :d
 
Habe gerade noch mal genau und intensiv verglichen. Was bei mir viel ausmacht, ist das Nachschärfen des Bildes über die Einstellungen des TV. DLSS mit Schräfen auf Stock ist echt grausam weich, mit meiner Schärfeeinstellung 40/50 aber gehts ganz gut. Native 1440p sind in beiden Fällen schärfer, der Unterschied ist aber mit der Nachschärfe Option des TV nicht so wild. DLSS hat den Charme in Bewegung irgendwie cinematischer zu wirken. Ich kann es schlecht beschreiben. Mir gefällt DLSS mit Schärfen irgendwie besser als native 1440p. Das gilt aber wie gesagt bei mir für einen 65" 4K OLED TV.
 
Zuletzt bearbeitet:
Habe gerade noch mal genau und intensiv verglichen. Was bei mir viel ausmacht, ist das Nachschärfen des Bildes über die Einstellungen des TV. DLSS mit Schräfen auf Stock ist echt grausam weich, mit meiner Schärfeeinstellung 40/50 aber gehts ganz gut. Native 1440p sind in beiden Fällen schärfer, der Unterschied ist aber mit der Nachschärfe Option des TV nicht so wild. DLSS hat den Charme in Bewegung irgendwie cinematischer zu wirken. Ich kann es schlecht beschreiben. Mir gefällt DLSS mit Schärfen irgendwie besser als native 1440p. Das gilt aber wie gesagt bei mir für einen 65" 4K OLED TV.

Nachschärfen des TVs? Du nutzt also mit Bildprozessor des Fernsehers? Das erhöht den input lag doch massiv oder?
 
Der TV misst im Gaming Mode glaube 30ms, das geht mit Gamepad von der Couch aus sehr gut. Auf den Wert kommt er hauptsächlich durch die deaktivierte Zwischenbildberechnung im Gaming Mode. Schärfe oder nicht, die ist wie Helligkeit oder Farbintensivität, das hat wenig bis keinen Einfluss auf den Lag, zumindest nicht spürbar.
 
Über das Thema Raytracing haben wir schon 2010 gesprochen, je nezuer der Titel desto unspielbar wird das mit Raytracing.

Mehr Pixeldichte+FPS bringt was gerade bei Games.
 
Ben Parry (Star Citizen) spricht von zu großem Aufwand für die Integration von Raytracing Effekten:
Star Citizen: Raytracing bringt großen Arbeitsaufwand und hat momentan keine Priorität

Meiner Meinung nach etwas überraschende Aussage, da SC ja eh noch im Entwicklungs-Stadion ist, oder wie seht ihr das?

Edit:
Man könnte die Aussagen natürlich auch als Einladung an Nvidia sehen paar Milliönchen zu investieren, denn gerade solche Prestige-Projekte mit dem Anspruch die neuste Technik zu verwenden, wäre doch ideal für die Akzeptanz für Raytracing.
 
Zuletzt bearbeitet:
In nativer Auflösung 1080p mit taa ist dlss auf uhd berechnet also schärfer und somit vorzuziehen.
Nicht anderes wird hier erklärt.
Umso höher die native Auflösung mit oder ohne taa, desto weniger lohnt sich dlss auf uhd berechnet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh