RaceDontPlay
Experte
- Mitglied seit
- 20.04.2022
- Beiträge
- 633
- Prozessor
- 2 x AMD Ryzen 7800x3d
- Mainboard
- ASUS X670E Proart & Asus X670E CrosshairHero
- Kühler
- EWBK Velocity² & Momentum²
- Speicher
- 1 x 128GB Corsair Dominator 6400Mhz DDR5 & 1 x 64GB GSkill Z5 Neo RGB 6400Mhz DDR5
- Grafikprozessor
- 1 x RTX 4090 & 1 x RX 7900 XTX AQUA
- Display
- Alienware
- SSD
- Ja
- Gehäuse
- LianLi DK05-F
- Netzteil
- 2 x BeQuiet Dark Power 13 Titanium mit je 1000 Watt
In dem von dir verlinkten Thread wird die PCGH als Quelle genannt, und auch dort heißt es:Echt ich kenne aber nur die technische Dokumentation dazu und Ampere erfüllt die technischen Anforderungen für die DLSS3.0 nur eben Frame Generation wegen der Latenz könnte problematisch sein aber es würde funktionieren. Ein Entwickler hat das sogar selbst bestätigt, man hat es nur nicht Erwägung gezogen für und mit Ampere zu Nutzen.
Er bestätigt also das, was ich oben geschrieben hatte! Grundsätzlich ist es möglich, die Unterschiede aber sind eben elementar, bedingt durch die neuen Tensorkerne und den OFA! Man muss alleine nur die unterschiedlichen Funktionsweisen gegenüber stellen! Bei DLSS 3.0 werden ganze Frames errechnet und nicht nur "einzelne" Pixel! Eine 3090 hat 328 Tensor Kerne, die 4090 512 davon!Bryan Catanzaro, Vice President of Applied Deep Learning Research bei Nvidia, bestätigte, dass in seiner jetzigen Form DLSS 3 nur auf der Geforce RTX 4000 funktioniert. Es ist laut ihm aber theoretisch möglich, dass auch ältere Generationen mit DLSS 3 versorgt werden.
[...]
Laut Catanzaro bietet DLSS 3 für Besitzer älterer Geforce-Grafikkarten keine großen Vorteile.
[...]
Hintergrund sind die Tensorkerne in Ada Lovelace, so der Codename der jüngsten Generation, und der Optical Flow Accelerator. Beides gibt es schon auf Turing-Karten, aber mit Lovelace wurden sie laut Nvidia immens verbessert. Im Moment hat man als Maßgabe vor allem die höheren Durchsatzwerte und Leistungsfaktoren, die die Einheiten nun erreichen sollen.
Für die, im Vergleich zu DLSS 2.0, deutlich komplexere Aufgabe, anstelle "einzelner Pixel" komplette Frames zu berechnen, anhand von noch mehr Daten, stehen also mehr Tensor-Kerne (in einer neueren Generation) und der bedeutend schnellere OFA zur Verfügung!
Ampere und Touring können zwar die Aufgabe übernehmen, sie sind aber schlicht zu langsam, wodurch das Ergebnis unzureichend ist. Cantanzaro teilte nämlich damals auch mit:
QuelleIn diesem Fall würden Kunden das Resultat von DLSS3 als träge und unansehnlich wahrnehmen, ohne dass die FPS davon profitieren würden.
Diese Worte tauchen in dem Bericht von PCGH nicht auf, bzw. werden dort gekonnt umschrieben:
Laut Catanzaro bietet DLSS 3 für Besitzer älterer Geforce-Grafikkarten keine großen Vorteile.
Es wird suggeriert, dass eben (nur) keine großen Vorteile entstehen, während die tatsächlich von ihm getroffene Aussage ist, dass der Benutzer das Bild als träge und unansehnlich wahrnehmen täte!
Und was mich so stört aktuell: Oft werden Behauptungen in den Raum geworfen, ohne das man sich damit überhaupt auseinander gesetzt hat! Man springt einfach auf einen Zug auf, ohne nachzudenken. Sei es die Behauptung, eine 4060 TI sei eigentlich nur eine 4050, oder aber eine 4090 maximal eine 4080TI, da kein Vollausbau des Chips! Die RTXen seien Speicherkrüppel, da viel zu langsam angebunden.
Eine 3050 erreichte gerade so das Niveau einer 2060, eine potenzielle 4050 also liegt in etwa auf dem Niveau einer 3060 - eine 4060 TI liegt da weit darüber! NVidia hat noch nicht einmal bei den Titan Modellen den Vollausbau genutzt, warum nun also bei einer x90? Der Speicher ist langsamer angebunden, was aber mit dem größeren Cache kompensiert werden soll…
Man kann über viele Punkte diskutieren, aber primär wird einfach eine Behauptung in den Raum geworfen und alles und jeder, der dagegen argumentiert, über einen Kamm als Anhänger von NVIDIA geschert. Manch einer blendet eine schlüssige Gegenargumentation gar komplett aus…
Keine Frage, man kann andere Sichtweise vertreten und das ist absolut in Ordnung. Aber allzuoft nehme ich es eben so war, dass man einfach in Richtung NVIDIA und Team Grün herzieht, ohne wirklich einmal die Sache genau betrachtet zu haben.
Zuletzt bearbeitet: