GeForce RTX 50: Laut Leaker wird der Mittelklasse-GB204- durch den GB205-Chip ersetzt

Echt ich kenne aber nur die technische Dokumentation dazu und Ampere erfüllt die technischen Anforderungen für die DLSS3.0 nur eben Frame Generation wegen der Latenz könnte problematisch sein aber es würde funktionieren. Ein Entwickler hat das sogar selbst bestätigt, man hat es nur nicht Erwägung gezogen für und mit Ampere zu Nutzen.
In dem von dir verlinkten Thread wird die PCGH als Quelle genannt, und auch dort heißt es:

Bryan Catanzaro, Vice President of Applied Deep Learning Research bei Nvidia, bestätigte, dass in seiner jetzigen Form DLSS 3 nur auf der Geforce RTX 4000 funktioniert. Es ist laut ihm aber theoretisch möglich, dass auch ältere Generationen mit DLSS 3 versorgt werden.

[...]

Laut Catanzaro bietet DLSS 3 für Besitzer älterer Geforce-Grafikkarten keine großen Vorteile.

[...]

Hintergrund sind die Tensorkerne in Ada Lovelace, so der Codename der jüngsten Generation, und der Optical Flow Accelerator. Beides gibt es schon auf Turing-Karten, aber mit Lovelace wurden sie laut Nvidia immens verbessert. Im Moment hat man als Maßgabe vor allem die höheren Durchsatzwerte und Leistungsfaktoren, die die Einheiten nun erreichen sollen.
Er bestätigt also das, was ich oben geschrieben hatte! Grundsätzlich ist es möglich, die Unterschiede aber sind eben elementar, bedingt durch die neuen Tensorkerne und den OFA! Man muss alleine nur die unterschiedlichen Funktionsweisen gegenüber stellen! Bei DLSS 3.0 werden ganze Frames errechnet und nicht nur "einzelne" Pixel! Eine 3090 hat 328 Tensor Kerne, die 4090 512 davon!

Für die, im Vergleich zu DLSS 2.0, deutlich komplexere Aufgabe, anstelle "einzelner Pixel" komplette Frames zu berechnen, anhand von noch mehr Daten, stehen also mehr Tensor-Kerne (in einer neueren Generation) und der bedeutend schnellere OFA zur Verfügung!

Ampere und Touring können zwar die Aufgabe übernehmen, sie sind aber schlicht zu langsam, wodurch das Ergebnis unzureichend ist. Cantanzaro teilte nämlich damals auch mit:

In diesem Fall würden Kunden das Resultat von DLSS3 als träge und unansehnlich wahrnehmen, ohne dass die FPS davon profitieren würden.
Quelle

Diese Worte tauchen in dem Bericht von PCGH nicht auf, bzw. werden dort gekonnt umschrieben:

Laut Catanzaro bietet DLSS 3 für Besitzer älterer Geforce-Grafikkarten keine großen Vorteile.

Es wird suggeriert, dass eben (nur) keine großen Vorteile entstehen, während die tatsächlich von ihm getroffene Aussage ist, dass der Benutzer das Bild als träge und unansehnlich wahrnehmen täte!

Und was mich so stört aktuell: Oft werden Behauptungen in den Raum geworfen, ohne das man sich damit überhaupt auseinander gesetzt hat! Man springt einfach auf einen Zug auf, ohne nachzudenken. Sei es die Behauptung, eine 4060 TI sei eigentlich nur eine 4050, oder aber eine 4090 maximal eine 4080TI, da kein Vollausbau des Chips! Die RTXen seien Speicherkrüppel, da viel zu langsam angebunden.

Eine 3050 erreichte gerade so das Niveau einer 2060, eine potenzielle 4050 also liegt in etwa auf dem Niveau einer 3060 - eine 4060 TI liegt da weit darüber! NVidia hat noch nicht einmal bei den Titan Modellen den Vollausbau genutzt, warum nun also bei einer x90? Der Speicher ist langsamer angebunden, was aber mit dem größeren Cache kompensiert werden soll…

Man kann über viele Punkte diskutieren, aber primär wird einfach eine Behauptung in den Raum geworfen und alles und jeder, der dagegen argumentiert, über einen Kamm als Anhänger von NVIDIA geschert. Manch einer blendet eine schlüssige Gegenargumentation gar komplett aus…

Keine Frage, man kann andere Sichtweise vertreten und das ist absolut in Ordnung. Aber allzuoft nehme ich es eben so war, dass man einfach in Richtung NVIDIA und Team Grün herzieht, ohne wirklich einmal die Sache genau betrachtet zu haben.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man soll auch nicht alles glauben was Nvidia von sich gibt. Ich behaupte nich das es alles gelogen ist aber warum sollte man neue Generation kaufen wenn die vorherige vielleicht 10% oder 20% schneller wären mit DLSS3. Gibt es irgendwelche Benchmarks oder Videos wo man die unterschiedliche direkt sieht? (Nicht von Nvidia selbst). Von Marketing her ist es der Bringer. Hätte mich nicht überrascht wenn irgendwann die 50xx dann nur DLSS4 unterstützt.
 
Bin mal gespannt wie wie Starfield laufen wird .
Und die ganzen Mods.
 
Man soll auch nicht alles glauben was Nvidia von sich gibt. Ich behaupte nich das es alles gelogen ist aber warum sollte man neue Generation kaufen wenn die vorherige vielleicht 10% oder 20% schneller wären mit DLSS3. Gibt es irgendwelche Benchmarks oder Videos wo man die unterschiedliche direkt sieht? (Nicht von Nvidia selbst). Von Marketing her ist es der Bringer. Hätte mich nicht überrascht wenn irgendwann die 50xx dann nur DLSS4 unterstützt.

Es gibt keine Benchmarks oder Videos dazu. Dazu müsste man DLSS 3.0 entsprechend freigeben, was sich wohl nicht rentiert, denn:
Doch dieses Argument führt Catanzaro kurzerhand selbst als Antwort an: In diesem Fall würden Kunden das Resultat von DLSS3 als träge und unansehnlich wahrnehmen, ohne dass die FPS davon profitieren würden.

Es würde keine Mehrleistung entstehen, dafür aber wäre das Ergebnis sogar schlechter! Warum also sollte NVIDIA diese Funktion für die alten GPUs implementieren?
 
Und ob. Die Auflösung spielt nicht so eine große rolle…

Moderne Spiele werden ein generelles Vram Budget brauchen. The Last of Us von 1080p zu 4k ist es nur 1 GB mehr. Falls es darum geht. 😳
Kommt eben aufs Spiel an. Also mal locker durch die Hose atmen. ;)
 
Ich habe mal TLOU angeschmissen, 1440p alles Max:

Screenshot_1.jpg


Stimmt, die 16 GB VRAM werden langsam knapp. :d
 
Es würde keine Mehrleistung entstehen, dafür aber wäre das Ergebnis sogar schlechter! Warum also sollte NVIDIA diese Funktion für die alten GPUs implementieren?
Beweise dafür gibt es nicht. Man könnte DLSS3 auch einfach für 30X0 Karten freischalten und den Konsumenten selber entscheiden lassen, macht man aber nicht. Warum? 4000er Karten würden sich schlechter verkaufen. Hypothese.
 
Habe bisher selbst in 4k auch noch nie über 9 GB gebraucht.
 

In 1440p reichen die 12GB und werden das auch noch einige Zeit. Einfach mal zocken und nicht nur auf Benchmarks schauen. Selbst mit den 10GB der 3080 hatte ich glaube ich nur in The Division 2 volle Auslastung in 4k.
 
Habe bisher selbst in 4k auch noch nie über 9 GB gebraucht.

Ich schon . Derzeit in Hogwarts Legacy 14 GB Vram und sogar bis 21 GB Ram @ 4K max. mit RT und DLSS Qualität und FG on.
Meisten Games kommen aber tatächlich mit einer 12 GB Karte aus in UHD.
 
Ich schon . Derzeit in Hogwarts Legacy 14 GB Vram und sogar bis 21 GB Ram @ 4K max. mit RT und DLSS Qualität und FG on.
Meisten Games kommen aber tatächlich mit einer 12 GB Karte aus in UHD.

Ja, es hängt eben vom Spiel ab. Aber unterschieden werden muss weiterhin zwischen allokiertem und wirklich genutztem Speicher. ;)
 
Zuletzt bearbeitet:
Hier ein interessanter Artikel über VRAM Verbrauch.

Why Are Modern PC Games Using So Much VRAM?​

Beispiel aus den Artikel:

1692042708109.png


 
Check das mal mit MSI Afterburner. ;)
 
@FM4E
Hab jetzt ca 15 min gespielt es sind 1700mb Unterschied zu HWinfo .
War mir nicht bekannt das HWinfo mehr anzeigt wieder was dazu gelernt.
Komme trotzdem über 20 Gb wen ich länger Spiele.
Die Leistung und der Speicher ist ja bei der 4090 ausreichend also alles gut.
Beschweren werde ich mich über 32GB aber nicht wen das so kommen sollte bei der 5090.
 
Zuletzt bearbeitet:
Ja, es hängt eben vom Spiel ab. Aber unterschieden werden muss weiterhin zwischen allokiertem und wirklich genutztem Speicher. ;)
Ja das stimmt, ich gebe dir recht ich merke das mit der 3080 recht gut auch wenn die in UWQHD am Limit läuft. Danke 320Bit Anbidung
Aber: so bald ein Spiel mehr allokieren muss als meine 10GB brechen die FPS durch das Nachladen ein. Es gibt sagen wir ein Limit bei dem man Kapazität durch niedrige Latenz und Bandbreite "negieren" kann.
Ein gutes Beispiel die 4060TI 16GB die 128bit sind einfach Grütze und das Spiel/Engine/Direct X/Treiber what ever scheint das zu checken und wenn mehr RAM da ist wird dieser gleich als Cache belegt um nichts nachladen zu müssen.

Nvidia lädt ja intelligenterweise nur Texturen rein, die im sichtbaren Bereich des Spieler FOV liegt um RAM zu sparen. Nur wenn dieser sich schnell bewegt entsteht bei langsam und limitierten Speicher die "aufpoppt Effekt". War bei HW Unboxed im vergleich zwischen 8GB und 16GB nett zu sehen, dabei war der RAM nicht mal über dem 8GB Limit sondern einfach innerhalb im 8GB Limit.

Natürlich stelle ich mir halt die Frage diesen miesen aufpopp Effekt bei Texturen vermeiden oder Raytracing Ultra? Bei der Kaufentscheidung. Ich denke 16GB für UWQHD oder geringer ist erstmal mehr als Genug für die nächsten Jahre, aber für 4K wofür die 4080 definitiv ausgelegt ist meiner Meinung trotzdem sehr grenzwertig im Prinzip wie damals die 3080 mit 10GB.


Laut dem Marketing sind alle ohne 24GB GDDR6X RAM sowieso looser :ROFLMAO: :ROFLMAO: :ROFLMAO:
Beitrag automatisch zusammengeführt:

Es wird suggeriert, dass eben (nur) keine großen Vorteile entstehen, während die tatsächlich von ihm getroffene Aussage ist, dass der Benutzer das Bild als träge und unansehnlich wahrnehmen täte!

1692048575958.png

Willst du mir sagen das ne Super teure High-Endkarte die 3090 hat 328 Tensor Cores hat, nicht in der Lage wäre DLSS3 zu können aber eine 4070 mit 184 Cores kann das?

Das glaubst du doch wohl selbst nicht.
 
Zuletzt bearbeitet:
Es gibt keine Benchmarks oder Videos dazu. Dazu müsste man DLSS 3.0 entsprechend freigeben, was sich wohl nicht rentiert, denn:
Rentieren? Eher die haben Angst es zuzugeben das die die Kundschaft veräppeln.
Es würde keine Mehrleistung entstehen, dafür aber wäre das Ergebnis sogar schlechter! Warum also sollte NVIDIA diese Funktion für die alten GPUs implementieren?

Dss sind Aussagen von Nvidia.
Willst du mir sagen das ne Super teure High-Endkarte die 3090 hat 328 Tensor Cores hat, nicht in der Lage wäre DLSS3 zu können aber eine 4070 mit 184 Cores kann das?

Das glaubst du doch wohl selbst nicht.
@n3cron hat es super erfasst.

Alle große Firmen wie Nvidia, Intel, AMD haben Armada an Leuten was nichts anderes zu tun haben als sich auszudenken wie man Kunden viel Geld mit wenig Aufwand aus der Tasche ziehen kann. Warum sollte einer viel Geld für neue Serie ausgeben wenn die alte nur unbedeutend langsamer wäre. Da ist sicher einfacher zu sagen "es geht nicht " Musst neu kaufen. Schade das sich das nicht beweisen lässt.
 
Alle große Firmen wie Nvidia, Intel, AMD haben Armada an Leuten was nichts anderes zu tun haben als sich auszudenken wie man Kunden viel Geld mit wenig Aufwand aus der Tasche ziehen kann. Warum sollte einer viel Geld für neue Serie ausgeben wenn die alte nur unbedeutend langsamer wäre. Da ist sicher einfacher zu sagen "es geht nicht " Musst neu kaufen. Schade das sich das nicht beweisen lässt.
Ich meine es kann schon sein das eine 3060ti 3070 vielleicht bis ne 3080 nicht genug Leistung haben bezüglich DLSS3. Aber die 3090 sollte das definitiv drauf haben von der Ausstattung.

Es sollte funktionieren und bringt keine Mehrleistung ist ne Marketing Ausrede. Aber natürlich kann ich die Leute verstehen die verzweifelt ihren RTX4000 Kauf verteidigen wollen. Würde DLSS3 für AMPERE kommen würde das ja deren Wert durchaus schmälern.

Aber sei es drum wir werden das nie erfahren es sei denn jemand hackt den Treiber oder ähnliches.
Die haben auch keine Raytracing Cores... also technisch eigentlich unmöglich oder doch?..
Hier ist ja positiv für Marketing Raytracing Ultra führt halt auf gewissen Karten zur Diashow, gleichzeitig zeigt es ja wie es aussehen könnte. Ich könnte mir vorstellen das es auf Ampere einfach nicht zu diesem Effekt führt.
 
Willst du mir sagen das ne Super teure High-Endkarte die 3090 hat 328 Tensor Cores hat, nicht in der Lage wäre DLSS3 zu können aber eine 4070 mit 184 Cores kann das?
Mit dieser Aussage beweist du ganz eindeutig, dass du nicht wirklich verstehst, wovon du eigentlich schreibst. Die Begründung von Nvidia ist, dass die Optical Flow Acceleration erst mit Lovelace schnell genug für Frame Generation sei. Keine Ahnung was du jetzt versuchst mit der Anzahl der Tensor Cores zu begründen, da es nicht um diese geht, sondern um den Optical Flow Accelerator.

Dir wurde doch jetzt schon öfters und von verschiedenen Personen aufgezeigt, dass du was Frame Generation ziemlich aufen falschen Dampfer bist. Warum ignorierst du das und wiederholst denselben Murks immer und immer wieder?
Du verlinkst auch noch eine Diskussion, wo dir ganz klar aufgezeigt wurde, dass du dir sogar mit deinen eigenen Verlinkungen widersprichst. Scheinbar liest du dir diese selber nicht durch oder verstehst diese ganz einfach nicht..

Die haben auch keine Raytracing Cores... also technisch eigentlich unmöglich oder doch?..
Warum sollte das technisch unmöglich sein, Wie kommst du jetzt schon wieder auf so einen Murks?
 
Ach lass. Dass Steven Spielberg (oder wars der Weihnachtsmann?) für die Mondlandung verantwortlich war, kannst Du auch keinem Verschwörungstheoretiker ausreden.

Und mal völlig unabhängig vom Wahrheitsgehalt der Aussagen von NVidia: deren Produkte, also auch deren Entscheidung. Wer damit n Problem hat kann ja selbst ne Grafikkartenschmiede aufmachen.
 
Ach lass. Dass Steven Spielberg (oder wars der Weihnachtsmann?) für die Mondlandung verantwortlich war, kannst Du auch keinem Verschwörungstheoretiker ausreden.

Und mal völlig unabhängig vom Wahrheitsgehalt der Aussagen von NVidia: deren Produkte, also auch deren Entscheidung. Wer damit n Problem hat kann ja selbst ne Grafikkartenschmiede aufmachen.
Geht halt nur darum das man als Kunde im obersten Preissegment 1500€+ einfach scheinbar eine Generation später quasi der Depp ist. Sicher man hat ein noch ein starkes Produkt in Punkto Leistung und zu erwartenden Speicherausbau. Aber die propagierten Features schmelzen quasi dahin. Würde mich nicht wundern wenn mit der 5000er Gen DLSS4.0 eingeführt wird Turing und Ampere Karten nicht mehr supported werden. Deeplearning für Pathtracing oder ähnliches. So wie man seinerzeit DLSS 1.9x/2 für Karten ohne Tensorcores einfach deaktiviert hat.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh