Neue Hinweise: AMD blockiert offenbar die Umsetzung von DLSS

Die sonstige Indizienlage hin oder her, noch deutlicher gehts doch nur noch mit einem 'Ja'. Das PR-Debakel sitzt man kaum schweigend aus, wenn mans denn richtig stellen könnte. Kann insofern nicht nachvollziehen, wie man die Geschichte noch als Spekulation abtun kann...

Es gibt Spiele die benutzen nur AMDs Technik. Jo.
Was macht denn mehr Sinn als Entwickler? Eine Technik in die Engine zu integrieren die nicht überall läuft oder eine die auf jeder aktuell verfügbaren Karte nutzbar ist?

Ist das ein PR Debakel für AMD? Das sehe ich nicht.
Wenn dann eingie der Spiele ganz eventuell noch auf PS5 und Co. landen, ist die Sachlage doch klar.
Das eine wird bei Start mit released, das andere kommt evtl. später nach. Da drückt der Schuh nicht so.

Muss aber auch nicht immer so sein.
Baldurs Gate jetzt bald? Hat doch FSR und DLSS mit an Board, oder vertue ich mich da?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke mal es wäre gut für die Verbraucher AMD würde ein Konkurrenzprodukt zu DLSS auf den Markt bringen. Ich hoffe nicht, dass diese komische Strategie bedeutet (sollte das alles stimmen), dass AMD es nicht hinbekommt. AFAIK hatte AMD ja angekündigt 2023 sowas in der Richtung zu bringen.
 
Warum HardwareUnboxeds spekulativem Sensations"journalismus" so viel Aufmerksamkeit geschenkt wird erschließt sich mir wirklich nicht.
Auch wenn es wenig Aufwand ist, DLSS einzubauen, wenn FSR drin ist, so ist es trotzdem Aufwand. Und so lange wir über Probleme wie Crunch und co reden müssen, so lange sehe ich es jetzt nicht unbedingt als fragwürdig an, nur die eine Technologie, die für alle User funktioniert einzubauen statt den Zusatzaufwand zu treiben, oben drauf noch Entwicklerstunden für eine proprietäre Lösung eines einzelnen GPU-Anbieters zu verpulvern.
Dass AMD diesem Konstrukt keine Aufmerksamkeit schenkt auch noch als 'Schuldeingeständnis' hinzudichten ist schon etwas absurd in meinen Augen :fresse:
Mal sehen wie lange es jetzt dauert bis ich als AMD-Fanboy beschimpft werde :d
(hint: nein, ich bin kein AMD-Fan, sondern einfach nur kein Fan von proprietären Lösungen die einzig dem Vendor-Lock-in dienen)
 
Zuletzt bearbeitet:
AMD hat doch mit FSR 2.x bereits eine konkurrierende Upscaling Version am Start.
Was halt jetzt schon eine Weile dauert, ist FSR 3.
Naja in etwa so wie ein Fahrrad mit einem Bus konkurriert.

Es sind beides Mittel zur Fortbewegung, beides auf ihre Weise wirklich tolle Möglichkeiten aber beide haben, auch wenn es in der Zielgruppe überschneidungen gibt, eigentlich ihre eigene Zielgruppe und auch eine andere Funktion. Man kann theoretisch mit einem Fahrrad etwas ähnliches wie mit einem Bus machen, aber Glücklich werden viele damit wohl nicht.
 
DLSS ist zweifellos FSR überlegen

Kein Kommentar dazu. Jeder soll sich selbst dazu Gedanken machen ob es wirklich so ist, oder ob es ich habe eine Nvidia Karte und es ist besser, usw.

Es sind keine nativen rasterizer Pixel für mich, mein persönlicher Einzelfall.
In meinem persönlichen Einzelfall, habe ich Hardware Unboxed auf Youtube als unqualifiziert und Nvidia Bezogen klassifiziert. Nicht nur, dass monatelang ohne resizeable Bar gemessen wurde, gab es noch andere fragwürdige Mess- oder Testmethodiken. Wenn man AMD ohne RBAR misst, damit Nvidia besser ohne RBAR dasteht ist es eher sinnbefreit. Ich habe mich erst ab circa Ende 2021 mit Hardware Unboxed usw. beschäftigt, nachdem ich meine "bessere" Radeon 6600XT hatte, nach vielen Jahren mit einem sehr alten Gaming Notebook mit mobiler 660 GTX mit 2GB VRAM. HU, kurz, ist Unterhaltung, ist es oft fachlich korrekt, manchmal, aber sehr oft auch nicht.

HU, verwurstet auch den Content auf
Speziell dieser Artikel, habe den jetzt rausgesucht, ist ein sehr gutes Negativ Beispiel für mich!

Man sollte sich lieber nur den Text von HU bei techspot anschauen, und die Gelaber Videos die eher Allgemein gehalten sind von HU bei youtube.

Für Laien ist es schon schwer, Marketing, Spekualtionen, Fakten und Gelaber auseinanderzuhalten. HU ist für mich, meine persönliche Meinunng - ein Einzelfall, eher selten bei den Fakten zu Hause. Schreibt man irgendetwas genaueres und spezifischer dazu, kommen die Fanboys und jammern, weil ich ihre Lieblinge beleidigt habe.
 
Zuletzt bearbeitet:
Naja in etwa so wie ein Fahrrad mit einem Bus konkurriert.

Es sind beides Mittel zur Fortbewegung, beides auf ihre Weise wirklich tolle Möglichkeiten aber beide haben, auch wenn es in der Zielgruppe überschneidungen gibt, eigentlich ihre eigene Zielgruppe und auch eine andere Funktion. Man kann theoretisch mit einem Fahrrad etwas ähnliches wie mit einem Bus machen, aber Glücklich werden viele damit wohl nicht.
Wieder einmal ein mehr als nur hinkender Vergleich. Oder meintest Du etwa, dass alle Fahrrad fahren können und sich nur eine kleine Elite die Busfahrkarte leisten kann? Dann passt es ja doch :) und die mit der Fahrkarte sind jetzt beleidigt, weil die Radwege weiter ausgebaut werden und die Busfahrt länger dauert ...

Tests haben gezeigt, dass es in vielen Fällen weniger auf die Technologie ankommt, sondern auf die Qualität der Implementierung. Wenn die stimmt, geben sich DLSS und FSR2 nicht viel, mal ist das eine besser mal das andere.
 
AMD hat doch mit FSR 2.x bereits eine konkurrierende Upscaling Version am Start.
Was halt jetzt schon eine Weile dauert, ist FSR 3.
DLSS ist ein KI gestützter und lokal mit dedizierter Hardware ausgerüsteter Upscaler, FSR ist einfach nur ein schicker Filter. Hat mMn nicht viel miteinander zu tun, weswegen ich die ständigen Vergleiche auch nicht verstehe.
 
Wenn man Spiele vernünftig optimieren würde und es keine Krüppelkarten wie z.b. die 4060 geben würde, bräuchte man den ganzen FSR/DLSS Kram auch kaum. Nicht falsch verstehen, die Technik ist interessant, aber bleibe trotzdem (noch) bei nativ.

Wenn die Rohleistung fehlt, wird es die Software auch nicht richten.

Hinzu kommt das die Auflösung keine 1080p@30 FPS oder @60FPS mehr ist heutzutage. Bis auf den Spielkonsolenbereich mit den schlechten Bildschirmen von Fernseher. Diese können oft nur 60 FPS.

Off topic - Vielleicht hilft es etwas den Sachverhalt anders darzustellen mit fehlender Rohleistung

Ich compiliere seit 2006 libreoffice in Gentoo linux. Ein Benchmark, eine Messwert ist der Zeitstempel vom Start bis zum Ende des ausgeführten Befehls. Diesen Trend kann man rückverfolgen von Staroffice -> openoffice -> libreoffice usw. Auch gibt es eine Verfälschung der Messwerte, da sehr oft nebenbei auch nur leichte Desktop Arbeit gemacht wird, oder nebenbei weitere compiler laufen, die die Zeit in die länge ziehen. Linux Mint kann es nicht, gentoo linux kann sehr wohl mehrere verschiedene Paketmanager offen haben und gleichzeitig mehrere verschiednene Pakete in das System "implementieren".

Die Sekunden schrumpfen mit der Zeit, auch wenn das Paket weiterentwickelt wird, auch wenn sich die Versionnummer der toolchain weiterentwickelt.
ABER auch wenn man hintereinander libreoffice mit anderen Parametern mit der toolchain compiliert, sind diese Veränderungen bis zu einstelligem Prozentbereich.

eine 70 prozentige Reduktion der Zeit für das compilieren ist derzeit nicht möglich.

Ich habe noch einige Tricks angewandt um nur den Arbeitsspeicher zu verwenden, da dies zu diesem Zeitpunkt der schnellere Speicher war als ein harddrive oder ssd.

Gewisse Firmen / Produkte leben vom Marketing. Optik vor Funktion ist eine Aussage von mir.
 
Wieder einmal ein mehr als nur hinkender Vergleich. Oder meintest Du etwa, dass alle Fahrrad fahren können und sich nur eine kleine Elite die Busfahrkarte leisten kann? Dann passt es ja doch :) und die mit der Fahrkarte sind jetzt beleidigt, weil die Radwege weiter ausgebaut werden und die Busfahrt länger dauert ...

Tests haben gezeigt, dass es in vielen Fällen weniger auf die Technologie ankommt, sondern auf die Qualität der Implementierung. Wenn die stimmt, geben sich DLSS und FSR2 nicht viel, mal ist das eine besser mal das andere.
Könnte daran liegen, dass es kein Vergleich sondern eine Analogie war.

Ich habe auch keine Ahnung wie du zu dieser Aussage kommst, dass die Technologie egal wäre. Kannst du so eine Quelle mal bitte verlinken?
Ich kann es nicht testen, ich habe im Moment nur Karten eines Herstellers hier. Aber so gut wie jede Bewertung die ich bisher gelesen habe, die von Experten kamen und nicht von Wald und Wiesen Boys der Grünen oder Roten Fraktion, attestierten DLSS die Überlegenheit. Die meisten Direktvergleiche stammten noch von FSR 2 / DLLS 2.x. Egal ob Igor, PCGH, PC-Welt, CB, Thoms Hardware, Hardwareluxx. Die einen attestieren einen größeren Abstand die anderen sagen eher das es dichter bei einander liegt. Allerdings ist da Framgeneration / DLSS 3 nicht enthalten und das verschiebt die ganze Sache auch noch mal. Was AMD nachschiebt wissen wir nicht. Kann super sein oder eben halt auch nicht. Aber darum sagte ich auch: es sind beides gute Möglichkeiten, die aber auch unterschiedliche Sachen machen und daher in unterschiedlichen Disziplinen unterschiedlich abschneiden. DLSS 3 macht eben auch einfach Sachen, die AMD nicht kann oder nicht will. Wenn ich Bus fahre verfolge ich vermutlich auch andere Ziele als würde ich Fahrrad fahren. Das richtige Werkzeug zur richtigen Aufgabe.

Klar ist aber auch, dass die offenheit der AMD Lösung gut ist. Die Frage ist halt wie gut. AMD Nutzer nutzen halt AMD und Nvidia Nutzer bräuchten es nicht, wenn die Entwickler beides Implementieren. Ich versteh das Argument von Nvidia, dass ihre Lösung eben Hardwaregebunden ist. Was ich erwarten würde, wäre, dass es Nvidia einen Fallback implementiert, der DLSS mit den Möglichkeiten einer AMD Karte umsetzt und Zusatzfeatures aktiviert, wenn eine kompatible Nvidia Karte vorhanden ist. Dann gäbe es kaum noch Argumente für FSR.

Aber dieses: Tests haben gezeigt und jeder sollte sich selbst eine Meinung bilden... die würde ich halt gerne mal sehen.

Verschwörungsmythen muss man auch nicht bedienen. Er reicht erstmal, wenn man sich auf eine gemeinsame Realität einigt, die da wäre: DLSS fehlt auffällig häufig in AMD gesponsorten Spielen. Das ist ein Fakt. Wo wir dann spekulieren können ist warum. Liegt es an dem Aufwand, liegt es an der Kompatibilität oder liegt es an der Einflussnahme durch AMD. Diese Frage werde ich nicht beantworten können und ich bin mir ziemlich sicher, dass auch die anderen Leser das nicht können.

Sollte AMD Einfluss nehmen, so fände ich als Spieler das nicht gut. Dann würde ich mir erhoffen, dass das durch Journalismus aufgedeckt wird. Ich als Leser brauche aber nicht wild rum spekulieren und Mythen erfinden. Oder in meine weiße Rüstung steigen und AMD zur Rettung eilen, denn ich kann das gar nicht wissen.
 
Zuletzt bearbeitet:
müssen halt auch ihren Schrott loswerden - et is wie et is - kein DLSS > kein Starfield
meine Kaufentscheidung hab ich davon nicht abhängig gemacht.
Warum auch? Wo steckt darin der tiefere Sinn?
Und wenns keine Alternative zu TAA oder FXAA gibt, dann kommt halt das gute alte Downsampling mal wieder zum Einsatz um den Kanten den Kampf anzusagen. Bringt mir zwar kein Leistungsplus sieht aber immer noch besser als FSR, TAA oder FXAA aus... Zumindest ich kann mich da auf den ein oder anderen Leistungsreserven ausruhen.
 
weswegen ich die ständigen Vergleiche auch nicht verstehe.
Das liegt wohl daran, dass du FSR nicht verstehst bzw deine Kenntnis bei FSR1 stehen geblieben ist ;)

DLSS ist ein KI gestützter und lokal mit dedizierter Hardware ausgerüsteter Upscaler, FSR ist einfach nur ein schicker Filter.
DLSS 1 und FSR 1 sind quasi nur schicke Filter, DLSS2 und FSR2 sind beides 'KI gestützter und lokal mit dedizierter Hardware ausgerüsteter Upscaler,' die auch vom Ergebnis und der Qualität sehr eng beieinander liegen. Die konkrete Implementierung hat hier VIEL mehr Einfluss auf das Ergebnis als die grundsätzliche Variante.
 
DLSS 1 und FSR 1 sind quasi nur schicke Filter, DLSS2 und FSR2 sind beides 'KI gestützter und lokal mit dedizierter Hardware ausgerüsteter Upscaler,' die auch vom Ergebnis und der Qualität sehr eng beieinander liegen. Die konkrete Implementierung hat hier VIEL mehr Einfluss auf das Ergebnis als die grundsätzliche Variante.
Das Radeon dedizierte Rechenkerne für Supersampling hat wusste ich tatsächlich nicht. Und das es Deep learning benutzt wusste ich auch nicht. Danke für die info! 👍

Darf ich nach einer Quelle fragen?
 
Und immer die urbane Legende, dass es angeblich so wenig Zeit benötigt, FSR2 und DLSS zu integrieren. Das kommt komischerweise gefühlt immer von Leuten, die es selber nicht programmieren können und es anscheinend nur Nachplappern.
Diese urbane Legende bestätigten u.a. auch Entwicklerstudios wie Nixxes, siehe dazu meine Verlinkung. Ich vermute schon, dass die sich da ein wenig auskennen und nicht einfach nur etwas nachplappern.

Auch schaffen es externe Modder den Support für andere Upscaler kurz nach Release nachzureichen, ohne den Code der Spiele zu kennen. Demnach scheint es wirklich nicht so sonderlich viel Aufwand zu sein, wenn dies sogar Externe hinbekommen.
 
Das Radeon dedizierte Rechenkerne für Supersampling hat wusste ich tatsächlich nicht.
Hat es auch nicht, es werden die allgemeinen Vektor-Einheiten genutzt. Bei Geforce halt die Tensor Cores (die aber auch nicht dediziert fürs SS sind).
Auch DL wird nicht lokal genutzt, das ist korrekt - der deutlich wichtigere Punkt ist aber die temporale Komponente, die bei beiden Varianten sehr ähnlich verwendet wird.
 
Muss aber auch nicht immer so sein.
Baldurs Gate jetzt bald? Hat doch FSR und DLSS mit an Board, oder vertue ich mich da?
Aber das Spiel ist ja auch gerade nicht AMD-sponsored, oder irre ich mich da? Klar zeigt das dann, dass beides geht.
Nvidia-sponsored und unabhängige Titel scheinen das Problem ja gerade nicht zu haben, das war ja der Aufhänger der ganzen Geschichte.
Beitrag automatisch zusammengeführt:

so lange sehe ich es jetzt nicht unbedingt als fragwürdig an, nur die eine Technologie, die für alle User funktioniert einzubauen statt den Zusatzaufwand zu treiben, oben drauf noch Entwicklerstunden für eine proprietäre Lösung eines einzelnen GPU-Anbieters zu verpulvern.
Dass AMD diesem Konstrukt keine Aufmerksamkeit schenkt auch noch als 'Schuldeingeständnis' hinzudichten ist schon etwas absurd in meinen Augen :fresse:
AMD hätte ja Nvidias open source-Steamline-SDK beitreten können, wie es auch Intel mit XeSS getan hat. Macht man aber nicht.
Insofern ist die Ausrede mit der proprietären Lösung schon so ne Sache. Absurd ist da gar nix.
Beitrag automatisch zusammengeführt:

Tests haben gezeigt, dass es in vielen Fällen weniger auf die Technologie ankommt, sondern auf die Qualität der Implementierung. Wenn die stimmt, geben sich DLSS und FSR2 nicht viel, mal ist das eine besser mal das andere.
Gerade bei FSR2 ist die Qualität der Implementierung sehr wichtig, stimmt.

Aber dass DLSS generell deutlich überlegen ist, ist - insbesondere unterhalb von 4K @quality bzw ultra-quality - klar herrschende Meinung unter Reviewern.
 
Zuletzt bearbeitet:
Macht man aber nicht.
Naja, Vulkan bei Streamline bis heute noch nicht fertig implementiert, das ganze ist Windows-only und wird bisher soweit ich mitbekommen habe nicht wirklich von den Spieleentwicklern angenommen. Auch wenn der Ansatz von Streamline also eigentlich gut ist - die Umsetzung lässt auf jeden Fall Zweifel an Nvidias Commitment in Richtung einer wirklich 'neutralen' und offenen Hilfe zu ;)
Zumal das Ganze ja auch nicht mal FOSS sondern nur open source und ansonsten 'all rights reserved' ist...
 
Könnte daran liegen, dass es kein Vergleich sondern eine Analogie war.

Ich habe auch keine Ahnung wie du zu dieser Aussage kommst, dass die Technologie egal wäre. Kannst du so eine Quelle mal bitte verlinken?
Ich kann es nicht testen, ich habe im Moment nur Karten eines Herstellers hier. Aber so gut wie jede Bewertung die ich bisher gelesen habe, die von Experten kamen und nicht von Wald und Wiesen Boys der Grünen oder Roten Fraktion, attestierten DLSS die Überlegenheit. Die meisten Direktvergleiche stammten noch von FSR 2 / DLLS 2.x. Egal ob Igor, PCGH, PC-Welt, CB, Thoms Hardware, Hardwareluxx. Die einen attestieren einen größeren Abstand die anderen sagen eher das es dichter bei einander liegt. Allerdings ist da Framgeneration / DLSS 3 nicht enthalten und das verschiebt die ganze Sache auch noch mal. Was AMD nachschiebt wissen wir nicht. Kann super sein oder eben halt auch nicht. Aber darum sagte ich auch: es sind beides gute Möglichkeiten, die aber auch unterschiedliche Sachen machen und daher in unterschiedlichen Disziplinen unterschiedlich abschneiden. DLSS 3 macht eben auch einfach Sachen, die AMD nicht kann oder nicht will. Wenn ich Bus fahre verfolge ich vermutlich auch andere Ziele als würde ich Fahrrad fahren. Das richtige Werkzeug zur richtigen Aufgabe.

Klar ist aber auch, dass die offenheit der AMD Lösung gut ist. Die Frage ist halt wie gut. AMD Nutzer nutzen halt AMD und Nvidia Nutzer bräuchten es nicht, wenn die Entwickler beides Implementieren. Ich versteh das Argument von Nvidia, dass ihre Lösung eben Hardwaregebunden ist. Was ich erwarten würde, wäre, dass es Nvidia einen Fallback implementiert, der DLSS mit den Möglichkeiten einer AMD Karte umsetzt und Zusatzfeatures aktiviert, wenn eine kompatible Nvidia Karte vorhanden ist. Dann gäbe es kaum noch Argumente für FSR.

Aber dieses: Tests haben gezeigt und jeder sollte sich selbst eine Meinung bilden... die würde ich halt gerne mal sehen.

Verschwörungsmythen muss man auch nicht bedienen. Er reicht erstmal, wenn man sich auf eine gemeinsame Realität einigt, die da wäre: DLSS fehlt auffällig häufig in AMD gesponsorten Spielen. Das ist ein Fakt. Wo wir dann spekulieren können ist warum. Liegt es an dem Aufwand, liegt es an der Kompatibilität oder liegt es an der Einflussnahme durch AMD. Diese Frage werde ich nicht beantworten können und ich bin mir ziemlich sicher, dass auch die anderen Leser das nicht können.

Sollte AMD Einfluss nehmen, so fände ich als Spieler das nicht gut. Dann würde ich mir erhoffen, dass das durch Journalismus aufgedeckt wird. Ich als Leser brauche aber nicht wild rum spekulieren und Mythen erfinden. Oder in meine weiße Rüstung steigen und AMD zur Rettung eilen, denn ich kann das gar nicht wissen.
Das gab es ne Zeit lang um die 0er Jahre 2010 herum und nannte sich Physics. Damals hatte Nvidia einen Hardwarebeschleuniger für Physikberechnungen integriert. https://en.wikipedia.org/wiki/Ageia
Die Moral von der Geschichte es war damals Nvidia PhysX. Ja es gab die universal Unterstützung PhysX dann per "Software Rendering" zu betreiben.
Bei Titeln die das Optional angeboten haben, war das ganz nett den man konnte einfach "nein" sagen. Aber als dann Titel mit integrierter Funktion auf den Markt kamen ohne Möglichkeit zu deaktivieren wurde das unbrauchbar für AMD Spieler, man ist mit 30FPS oder weniger rumgekrebst weil die Bremse die überlastet CPU bezüglich "PhysiX" gewesen ist. Wie damals typisch mit Dual Cores, maximal Quadcores war die Rechenleistung kaum da und nichts ordentlich parallelisiert.
AMD brachte irgendwann https://en.wikipedia.org/wiki/AMD_APP_SDK als Antwort auf Nvidia PhysiX, mittlerweile verwenden die Entwickler die Havoc engine die Physik Beschleuniger aller Hersteller unterstützen.

Im Prinzip können wir bezüglich Raytracing aktuell Microsoft danken, das die mit DX12 auch anderen Herstellern Schnittstellen für Raytracing zu erlauben.
Ohne DX12 und Raytracing Integration würde das auf AMD und Intel Karten so laufen wie damals Physic Berechnung 2010 ... CPU basiert als GIF-Show.

Wenn es keine offenen Standards oder Integrationen gibt, gibt es keinen echten Wettbewerb.
Ich hoffe nur eine Frage der Zeit bis Direct X seitig eine Frame Generation / Deep Learnung super sampling Variante geben wird die nicht nur mit Tensor Cores sondern mit anderen KI Recheneinheiten laufen würde.
Wenn nämlich jeder seine Suppe kocht haben wir genau das wir jetzt haben, FSR DLSS XeSS... nur ist XeSS und FSR open Source und theoretisch mit allen Grafikkarten kompatibel weil nichts Hardware spezifisch dafür verwendet wird.


Dank DX12 konnte Nvidia den Bann nicht aufrecht halten und man kann Nvidia PhysiX wieder mit "fremden" Karten zusammen verwenden.
So viel zu "blockiert". Es ist lächerlich, da verbaut man schon Nvidia Technik (gekauft) und dann wird verhindert das es möglicherweise mit einer Fremden Karte in Kombination laufen könnte.
Das ist ne absolute Entmündigung des Kunden.

Wie lange hat es gedauert bis Nvidia Adaptiv Sync freigeschalten und unterstützt hat? https://www.golem.de/news/gaming-displays-nvidia-oeffnet-sich-fuer-adaptive-sync-1901-138536.html

Klar da wird ein Spiel das für die Konsole Entwickelt wird, geföhnt weil es auch einen PC Ableger davon gibt und nicht gleich DLSS supportet? Warum denn auch Zeit und Geld in die DLSS Implantation reinstecken wenn es für Konsole nicht relevant ist?

Der Shit ist einfach Leute die eine 4090 für 2000€ gekauft haben beschweren sich die Vorteile nicht ausspielen können.

DLSS => Funktioniert nur mit Nvidia
FSR => Funktioniert mit allen Herstellern.

Wo ist das Problem? Das Spiel kann FSR, alle können das nutzen keiner hat einen Nachteil?
 
Zuletzt bearbeitet:
Zudem können FSR und XeSS auf sämtlichen GPUs, egal ob von AMD, Intel oder NVIDIA ausgeführt werden, während DLSS nur auf GPUs von NVIDIA funktioniert.
Open source kann weiterleben, vendor-lock-in kann direkt in die Tonne. Warum versucht man hier durch pseudo-kritischem Journalismus das Misshandeln von Kunden mit vendor-lock-in hochzujubeln?
 
ich bleib trotzdem bei nvidia
Kann man doch auch und man kann auch FSR nutzen, wo ist das Problem?

Aktuell hab ich das Gefühl (Nvidia ist wie ein offroad Auto) und die beschweren sich das es nur eine normale Straße gibt die von allen befahren werden und keine spezielle offroad strecke (DLSS).

Muss man halt woanders hinfahren, keiner wird gezwungen das Spiel zu kaufen :ROFLMAO:
 
Auf Gamersnexus Anfrage "Does the contract between AMD and Bethesda have any language which intentionally blocks or could be constructed as blocking or limiting Bethesda's ability to integrate alternative upscaling technologies within Starfield?" antwortete AMD mit "We have no comment at this time." (Link)
An der Stelle hätte ich ehrlich gesagt auch keine Antwort erwartet. Welche Firma äußert sich denn öffentlich über Inhalte von Verträgen mit Dritten? Also mal komplett unabhängig von der ganzen Diskussion...

Ja, ist unschön das kein DLSS drin ist, aber die Welt wird davon auch nicht untergehen. Hoffen wir das diese Variante keine Schule macht und das möglichst immer beides angeboten wird. Als Besitzer einer 1060 6gb bin ich sehr früh über FSR, weil Nvidia mich absichtlich aus DLSS ausgesperrt hält ;)
 
Der Shit ist einfach Leute die eine 4090 für 2000€ gekauft haben beschweren sich die Vorteile nicht ausspielen können.
Das betrifft doch auch und gerade Leute mit ner 2060 o.ä. (inkl. Laptop-Varianten), die auf (idealerweis standardmäßig aktiviertes, falls taugliches) Upscaling wirklich angewiesen sind, weils sonst teilweise einfach mies läuft. Und die sind wirklich weit verbreitet. Nicht vergessen: nach der Steam-Hardwareumfrage kommt AMD auf magere 15% GPU-Anteil bzw. 13%, wenn man die meistvertretene AMD-GPU - nämlich APUs - rausrechnet.

DLSS => Funktioniert nur mit Nvidia
FSR => Funktioniert mit allen Herstellern.

Wo ist das Problem? Das Spiel kann FSR, alle können das nutzen keiner hat einen Nachteil?
Wenn FSR ähnlich gut wie DLSS wäre, gäbs auch auch keines und es wäre aus Verbrauchersicht wie damals bei Freesync auch wünschenswert, wenn es DLSS verdrängen würde. Ist es halt leider nicht, und zwar z.T. um Längen. FSR ist kein vergleichbares Surrogat, das ist ja gerade der Punkt.

DLSS 1 und FSR 1 sind quasi nur schicke Filter, DLSS2 und FSR2 sind beides 'KI gestützter und lokal mit dedizierter Hardware ausgerüsteter Upscaler,' die auch vom Ergebnis und der Qualität sehr eng beieinander liegen.
Falsch: AMD selbst gibt an, dass FSR2 kein neuronales Netzwerk benutzt ("Wie AMD ComputerBase auf Nachfrage bestätigt hat, verzichtet FSR 2.0 völlig auf ein neuronales Netzwerk"). Dennoch richtigerweise mehr als ein 'schicker Filter', da ebenfalls wie bei DLSS Bewegungsvektoren berücksichtigt werden.
Ist aber auch mit ein Grund, warum die Qualität gerade nicht eng beieinander liegt. (Wo kommt eigentlich diese Urban Legend immer her? Anschuldigungen an AMD hin oder her, aber das sollte als Diskussionsgrundlage doch wirklich unumstritten sein)

XeSS verwendet wohlgemerkt ein neuronales Netzwerk, was vielleicht der Grund sein mag, warum es qualitativ überraschend nahe an DLSS ist. Es nutzt auf Nvidia-GPUs allerdings nicht dessen Tensor-Kerne, was widerum der Grund für die schlechtere Performance verglichen mit DLSS sein könnte.

Tatsächlich hat Linus von LTT einmal angemerkt, dass er denkt, wenn FSR sich langfristig wie damals Freesync durchsetzen wolle, müsse es herstellerübergreifend entsprechende AI-Beschleunigungskerne verwenden, also insb. auch Nvidias Tensor-Kerne. Nachdem RDNA3 erstmalig auch irgendwelche 'AI-Accelerators' an Board hat, könnte das zukünftig vielleicht sogar kommen und FSR sich qualitativ an DLSS annähern. Oder enstprechend umgekehrt XeSS performancemäßig an DLSS.

Das Radeon dedizierte Rechenkerne für Supersampling hat wusste ich tatsächlich nicht. Und das es Deep learning benutzt wusste ich auch nicht. Danke für die info! 👍
Stimmt ja beides auch grds. nicht; erst ab RDNA3 sind dedizierte Matrixmultiplikationseinheiten (wie es Nvidias Tensor-Kerne sind) vorhanden. Die unterscheiden sich zwar technisch von Nvidias Tensor-Kernen (kein FP32); ob das für AI-Upscaler Implikationen haben kann, bin ich aber überfragt.
 
Zuletzt bearbeitet:
@Abcder: Nach dem Steam Survey kommen DLSS3 fähige Karten auf nichtmals 3% Marktanteil.

DLSS 2.3 und FSR 2.0 Vergleich bei HWLuxx:

Ich würde nach Betrachtung der Bilder sagen FSR 2.0 passt, ist ähnlich gut wie DLSS 2.3. Den Aufwand für DLSS kann man auf nach den Crunch legen, wenn das Spiel gut läuft.
 
Den Rest habe ich ja auch selber schon klar gestellt.
warum die Qualität gerade nicht eng beieinander liegt. (Wo kommt eigentlich diese Urban Legend immer her? Anschuldigungen an AMD hin oder her, aber das sollte als Diskussionsgrundlage doch wirklich unumstritten sein)
Aber diese Aussage würde ich mehr als Urban Legend bezeichnen als die darin kritisierte Aussage :d
Bei guter Implementierung sind die beiden in der Tat eng beieinander, das abzustreiten ist absurd.
Keiner bestreitet, dass die DLSS-Implementierung häufiger tatsächlich das bessere Ergebnis bringt (ob das jetzt an einfacherer Implementierung, besseren Voraussetzungen oder mehr Mühe liegt sei mal dahin gestellt) - aber wie schon gesagt ist eben die Implementierung für das Ergebnis wesentlich wichtiger als die eigentliche Technik. Ein schlecht implementiertes DLSS wird einem gut implementierten FSR genauso unterlegen sein wie ein gut implementiertes DLSS ein schlecht implementiertes FSR schlecht dastehen lassen wird.
 
@Abcder: Nach dem Steam Survey kommen DLSS3 fähige Karten auf nichtmals 3% Marktanteil.
Über fehlendes FG beschwert sich ja auch niemand, das ist noch Nische.

Ich würde nach Betrachtung der Bilder sagen FSR 2.0 passt, ist ähnlich gut wie DLSS 2.3.
Auf Standbildern kann man das Verhalten von bewegten Elementen (Ghosting, Artefakte und in Unschärfe) halt leider schlecht sehen. Ich verweise auf das HU-Video, das hier schon mal verlinkt wurde, da war das Fazit sehr deutlich. Nur in 4K mit Quality-Preset kann sich FSR häufig noch adäquat behaupten. Von den qualitativ schlechten Implementierungen wie in Fallen Order reden wir lieber gar nicht erst...

Von den Standbildern geb ich dir Recht, da kommt FSR2 gut rüber. Insofern muss ich revidieren, dass ich nicht verstehe, woher der Mythos kommt. Man braucht wohl schon eine DLSS-fähige GPU, um den Unterschied mal zu sehen. Auch YT-Videos sind da mit der Bitrate etwas untauglich.

Als ich von meiner 1080 mit FSR2 auf ne 4090 mit DLSS umgestiegen bin, hab ich jedenfalls schon einen deutlichen Unterschied bemerkt. Auch in-game während der Widerrufsfrist gerne mal FSR2 mit DLSS verglichen. Da lag DLSS Balanced gelegentlich halt gerne auch mal bei FSR Quality. Aber klar, das ist jetz natürlich nur anekdotisch.

Den Aufwand für DLSS kann man auf nach den Crunch legen, wenn das Spiel gut läuft.
Nicht nötig; aber das mit dem Aufwand wurde ja schon in der Breite durchdisskutiert.
Beitrag automatisch zusammengeführt:

Ein schlecht implementiertes DLSS
Wo wurde denn DLSS denn mal so schlecht implementiert wie FSR2 in seinen ungünstigen Titeln? Es scheint mir deutlich schwerer zu sein, DLSS-Implementierungen zu vermurksen... aber da hab ich zugegebenermaßen jetzt keinen echten Überblick. Edit: mal ganz abgesehen davon, dass es selbst Moddern gelungen ist, bessere DLSS-Implementierungen zu schaffen als den eigentlichen Entwicklern mit FSR.
Beitrag automatisch zusammengeführt:

Bei guter Implementierung sind die beiden in der Tat eng beieinander, das abzustreiten ist absurd.
Das HU-Video kommt da zu nem ganz anderen Schluss und spricht wirklich Bände - oder entsprachen die Game-Samples jedes Mal schlechten FSR-Implementierungen? Das mit dem eng beeinander gilt schon, so ists auch wieder nicht - aber eben nur für 4k@Quality (zugegebenen: der wohl wichtigste Use-Case).
 
Zuletzt bearbeitet:
Das HU-Video kommt da zu nem ganz anderen Schluss und spricht wirklich Bände
Ich weiss ja nicht, ob man ein HU-Video da jetzt als fundierte Quelle nennen sollte, wenn man sich das hier behandelte Thema so anschaut ;)

Wenn du dir die verschiedenen FSR/DLSS-Vergleiche z.b. auf Computerbase anschaust, dann gibt es genug Fälle, wo FSR gleichwertig oder (selten) sogar leicht vorne ist, vor allem ab FSR 2.1.

Es scheint mir deutlich schwerer zu sein, DLSS-Implementierungen zu vermurksen.
Das habe ich ja auch schon geschrieben - und wäre auf jeden Fall auch interessiert, mehr über die Gründe dafür zu erfahren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh