Kommentar: FSR ist ein großer Wurf für AMD – aber auch nur ein erster Schritt

Kein Plan.
Ist halt wie erwartet kein AI wie DLSS, sondern einfach fancy upscaling mit Schärfefilter.

Wenn man nicht nur hier schaut, sondern auch online andere Vergleiche und Kommentare liest, dann ist der Tenor eher "meh".
Beim genaueren betrachten büßt FSR schon richtig derbe Qualität ein. Mal vom "Ultra Qualität" abgesehen.

Ein nahezu identisches Ergebnis würde man wohl mit reduzierten Texturen und AA auch erhalten. Sowohl optisch, als auch von der Performance.

Bin kein Freund davon Dinge auf den Markt kommen zu sehen, die nicht mit bereits vorhandenen Dingen mithalten können. Die sollen entweder schneller sein, besser sein, oder zumindest mithalten.
Die künstlichen 2 Punkte für die Offenheit sind auch eher komplett egal für den Endkunden. Es wird trotzdem mehr DLSS Titel geben, als FSR Titel. Und die ursprüngliche Idee ala "das läuft automatisch über den Treiber!" - ist ja auch wie erwartet nur nen Märchen gewesen. DLSS geht mit nem Klick in den großen Engines, FSR wird weiter Arbeit sein für die Entwickler.

Was ich nicht verstehe, wieso sie nicht einfach DLSS kopiert haben. Ist ja nicht so arg wild das zu machen,... NVidia hatte die Arbeit damit, aber patentieren kann man die einzelnen Schritte ja wohl nicht, da sie nichts Neues sind. An der Uni haben wir das laufend Studenten als Projekte machen lassen, schon seit 8 Jahren oder so. Softwareseitig macht AMD leider weiter wie früher und ist immer 2-3 Schritte hinterher. Früher war das aber egal, weil die Hardware auch 2. Wahl war. Jetzt will man eigentlich AMD Hardware kaufen, aber bekommt dann bei der Software den Finger.

Glaube "meh" trifft es am ehesten.
Besser als nix, aber halt nicht viel besser als nix. Ernüchternd und doch nicht unerwartet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Softwareseitig macht AMD leider weiter wie früher und ist immer 2-3 Schritte hinterher. Früher war das aber egal, weil die Hardware auch 2. Wahl war. Jetzt will man eigentlich AMD Hardware kaufen, aber bekommt dann bei der Software den Finger.
Wenn Du schreibst, dass
Beim genaueren betrachten büßt FSR schon richtig derbe Qualität ein. Mal vom "Ultra Qualität" abgesehen.

Ein nahezu identisches Ergebnis würde man wohl mit reduzierten Texturen und AA auch erhalten. Sowohl optisch, als auch von der Performance.
dem so, ist, warum stört dich dann FSR und man bekommt nen Finger? AMD hat doch nichts weggelassen, sondern mit FSR nur einen einfacheren Weg präsentiert, wie man FPS auf Kosten der Qualität steigern kann, wie man Bildqualität zugunsten der FPS Raten reduziert. Was daran ist der "Finger" ? Was stört dich jetzt? Nen Wundertool mit doppelten Frameraten und nicht wahrnehmbaren Qualitätsabstrichen wird es so schnell nicht geben.

Alle Welt hat von AMD ein DLSS Pendant gefordert, Jetzt hat AMD es technisch fast identisch, aber mit einigen entscheidenden Vorteilen wie Open Source und ohne Hardwarebindung präsentiert, schon schimpfen wieder alle, dass es ja nur wie DLSS ist ...

Was wollt ihr denn?
 
virtuell?
weil einen tft nicht in der nativen Auflösung zu betreiben ist ja schon ein knieschuss per se!
Renderauflösung oder Texturen oder oder oder ...

Auflösung reduzieren geht auch, indem man von nem 4k Monitor beim Spielen Abstand nimmt, solange es keine Grafikkarten im Besitz gibt, die den gewünschten Qualitässtil in gewünschten Frameraten liefert.
Also FHD oder WQHD Monitor, was eben auch einer Auflösungsreduktion gleich kommt.
 
Ist DLSS wirklich künstlich auf Nvidia Hardware beschränkt oder liegt es nicht daran das man die Tensor cores in den Nvidia gpus benötigt um DLSS nutzen zu können?
Beitrag automatisch zusammengeführt:

Nen Wundertool mit doppelten Frameraten und nicht wahrnehmbaren Qualitätsabstrichen wird es so schnell nicht geben.
Ich hatte control letztens getestet. 4k native mit Ultra Settings hatte ich so knapp 35 fps, 4k mit dlss und Ultra Settings hatte ich knapp 60 bis 70 Fps und das Bild war weniger unscharf, sah insgesamt besser aus als native.

Control war aber bisher das einzige Game was ich mit DLSS testen konnte.
 
Ist DLSS wirklich künstlich auf Nvidia Hardware beschränkt oder liegt es nicht daran das man die Tensor cores in den Nvidia gpus benötigt um DLSS nutzen zu können?
Das Ergebnis bleibt das gleiche, wenn Nvidia die Tensor Cores nicht auf anderer Hardware ermöglicht und DLSS an diese Hardwareeigenschaft bindet.
und Hardware wie ne 970 kann man auch schlecht nachrüsten ;)
 
Ich tippe ja eher das Nvidia DLSS auf den Tensor Cores nutzen will, aber nicht zwingend nutzen müsste. Kann natürlich auch ne Frage der Performance sein... Solange Nvidia DLSS nicht für andere Hersteller öffnet werden wir es wohl nie erfahren.

Die zweite Frage ist wohl ob AMD bei FSR in Zukunft eine temporale Komponente nachrüstet oder nicht. Denn das ist derzeit der größte Unterschied zwischen DLSS und FSR.
 
Ist DLSS wirklich künstlich auf Nvidia Hardware beschränkt oder liegt es nicht daran das man die Tensor cores in den Nvidia gpus benötigt um DLSS nutzen zu können?
Beitrag automatisch zusammengeführt:


Ich hatte control letztens getestet. 4k native mit Ultra Settings hatte ich so knapp 35 fps, 4k mit dlss und Ultra Settings hatte ich knapp 60 bis 70 Fps und das Bild war weniger unscharf, sah insgesamt besser aus als native.

Control war aber bisher das einzige Game was ich mit DLSS testen konnte.
Ich hatte auch Cyberpunk getestet. DLSS hat ein ähnliches Problem wie FSR abseits der ersten Stufe, geht's halt bergab in der Qualität.
Auch eine KI wird das Problem nicht lösen können das Informationen fehlen, das Problem ist auch das manche Informationen einfach falsch sind und das Bild verfälscht.
 
Alle Welt hat von AMD ein DLSS Pendant gefordert, Jetzt hat AMD es technisch fast identisch, aber mit einigen entscheidenden Vorteilen wie Open Source und ohne Hardwarebindung präsentiert, schon schimpfen wieder alle, dass es ja nur wie DLSS ist ...

Was wollt ihr denn?

Vor allem will ich nicht verarscht werden.
Die stellen es wie eine DLSS Alternative vor. Das ist es aber nicht. Es ist ein Upscaler mit Schärfefilter.
Die gibt es seit vielen Jahren!

Das, was AMD da liefert, hat nichts, aber auch gar nichts mit DLSS gemeinsam.

Wenn sie einfach ehrlich wären und sagen würden: "Joah, Wir machen keine AI Sachen. Da fehlt das Know-How. Aber wir haben nen Upscaler gebaut, der für den Kunden einfacher zu nutzen ist, als die bereits auf dem Markt befindlichen. Und den Schärfefilter muss der Kunde dann auch nicht mehr selber adden!" - Dann wäre das ok für mich.

Es aber als Alternative zu DLSS hinzustellen, wenn es ein komplett anderes Produkt ist, das nicht mal neu ist. DAS stört mich gewaltig. Reine Verarsche am Kunden und die Fanboys fressen es mal wieder blind. "Technisch fast identisch" - unglaublich. Das ist so identisch wie Kühe und Erdbeerkuchen.

Wie gesagt: Mal neben HardwareLuxx auch andere Kommentare / Reviews durchlesen.

Zitat von Guru3D z.B.:
We feel the quality and Ultra quality modes are acceptable enough to use and read this line well. The performance and balanced modes are a downright offense to PC gamers.
Beitrag automatisch zusammengeführt:

Auch eine KI wird das Problem nicht lösen können das Informationen fehlen, das Problem ist auch das manche Informationen einfach falsch sind und das Bild verfälscht.
Die KI trainiert aber anhand von 16k Bildern.
Sie hat also DIE CHANCE, dass das Ergebnis sogar besser als Nativ ist. Klappt das immer und überall? Nein. Aber die Chance besteht und es gibt durchaus Beispiele dafür.

Ein Upscaler schaut sich ein 720P Bild an und versucht dann zu erraten was da sein könnte in einem 4K Bild.
Das hat also nicht mal die Chance besser zu sein und auch kaum eine Chance gleichwertig zu sein. Wenn man mal einen Screen findet, bei dem das gleichwertig wirkt, dann ist das pures Glück und Zufall.
 
Die KI trainiert aber anhand von 16k Bildern.
Sie hat also DIE CHANCE, dass das Ergebnis sogar besser als Nativ ist. Klappt das immer und überall? Nein. Aber die Chance besteht und es gibt durchaus Beispiele dafür.
Und wenn sie anhand von 32K Bildern trainieren würde, könnte sie es nicht besser machen wie ein Natives Bild.
Das Problem an der KI ist, sie ist nicht konsistent.
Heute ist es ne Katze morgen nicht mehr.
 
Amd hat nie gesagt, dass FSR KI basiert ist und nur weil es das nicht ist, kann es trotzdem eine Alternative darstellen, das haben ja auch die Test gezeigt.

Sie stellen es aber als DLSS Alternative dar und das ist es nicht.
Es ist Augenwischerei und nur eine AMD Version von jedem random Upscaler, den es seit Jahren gibt. Selbst unser 7 Jahre alter TV hat so einen Upscaler mit Schärfefilter gehabt.

Sie haben da einfach nichts neues abgeliefert, sondern bestenfalls etwas Vorhandenes Rebranded.
Daran störe ich mich. Sie verkaufen die Arbeit anderer als ihre eigene und behaupten auch noch, dass es eine Alternative zu DLSS wäre. Sie sagen zwar nicht "gleichgut", aber suggeriert wird es natürlich "ausversehen". Und nein. die Tests haben nicht gezeigt, dass es eine Alternative ist. Sie haben gezeigt, dass man halb blind sein muss, damit man es als Alternative sieht. ;-)

Es gibt natürlich Leute, die wirklich fast blind sind, wenn es um Details in Bildern geht. Ganz wertungsfrei. Ist bewiesen und zeigt sich immer wieder, wenn man liest: "Ich sehe da keinen Unterschied!".
Für die Leute IST es dann eine Alternative natürlich. Aber eben nicht, weil AMD das so toll macht, sondern weil diese Leute rein physisch den Unterschied nicht sehen, oder wahrnehmen können.

Wirklich wertungsfrei hier. Ich selber habe dieses "Problem" bei Audio. Ich höre einfach keinen Unterschied zwischen On-Board Audio und einigen der sau teuren Soundkarten. Für mich also rausgeworfenes Geld. Bedeutet aber nicht, dass der Unterschied nicht da wäre. Das ist er ohne Frage.

Und wenn sie anhand von 32K Bildern trainieren würde, könnte sie es nicht besser machen wie ein Natives Bild.

Natürlich kann sie das und hat sie auch schon.
Besonders sehr kleine Schriftzüge sind nativ kaum lesbar in der Ferne. Mit DLSS sind sie lesbar.
Die Information ist in einem 4k Bild einfach nicht vorhanden, in dem 16K Bild hingegen schon. Und die KI kann das rekonstruieren. Ein Upscaler würde in der Situation lediglich einen schwarzen Strich erkennen in 720P und einen breiten schwarzen Balken daraus machen nach dem Upscaling.

Die Zwei Ansätze könnten unterschiedlicher nicht sein.
 
Besonders sehr kleine Schriftzüge sind nativ kaum lesbar in der Ferne. Mit DLSS sind sie lesbar.
Die Information ist in einem 4k Bild einfach nicht vorhanden, in dem 16K Bild hingegen schon. Und die KI kann das rekonstruieren. Ein Upscaler würde in der Situation lediglich einen schwarzen Strich erkennen in 720P und einen breiten schwarzen Balken daraus machen nach dem Upscaling.
Das Problem ist, genau das hatte ich auch schon beobachtet nur der Text hat keinen Sin ergeben. Während die Original immersion die Textunschärfe war, ist es dank DLSS Lesbar aber bullshit :d
 
Deswegen wird die KI ja trainiert um das in Zukunft zu vermeiden?
Ja naja die wird erstmal trainiert um überhaupt was sinnvolles zu machen. Aber du müsstest ja die KI für jedes Game individuell trainieren. Der Aufwand ist halt einfach enorm und trotzdem hat die ne Fehlerrate.
Beitrag automatisch zusammengeführt:

Die Technik steht halt trotzdem in den Kinderschuhen. Deshalb ist ja AMDs Ansatz so sinnvoll, es ist das hier und jetzt wo sowas gefehlt hat. Ich will ja DLSS gar nicht madig reden, aber für Consumer Technik einfach zu früh, zu teuer zu unflexibel. Es halt ein Alpha Produkt, der Entwurf war DLSS 1.0 ... RTX, sieht Klasse aus aber genau das gleiche Problem... echt Marktreife ab nächster Generation. So lange etwas nicht Mainstream ist und selbst ne "Multimedia" Karte befriedigend kann ist es im Entwicklungsstand.
 
Zuletzt bearbeitet:
Ja naja die wird erstmal trainiert um überhaupt was sinnvolles zu machen. Aber du müsstest ja die KI für jedes Game individuell trainieren. Der Aufwand ist halt einfach enorm und trotzdem hat die ne Fehlerrate.
Das war der Ansatz von DLSS 1.0, das es für game-spezifisch antrainiert wird, das wurde mit der Implementierung von DLSS 2.0 geändert, da man eben gemerkt hat das es nicht das eigentliche Problem löst. Natürlich ist der Aufwand enorm, aber dafür gibt es wenigstens die Möglichkeit einer Lösung. Bei konventionellem Upscaling, was FSR derzeit ist, gibt es diese Informationen schlichtweg nicht und daher werden sie einfach ignoriert und dann gehofft das es mit dem Post-Processing niemandem auffällt. Genau das meint Tech damit wenn er sagt, dass es zwei komplett unterschiedliche Technologien sind, die eben nicht vergleichbar sind. Derzeit haben sowohl DLSS als auch FSR ähnliche Resultate, aber die Herangehensweise und das Ziel sind komplett unterschiedlich.

hab den Edit zu spät gesehen: Also ist deine neue Beschwerde das NVIDIA mit DLSS und RTX neue Wege beschreitet und die Entwicklung davon voran treibt (oder warum hat AMD plötzlich mehr Interesse an RT und verbaut spezifische RT Units seit RDNA2?)? Natürlich ist das nicht von Anfang an perfekt, waren auch viele AMD Treiber nicht, aber wenn man es nicht ausprobiert werden wir halt weiterhin nachgeschärfte Frames anschauen und denken das wäre das NonPlusUltra.
 
Zuletzt bearbeitet:
Das war der Ansatz von DLSS 1.0, das es für game-spezifisch antrainiert wird, das wurde mit der Implementierung von DLSS 2.0 geändert, da man eben gemerkt hat das es nicht das eigentliche Problem löst. Natürlich ist der Aufwand enorm, aber dafür gibt es wenigstens die Möglichkeit einer Lösung. Bei konventionellem Upscaling, was FSR derzeit ist, gibt es diese Informationen schlichtweg nicht und daher werden sie einfach ignoriert und dann gehofft das es mit dem Post-Processing niemandem auffällt. Genau das meint Tech damit wenn er sagt, dass es zwei komplett unterschiedliche Technologien sind, die eben nicht vergleichbar sind. Derzeit haben sowohl DLSS als auch FSR ähnliche Resultate, aber die Herangehensweise und das Ziel sind komplett unterschiedlich.

hab den Edit zu spät gesehen: Also ist deine neue Beschwerde das NVIDIA mit DLSS und RTX neue Wege beschreitet und die Entwicklung davon voran treibt (oder warum hat AMD plötzlich mehr Interesse an RT und verbaut spezifische RT Units seit RDNA2?)? Natürlich ist das nicht von Anfang an perfekt, waren auch viele AMD Treiber nicht, aber wenn man es nicht ausprobiert werden wir halt weiterhin nachgeschärfte Frames anschauen und denken das wäre das NonPlusUltra.
AMD verbaut RT Cores, weil sich die Industrie dazu entschieden hat Raytracing in DX12 reinzubauen, dadurch ist es nicht mehr proprietär sondern erlaubt die Implementierung über DX12, während Nvidias RTX auch mit DX11 läuft, geht AMDs nur mit DX12 fähigen spielen. Vulkan kann mittlerweile auch Raytracing.

Genau das ist der Punkt den viele kritisieren, das gibt es bei DLSS nicht.
Also AMD könnte nicht was vergleichbares auf den Markt bringen und das würde nahtlos laufen oder wäre einfach zu integrieren, weil die Games alle DX12 oder Vulkan können und eine passende Schnittstelle bieten.
Jeder Softwareentwickler müsste, Nvidias DLSS und AMDs AGSS (Erfundener Name Für Artificial Guideded Super Sampling oder so xD) für AMDs echtes Gegenstück ins Spiel separat integrieren, optimieren und testen und es gibt keine NEUTRALE Schnittstelle die unterschiedliche Hardware verarbeitet.
Shader sind quasi so, da ist die Funktion X und die läuft sowohl auf AMD als auch auf Nvidia Karten und die Treiber regeln runter auf Maschinensprache.
Der Entwickler muss sich keine Gedanken machen "überspitzt" wie es auf welcher Grafikkarte läuft, darum kümmern sich dann die jeweiligen Hardwarehersteller (Deshalb hinkt hier in der roh Leistung Intel so hinterher) im vergleich dazu x86//x64 Architektur bei Prozessoren, deinem Game/System/Software ist es relativ egal welche Hardware verbaut ist solange eine gewisse Leistung an Rechenoperationen erreicht wird und für die Aufgabe die Funktionen Y übersetzt werden kann.

Ich vergleiche es mit Nikolai Tessla(AMD) und Thomas Eddison(Nvidia).

Eddison hat den Gleichstrom entdeckt und mit einem Haufen Patente erdrückt. (Gleichstrom ist ein Geschenk an alle Elektronischen Geräte keine Frage und nicht weg zu denken)
Aber Tesslas Wechselstrom ermöglichte allen Menschen Strom zu bekommen und davon was zu haben.
Es war günstiger zu transportieren und konnte eine höhere Reichweite erzielen.
Während Eddisions Gleichstrom nur kurze Strecken schaffen konnte und teuer war, etwas nur für die Wohlhabenden mit niedriger Verbreitung an die Menschen/Kunden.

Mittlerweile wissen wir, das wir beide brauchen und für den Alltag sind beide unerlässlich.

Und genau dieser vergleich trifft super auf DLSS und FSR zu.

Und genau an der stelle finde ich es madig von Nvidia keine Möglichkeit zu schaffen dem Wettbewerber auch Zugang zu der Schnittstelle zu gewähren, es geht nicht darum AMD oder Intel zu verraten wie der Algorithmus geht den Nvidia verwendet (Patent), sondern nur den anderen zu ermöglichen auch Hardware zur Verfügung zu stellen die mit Algorithmus laufen kann quasi "DLSS ON", wie man beim vergleiche Nvidia/AMD RTX sehen kann, ist Nvidia dort immer noch vorne bezüglich Performance/Qualität, aber AMD oder Intel kann das eben auch nutzen ohne Nvidias Geheimnisse zu kennen was sie besser machen.
 
FSR hab ich noch nicht gefunden aber, gegenüber DLSS 2.2 sehen bei Native vorallem die Lichtquellen besser aus

 
Zuletzt bearbeitet:
Ich vergleiche es mit Nikolai Tessla(AMD) und Thomas Eddison(Nvidia).

Eddison hat den Gleichstrom entdeckt und mit einem Haufen Patente erdrückt. (Gleichstrom ist ein Geschenk an alle Elektronischen Geräte keine Frage und nicht weg zu denken)
Aber Tesslas Wechselstrom ermöglichte allen Menschen Strom zu bekommen und davon was zu haben.
Es war günstiger zu transportieren und konnte eine höhere Reichweite erzielen.
Während Eddisions Gleichstrom nur kurze Strecken schaffen konnte und teuer war, etwas nur für die Wohlhabenden mit niedriger Verbreitung an die Menschen/Kunden.

Und genau an der stelle finde ich es madig von Nvidia keine Möglichkeit zu schaffen dem Wettbewerber auch Zugang zu der Schnittstelle zu gewähren, es geht nicht darum AMD oder Intel zu verraten wie der Algorithmus geht den Nvidia verwendet (Patent), sondern nur den anderen zu ermöglichen auch Hardware zur Verfügung zu stellen die mit Algorithmus laufen kann quasi "DLSS ON", wie man beim vergleiche Nvidia/AMD RTX sehen kann, ist Nvidia dort immer noch vorne bezüglich Performance/Qualität, aber AMD oder Intel kann das eben auch nutzen ohne Nvidias Geheimnisse zu kennen was sie besser machen.
Woher kommt eigentlich immer dieser romantische Traum von Tesla dem Menschenfreund? Tesla hatte knapp 300 Patente und ca. 200 davon drehten sich um AC und dessen Verwendungsmöglichkeiten. Hätte er es sich nicht mit jedem seiner Geldgeber verscherzt durch seine exzentrischen Angewohnheiten, hätte er vermutlich noch um einiges mehr.

Erkläre mir doch bitte mal was die DLSS-Schnittstelle ist. Ihr werft andauernd mit diesem Begriff um euch, aber bisher fehlt mir jede Spezifikation dazu, denn DLSS ist eine Implementierung der KI-basierten Berechnung von fehlenden Pixeln, die in den Treiber von NVIDIA eingebaut wurde.
 
Erkläre mir doch bitte mal was die DLSS-Schnittstelle ist. Ihr werft andauernd mit diesem Begriff um euch, aber bisher fehlt mir jede Spezifikation dazu, denn DLSS ist eine Implementierung der KI-basierten Berechnung von fehlenden Pixeln, die in den Treiber von NVIDIA eingebaut wurde.
1624612686686.png


Eine Schnittstelle ist was das unabhängig von einander ist. z. B könnte Intel Hardware zur Verfügung stellen mit gewisser Rechenkapazität ohne Ahnung oder Informationen zu haben wie DLSS im Detail funktioniert.
Die Schnittstelle würde sich darum kümmern es in eine Universelle Sprache zu übersetzten die jede Hardware oder Software verstehen kann und so nutzen kann, natürlich das nicht so effektiv wie in nativer/direkter Sprache. Aber es würde funktionieren.

Sowas wird z. B gemacht wenn man ARM/Handy Emulation mit Bluestacks macht, damit dein X86 Prozessor das verarbeiten kann. Dazwischen ist eine Schnittstelle die den Code in die jeweilige Sprache übersetzt.

Intel hat seine Sprache, AMD, Nvidia, ARM, RISC, Samsung, Huawei (Hisilicon) usw. Aber alle verstehen z. B die Sprache C. Nvidia DLSS ist Java, keine Sau kann Java... die Schnittstelle würde dafür sorgen das Java in C übersetzt wird und damit können die anderen auch was anfangen bzw. die Informationen verarbeiten. Um nichts anderes geht es bei der Forderungen von vielen nach einer Schnittstelle und technisch ist es machbar.

Laut dem Wikieintrag

2.0 (first iteration)August 2019First 2.0 version, also referenced as version 1.9, using an approximated AI of the in-progress version 2.0 running on the CUDA shader cores and specifically adapted for Control[7][3][11]

War die erste Version DLSS für Control sogar nicht Tensor Cores basierend sondern Shader basierend und Shader können alle Grafikkarten.

Freilich wäre das weniger effektiv, das ist wie damals mit Physics in den 2000er Jahren als den Aegia Treiber gab der Physics in Software(universell) übersetzt hatte.
Aber so konnten auch Nutzer mit ihren Karten überhaupt Physics basierte Games spielen auch wenn das Resultat eher nüchtern war.
Nur Nvidia wollte das nicht, weil somit wären auch Karten aus den eigenen Reihen wie eine 1080TI viel überragend gewesen, in Bezug auf DLSS.
Man will den Kunden dazu nötigen neue Hardware kaufen zu müssen, es steht außer frage das Tensor cores dafür besser geeignet und schneller und besser sind.

Aber die Möglichkeit ein DLSS "Light" zu implementieren wäre halt möglich.
 
Zuletzt bearbeitet:
Die Schnittstelle würde sich darum kümmern es in eine Universelle Sprache zu übersetzten die jede Hardware oder Software verstehen kann und so nutzen kann, natürlich das nicht so effektiv wie in nativer/direkter Sprache. Aber es würde funktionieren.
Das ist nicht wie eine Schnittstelle in diesem Bereich funktioniert. Eine Schnittstelle stellt standardisierte Befehle, so genannte Calls zur Verfügung, die integriert werden - das hat nichts mit unterschiedlichen Sprachen sondern mit einheitlichen Registerbefehlen zun tun.
Sowas wird z. B gemacht wenn man ARM/Handy Emulation mit Bluestacks macht, damit dein X86 Prozessor das verarbeiten kann. Dazwischen ist eine Schnittstelle die den Code in die jeweilige Sprache übersetzt.
Das ist ein Emulator mit einem eingebauten Interpreter - man könnte es grob als Schnittstelle bezeichnen, aber grobe Oberbegriffe für spezifische Dinge zu benutzen führt zu absolut nutzlosen Aussagen.
Intel hat seine Sprache, AMD, Nvidia, ARM, RISC, Samsung, Huawei (Hisilicon) usw. Aber alle verstehen z. B die Sprache C. Nvidia DLSS ist Java, keine Sau kann Java... die Schnittstelle würde dafür sorgen das Java in C übersetzt wird und damit können die anderen auch was anfangen bzw. die Informationen verarbeiten. Um nichts anderes geht es bei der Forderungen von vielen nach einer Schnittstelle und technisch ist es machbar.
Ich hoffe Du meinst das nur als Beispiel, denn wenn Du denkst DLSS wäre in Java, haben wir ganz andere Probleme :d
War die erste Version DLSS für Control sogar nicht Tensor Cores basierend sondern Shader basierend und Shader können alle Grafikkarten.
Tolle Einsicht, allerdings war DLSS1.0 auch wie Du am Beispiel von PhysX richtig festgestellt hast, einfach scheisse, denn die normalen Shaderbefehle sind für den Einsatzzweck nicht gedacht. Daher ist man vom per-game Prinzip zu einem auf Tensor-basierten allgemeinen Prinzip gewechselt um die einstige Vision zu verwirklichen. Wenn man sich anschaut wie gut DLSS2 im Vergleich zu 1 ist auch ein richtiger Schritt. Die Voraussetzung von TensorCores schließen aber leider ältere Generationen aus, so ist der Lauf der Dinge.

Gibts eigentlich einen DLSS-Thread, hat ja doch Recht wenig mit FSR zu tun? :d
 
Zuletzt bearbeitet:
Ich glaube hast entweder keine Ahnung von Informatik oder das ist nur trollen. Wenn du nicht verstehen willst das Nvidia das bei sich selbst schon so gemacht in dem sie Shader statt Tensor cores genutzt haben...
Beitrag automatisch zusammengeführt:

  • The neural network stored on the driver compares the actual low resolution image with the reference and produces a full high resolution result.[Schnittstelle hier] The inputs used by the trained neural network are the low resolution aliased images rendered by the game engine, and the low resolution, motion vectors from the same images, also generated by the game engine. The motion vectors tell the network which direction objects in the scene are moving from frame to frame, in order to estimate what the next frame will look like.[17]

Das heißt alles was Treiberseitig ist, dafür ist jeweils der Hardwarehersteller verantwortlich ob er dann trainierte AI referenzierte Bilder verwendet oder er "FSR" Fake Bilder ansetzt um die Lücken zu füllen, sei dann quasi dem jeweiligen Hersteller zu verantworten.

Aber so könnte AMD oder INTEL tatsächlich auch sowas nutzen in dem sie eigene Trainings Daten verwenden würden um die Funktion zu erfüllen ohne zu wissen was Nvidia da besonders speziell macht usw.

Jetzt werden wir halt in zukünftigen Spielen zwei verschiedene Optionen hoffentlich angeboten FSR für alle und DLSS... für Geforce Nutzer. Hätte man sich alles sparen können in dem man es wie bei Raytracing "vereinheitlicht".
 
Zuletzt bearbeitet:
Jetzt werden wir halt in zukünftigen Spielen zwei verschiedene Optionen hoffentlich angeboten FSR für alle und DLSS... für Geforce Nutzer. Hätte man sich alles sparen können in dem man es wie bei Raytracing "vereinheitlicht".
Das hätte AMD ja auch machen können, so wie mit RT.
Da sind sie doch am Tisch gesessen mit NVidia, Microsoft und co und haben die RT Spezifikationen besprochen.
Auch besprochen wurde DLSS (bzw. die allgemeine Sache) und AMD meinte, sie würden nicht mit AI arbeiten wollen. Ergo wurde keine Schnittstelle beschlossen, weil Intel noch weit weg war,... AMD nicht wollte und Nvidia nicht 4-5 Jahre abwarten wollte.

Die Entscheidung auf AI zu verzichten war halt falsch von AMD.
Warum sie das nun nicht revidieren, nachdem es auch dem letzten klar ist, kann uns nur AMD sagen. Daraus eine DX12 Sache zu machen, steht sicher weiter im Raum. Aber da müssen schon alle wollen. Nvidia wird es AMD sicher nicht aufzwingen. ;-)
 
Die Entscheidung auf AI zu verzichten war halt falsch von AMD.
Warum sie das nun nicht revidieren, nachdem es auch dem letzten klar ist, kann uns nur AMD sagen. Daraus eine DX12 Sache zu machen, steht sicher weiter im Raum. Aber da müssen schon alle wollen. Nvidia wird es AMD sicher nicht aufzwingen. ;-)
Ja mag schade sein, aber alleine schon der Zwang was sehr spezielles zu verwenden was zufällig nur Nvidia für genau diesen Zweck entworfen hat ist halt schwierig.
Wie oben erwähnt man hätte da die Lücke offen lassen können wie das Resultat am ende beeinflusst wird ob Nvidia KI, EPICS Unreal TSR? oder AMDs FSR sind zwar unterschiedliche Ansätze mit dem gleichen grundlegenden Ziel, mehr FPS bei wenig Qualitätsverlust.
Ich hoffe ja so, das man als Geforce Besitzer möglicherweise in den Genuss kommen könnte sogar beides zu verwenden/kaskadieren zu können... liegt dann aber wohl im ermessen des Entwicklers so einzufädeln.
Quasi auf ein DLSS Bild FSR drüber bügeln, könnte am ende besser sein als nur DLSS "Balance".
 
Aha, schonmal daran gedacht, dass das die Voraussetzung für einen offenen Standard ist!?
Nein, weil das nicht so ist.
Ja mag schade sein, aber alleine schon der Zwang was sehr spezielles zu verwenden was zufällig nur Nvidia für genau diesen Zweck entworfen hat ist halt schwierig.
Derartige Rechencores gibt es schon ne ganze Weile länger als DLSS.
Keiner hält AMD davon ab, das nicht auch einfach zu kopieren. RT kopieren sie doch auch?!

Wenn die Konkurrenz zuerst eine gute Sache umsetzt, dann muss man eben den Stolz herunterschlucken und nachbauen.
Apple baut quasi alles nach und innoviert null. Die fahren damit doch nicht unbedingt schlecht, oder?

Quasi auf ein DLSS Bild FSR drüber bügeln, könnte am ende besser sein als nur DLSS "Balance".
Das kann ich mir mal gar nicht vorstellen. Erst die Nachteile von DLSS nehmen und dann noch mit den Nachteilen von FSR multiplizieren?
Das würde nur dann klappen, wenn DLSS 3.0 irgendwann in JEDEM Fall besser als nativ aussieht. Da es bei 2.0 aber noch eher selten der Fall ist, wird das sicher noch dauern (wenn sie überhaupt den Bedarf sehen so weit zu entwickeln).
 
Ein DLSS Alternative ist es für mich nicht. Eher was für Faule, oder Leute die sich mit dem WM nicht befassen. Auflösung auf 75% und RIS auf 100% bringt dasselbe (vielleicht sogar schärfer).
 
Ein DLSS Alternative ist es für mich nicht. Eher was für Faule, oder Leute die sich mit dem WM nicht befassen. Auflösung auf 75% und RIS auf 100% bringt dasselbe (vielleicht sogar schärfer).
Naja, das ist ja auch fast dasselbe, daher. ;-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh