AMD FidelityFX Super Resolution: Bildqualität und Leistung im Test

Das erste, sieht man relativ deutlich an den Backsteinen, die sind im zweiten um einiges unschärfer, ähnlich mit der Sicherungsbox, den Blättern am Baum, den Kabeln am Strommast und den Gittern der ACs
Leider Falsch genau anders rum !
Das erste ist mit FSR und 30% schärfen im Amd Treiber!

Hier mal ohne schärfen .
Sieht trotzdem schärfer aus .

Nativ


FSR Ultra
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das beweist doch aber umso mehr, wie gut AMD der erste Wurf mit FSR gleungen ist. Wenn man bedenkt, dass diese Technologie neu ist und auf jeden Fall weiterentwickelt wird, darf man auf die künftigen Ergebnisse sehr gespannt sein.
 
Das beweist doch aber umso mehr, wie gut AMD der erste Wurf mit FSR gleungen ist.

FSR: It just Works
f065.gif
 
Das beweist doch aber umso mehr, wie gut AMD der erste Wurf mit FSR gleungen ist. Wenn man bedenkt, dass diese Technologie neu ist und auf jeden Fall weiterentwickelt wird, darf man auf die künftigen Ergebnisse sehr gespannt sein.
Das beweist eher wie grausig die Texturen des Spiels sind, wenn natives 4K so unscharf ist, dann sind die Texturen definitiv nicht in 4K vorhanden sondern werden von der Engine selber hochskaliert. Dann machts natürlich auch Sinn das FSR mit seinem Post-Processing schärfer aussieht. @Thunderburne hast Du zufällig auch Godfall? Wurde ja mit 4K Texturen und allem möglichen Bling Bling angekündigt, da wäre so ein Vergleich mal cool!
 
Ne hab Goodfall nicht!
Konnte mich nur zum reinschauen bisher nicht durchringen dafür Geld auszugeben obwohl es mich schon reizt weil es Technisch das neueste ist welches auf FSR Raytracing usw setzt.
Riftbreaker habe ich mir angesehen .
Es gibt ein Paar Dinge die sehen dort unschärfer aus und andere genauso wie in 4K wen ich aber mit RIS bei gehe ist das Ergebnis Top und vor allem mit Maxout Raytracing Settings unter FSR Ultra in 4K mit reichlich FPS .
 
Zuletzt bearbeitet:
Das beweist eher wie grausig die Texturen des Spiels sind, wenn natives 4K so unscharf ist, dann sind die Texturen definitiv nicht in 4K vorhanden sondern werden von der Engine selber hochskaliert.
Texturen sind nicht "in 4K" die sind entweder hochaufgelöst genug oder nicht. Hat nix mit 4K zu tun.

Und wenn selbst AAA-Titel Texturen nicht hochaufgelöst genug haben, das sie in 4K absolut scharf aussehen, wirft dann eher die Frage auf, wie gut das FSR/DLSS denn überhaupt sein muss, wenn selbst nativ nicht "gut genug" aussieht?
Also ich habe bei den beiden Screenshots mit reinzoomen zwar hier und da kleine Unterschiede gefunden, die waren aber nicht so konsistent, das ich mich festlegen hätte wollen, welches Bild nun nativ und welches FSR ist. Ich finde z.B. die Ziegelsteine auch nicht durchgängig in einem der beiden Bilder unschärfer. Sondern sie sind an manchen Stellen schärfer, an anderen weniger (z.B. in den Schatten).
Wenn ich entsprechend an stehenden Screenshots mit Reinzoomen schon kaum Unterschiede finde, dann ist das für mich definitiv der Beweise, das das Upscaling auf jeden Fall schonmal "gut genug" funktioniert. In einem bewegten Spiel werde ich davon noch viel weniger merken.
 
4K ist eine Form der Schreibweise für hochauflösende Texturen, natürlich gibt es Unterschiede zwischen "4K" Texturen, die auf ein Objekt gemappt werden und das was wir als 4K bei Monitoren bezeichnen. Trotzdem hat sich gerade in der Spieleentwicklung bzw. im Marketing solcher Spiele der Begriff von "4K Texturen", die meistens eine Größe von 2048x2048 oder eben 4096x4096 aufweisen, etabliert. Wenn man z.B. an Godfall, Cyberpunk, Witcher 3 mods, GTA5, Project Cars und unzählige weitere Spiele denkt. Terminator: Resistance als Triple-AAA Titel zu bezeichnen halte ich auch mehr als fraglich :d
Im übrigen ist die Annahme das man in einem bewegten Spiel noch weniger davon sieht, bei mir zumindest, falsch, da FSR eben genau da anfängt zu flimmern bzw. mehr "unruhe" im Bild zu zeigen, da der Ansatzpunkt bisher keine temporalen Datenpunkte miteinbezieht. In Ultra Quality mag das vielleicht kaum auffallen, aber bei allen Modi darunter ist das doch kaum zu übersehen.
Gamer Nexus hat meiner Meinung ein sehr gutes Video dazu gemacht, vor allem mit bewegten Bildern :d
 
Im übrigen ist die Annahme das man in einem bewegten Spiel noch weniger davon sieht, bei mir zumindest, falsch, da FSR eben genau da anfängt zu flimmern bzw. mehr "unruhe" im Bild zu zeigen, da der Ansatzpunkt bisher keine temporalen Datenpunkte miteinbezieht. In Ultra Quality mag das vielleicht kaum auffallen, aber bei allen Modi darunter ist das doch kaum zu übersehen.
Ich glaube an die Religion des Energieerhaltungssatzes und daher, das es nicht möglich ist, die FPS bei gleicher GPU-Rohleistung ohne jegliche Verluste nennenswert zu steigern.
Deswegen muss ich bei solchen Sachen wie dem Gamernexus-Video immer Schmunzeln, wenn argumentiert wird "Bei 500% Zoom sieht man ganz klar, das das Gras mit FSR etwas unscharf ist". *lol* Ja, das erste was ich in jedem Spiel mache ist mir das Gras bei 500% Zoom genauer anzusehen. Klar sehe ich da Unterschiede zwischen Nativ und FSR, aber finde ich jetzt nicht gravierend. Das ist schon meckern auf sehr sehr sehr sehr sehr sehr hohem Niveau.

Bei den Vergleichszenen von Riftbreakter sieht Nativ zwar ein klein wenig besser aus, was mir da allerdings als Erstes auffällt ist, das es ruckelt wie sau. Nicht aufgrund der Bildqualität sondern aufgrund des Ruckelns habe ich das korrekt als Nativ identifiziert und FSR Performance aufgrund der Unschärfe. Hätte Nativ nicht geruckelt, hätte ich mich vermutlich nicht zwischen Nativ und FSR Quality entscheiden können.

Ein Flimmern konnte ich da jetzt aber nirgends erkennen.
Dazu kommt, das man idR die Grafikdetails wenn man wirklich was spielt nicht side-by-side vergleicht. Sprich, kannst du FSR Ultra Quality erkennen, wenn du kein natives 4K-Vergleichsbild nebendran hast? Vermutlich würdest du dann das, worüber du beim direkten Vergleich meckerst, nichtmal als Manko erkennen. Oder was wird erwartet? Das man überhaupt keine Unterschiede, selbst mit Zoom, erkennt? Also bitte, die findet man selbst bei DLSS2.0 wenn man so genau hinsehen will.

Aber es sieht jedenfalls alles tausendmal besser aus als was ich bisher mit TAA-Upscaling und sonstwas gesehen habe und scheint selbst in Ultra Quality mehr FPS als andere Verfahren zu bringen. Von daher ein super Fortschritt und ein doch recht guter Start der Technik. Da stand die erste Version von DLSS deutlich schlechter da.

Edit: Was bei einem Videovergleich natürlich auch immer mit dazuspielt ist, wieviel man von einem UHD-Video auf einem WQHD-Monitor tatsächlich sieht. Auf einem 4K-Monitor würde man vermutlich doch noch etwas mehr sehen.
 
ICh Persönlich glaube ja das AMD wenig Probleme haben wird FSR an die entwickler zu bekommen. Alleine wenn man Überlegt das die XBox und die Playstation technisch in der lage sind dies zu nutzen. Das beides Unterstützt wird von einem Siel ist technisch ja möglich, abhängig davon wie groß der Aufwand für die Entwickler ist kann es auch sein das sich FSR zum Standart entwickeln wird, und das ohne viel Zutuen von AMD selber.

Was die Anzahl der Spiele Angeht zum Start, finde ich es schon in Ordnung das es überhaupt welche gibt die es nutzen können. Da kennen wir andere Releases wo es technisch möglich war etwas zu nutzen, aber es einfach nichts gab was es nutzte. Paradebeispiele sind hier TV Geräte und Home Cinema.

Für mich ist entscheidend das etwas als OpenSource verfügbar gemacht wird, was alle nutzen können. Geile Nummer von AMD.
 
Du hast da was missverstanden, meine Erfahrung in Bewegung bezieht sich auf meine eigenen Tests in Anno und Evil Genius. Vor allem in Evil Genius 2 mit seinen metallischen Oberflächen hat man ein sehr unruhiges Bild selbst in Ultra Quality während einer Kamerafahrt. Alles unter Ultra Quality ist meiner Meinung nach so oder so nicht nutzbar ohne deutliche Abstriche bei der Schärfe zu machen. Wie schon gesagt, FSR ist ganz nett, aber ich bin froh DLSS nutzen zu können und erhoffe mir mit dem AI Ansatz ein, auf lange Sicht gesehen, besseres Ergebnis.
Das Video von GN war einfach so als Info, da er meiner Meinung nach sehr gut auf das komplette Thema FSR eingegangen ist.
 
Du hast da was missverstanden, meine Erfahrung in Bewegung bezieht sich auf meine eigenen Tests in Anno und Evil Genius.
Achso, das kann ich natürlich nicht angucken. :d

Alles unter Ultra Quality ist meiner Meinung nach so oder so nicht nutzbar ohne deutliche Abstriche bei der Schärfe zu machen. Wie schon gesagt, FSR ist ganz nett, aber ich bin froh DLSS nutzen zu können und erhoffe mir mit dem AI Ansatz ein, auf lange Sicht gesehen, besseres Ergebnis.
Naja, DLSS konnte ich nur mal mit einer geliehenen 2080Ti testen und da war unter Quality auch deutlicher Verlust zu sehen. Der Vergleich ist also relativ und sollte dann schon in beiden Fällen auf ähnlichen Qualitätseinstellungen basieren. Und wenn man durch Ultra Quality auch schon ~30% mehr FPS rausholt, passt das doch ganz gut. Recht viel mehr wars bei mir mit DLSS auch nicht.
Das DLSS insgesamt noch besser sein mag, will ich gar nicht bestreiten, aber FSR ist ja momentan auch nur die erste Version. Dafür stört mich an DLSS eben massiv, das es halt Proprietär ist.
 
Oh ja, keine Frage, DLSS in niedrigeren Einstellungen hat ähnliche Probleme, vor allem die Unschärfe in Bewegung nimmt deutlich zu, da bin ich doch sehr froh über DLSS2.0, da wurde viel dran gemacht. 1.0 war grauenhaft imo. Bei dem Proprietär stimme ich Dir zu, allerdings ist das auch ein bisschen der Implementierung geschuldet, da NVIDIA für die AI Berechnung ihre Tensor Cores, die dafür ausgelegt sind, benutzt. Ich denke AMD hat sich das Thema auch genau angeschaut, aber dann gemerkt das es nicht praktikabel ist ohne dedizierte Hardware auf diesen Ansatz zu bauen. Daher der "simple" Weg über die Auflösung + PostProcessing - was eben den Vorteil der breiten Verfügbarkeit für jede Hardware hat.
 
Das dürfte schon DLSS2.0 bei mir gewesen sein. Control hat da irgendwann ein Update gekriegt, iirc.

Das "warum" beim Proprietär interessiert mich eigentlich nicht, auch wenn ich es technisch durchaus verstehe. Ich habe auch nichts dagegen, wenn dafür extra Hardware benötigt wird, aber die sollte zumindest offene Schnittstellen haben und damit die Anwendung auch offen sein. Dann könnte auch AMD oder Intel eigene TensorCores entwickeln, die halt die gleiche Schnittstelle haben.
Stell dir mal vor, Shader wären nicht spezifiziert und NVidia würde Shaderkerne verwenden, die nicht (zumindest letztendlich auf Treiberebene) mit denen von AMD kompatibel sind? Na viel Spass. Aber genau das tun sie im Prinzip mit ihren propritären Tensor-Cores und damit auch DLSS.
Ich sehe das andersrum auch nicht so eng. FSR hat im Prinzip auch nur eine Schnittstelle und eine OSS-Implementierung. Würde mich jetzt nicht wundern, wenn FSR auch von den Tensor-Kernen profitieren könnte. Dazu müsste Nvidia nur eine eigene FSR-Implementierung machen. Könnte dann evtl. sogar dazu führen, das FSR auf NVidia-Karten performanter wäre als auf AMDs. Aber es wäre halt eben nicht proprietär.

Die Schnittstelle war meist bisher DirectX/3D. Zu der "musste" man halt kompatibel sein, früher war eine Zeitlang mal DirectX vorraus und die Hardware wurde hinterhergebaut. Aktuell scheint es (leider) eher so, das die Hardware weiter ist als DirectX. Auch wenn die Hardware im Detail unterschiedlich funktioniert, hat der Grafiktreiber diese Kompatibilität hergestellt. Das Beste wäre also wohl, wenn DirectX (oder noch besser Vulkan) eine Schnittstelle für so einen Upscaler vorsieht. AMD und NVidia müssen das dann halt implementieren. Ob das AMD dann über Shader und NVidia über TensorCores macht, spielt keine Rolle. Entweder die Graka kann upscalen oder halt nicht. Das WIE ist völlig egal. Grafiktreiber für ältere Grafikkarten können upgedatet werden, falls die technisch in der Lage wären, so eine Implementierung auch ohne Spezialhardware anzuwenden.
War bei RTX nicht anders. RTX ist erstmal eine propritäre Nvidia-Lösung. Die universelle Lösung kommt erst durch DirectX's DXR, an das NVidia auch sein RTX angebunden hat. Und AMD eben auch seine Raytracing-Lösung, auch wenn die technisch völlig anders funktioniert. Es bleibt dann halt so: Ein Spiel das direkt RTX nutzt, wird auch in Zukunft nur auf NVidia-Karten laufen. Ein Spiel das DXR nutzt, wird aber in Zukunft auf allen Karten laufen, die halt DXR anbinden.
 
Naja, NVIDIA hat sehr wohl die Tools für ihre DeepLearning Tensor Unterstützung als OSS veröffentlicht - siehe dazu https://developer.nvidia.com/open-source unter Deep Learning. Das heißt AMD könnte auf Basis dieses Codes ebenfalls ein DLSS entwickeln (und wie gesagt ich vermute sie haben sich das sehr gut überlegt aber sich dann dagegen entschieden, vermutlich weil es auf nicht Tensor Cores zu viel Leistung bzw. Latenz kosten würden). Wie bei den meisten AI-basierten Sachen ist nicht der Alghorithmus das wertvolle sondern die antrainierte Datenbank und da kann ich NVIDIA schon verstehen, warum sie diese nicht unbedingt allen zur Verfügung stellen wollen. (kleine Randbemerkung, DLSS wird bald sogar unter Linux verfügbar sein da NVIDIA und Steam an einer Proton Unterstützung arbeiten, ist zwar auch mehr oder weniger proprietär, aber kommt zumindest Linux als Plattform zu Gute)
 
Es geht um die Schnittstellen, nicht die Implementierung (und dazu zähle ich auch die trainierte Datenbank). AMD kann eben nichts DLSS-kompatibles entwickeln, weil die Schnittstelle von DLSS nicht offen ist. Sie können ein eigenes KI-basiertes Upscaling entwicklen und trainieren, klar, aber das wird eben nicht DLSS-kompatibel sein. Sprich ein Spiel wird wieder nur entweder NVidias DLSS oder AMDs Wieauchimmerdasdannheißt können.
AMD machts genau umgekehrt. Bei FSR ist die Schnittstelle und sogar die Implementierung OSS. Das heisst NVidia (oder Intel, oder ARM, oder...) kann sogar die Implementierung direkt benutzen, oder halt Schnittstellenkompatibel was eigenes bauen. Ein Spiel muss nur die Schnittstelle beherrschen, ob da dann eine NVidia-Implementierung oder eine Intel-Implementierung dahintersteckt ist dem Spiel dann egal.
Genau das geht aber mit NVidias Lösung nicht. Und das ist halt ziemlich blöd für die Kunden.
 
Es geht um die Schnittstellen, nicht die Implementierung (und dazu zähle ich auch die trainierte Datenbank). AMD kann eben nichts DLSS-kompatibles entwickeln, weil die Schnittstelle von DLSS nicht offen ist. Sie können ein eigenes KI-basiertes Upscaling entwicklen und trainieren, klar, aber das wird eben nicht DLSS-kompatibel sein. Sprich ein Spiel wird wieder nur entweder NVidias DLSS oder AMDs Wieauchimmerdasdannheißt können.
AMD machts genau umgekehrt. Bei FSR ist die Schnittstelle und sogar die Implementierung OSS. Das heisst NVidia (oder Intel, oder ARM, oder...) kann sogar die Implementierung direkt benutzen, oder halt Schnittstellenkompatibel was eigenes bauen. Ein Spiel muss nur die Schnittstelle beherrschen, ob da dann eine NVidia-Implementierung oder eine Intel-Implementierung dahintersteckt ist dem Spiel dann egal.
Genau das geht aber mit NVidias Lösung nicht. Und das ist halt ziemlich blöd für die Kunden.
Genau das ist das Problem, der Kunde bezahlt das dann auch doppelt.
1x die Hardware die gebraucht wird und 1x durch die Vertriebskosten weil Nvidia Softwareentwickler dazu "nötigen" muss das einzubauen (Mit Hardware, Know-how und Ressourcen).
Dieser Punkt bricht bei FSR quasi nach ein paar Wochen gänzlich weg und jeder kann das über die Doku der Whitepapers/Wiki über GPUOpen runterladen und einbinden. Natürlich wird AMD dort auch Ressourcen aufwenden müssen, aber das ist recht geringfügig dank Community-Schwarmintelligenz an Programmieren.

Man könne meinen das es KI-Intelligenz vs Menschliche Schwarmintelligenz ist....:coffee:
 
FSR hat aber keine neue Schnittstelle entwickelt, es ist lediglich eine andere Art von Upscaler, die dann in die Engines bzw. per-game integriert wurden und die APIs von DX bzw. Vulkan ansprechen. Alle Features, sowohl von NVIDIA als auch AMD sprechen die Schnittstellen aka APIs von DX11/12 oder Vulkan an - das sind die Schnittstellen, die vorgegeben sind. Alles was darauf aufbaut ist die Features bzw. die Implementierung der Schnittstelle und das ist bei AMD eben FSR und bei NVIDIA DLSS. FSR hat keine neue Schnittstelle erschaffen sondern lediglich eine eigene Implementierung öffentlich zur Verfügung gestellt.

@n3cron
NVIDIA hat bereits Plugins für alle gängigen Engines bereitgestellt und mit der Funktionsweise von DLSS2.0 muss wie bei FSR nichts mehr händisch gemacht werden (wobei beide Features natürlich erlauben händisch nachzubessern bzw. aufzupolieren.) Ich versteh daher deinen Punkt nicht so ganz? Denn genau wie NVIDIA hat AMD angekündigt ebenfalls Plugins für alle Engines bereit zu stellen.
 
RTX ist erstmal eine propritäre Nvidia-Lösung.
Es gibt keine proprietäre RTX-Lösung von Nvidia. Nvidia hat nur damals bei 3 Vulkan Titeln etwas eigenes gebaut, da es bei Vulkan zu diesem Zeitpunkt noch keinen Standard für Raytracing gab. Es wird auch niemand daran gehindert, diese Erweiterungen zu unterstützen.

 
FSR hat aber keine neue Schnittstelle entwickelt, es ist lediglich eine andere Art von Upscaler, die dann in die Engines bzw. per-game integriert wurden und die APIs von DX bzw. Vulkan ansprechen. Alle Features, sowohl von NVIDIA als auch AMD sprechen die Schnittstellen aka APIs von DX11/12 oder Vulkan an - das sind die Schnittstellen, die vorgegeben sind. Alles was darauf aufbaut ist die Features bzw. die Implementierung der Schnittstelle und das ist bei AMD eben FSR und bei NVIDIA DLSS. FSR hat keine neue Schnittstelle erschaffen sondern lediglich eine eigene Implementierung öffentlich zur Verfügung gestellt.

@n3cron
NVIDIA hat bereits Plugins für alle gängigen Engines bereitgestellt und mit der Funktionsweise von DLSS2.0 muss wie bei FSR nichts mehr händisch gemacht werden (wobei beide Features natürlich erlauben händisch nachzubessern bzw. aufzupolieren.) Ich versteh daher deinen Punkt nicht so ganz? Denn genau wie NVIDIA hat AMD angekündigt ebenfalls Plugins für alle Engines bereit zu stellen.
Ja für alle gängigen Engines, das heißt das ein Indistudio ein Problem hat.
Andere Plattform wie PC werden da auch ein Problem haben, das ist eben der Unterschied.

Nehmen wir z. B den Mobile Sektor mit Smartphones. Da ist ARM dominierend, Samsung, Apple, Huawei usw. da bringt ein DLSS Plugin für die Engine 0, da niemand an die Technologie rankommt bzw. Nvidia sich das fürstlich bezahlen lassen würde.
Spielekonsolen, nicht mal die Switch als einzige Konsole mit Nvidia Tegra? Chip hat Tensor Cores/DLSS. Es wir vermutet das die Switch Pro sowas haben könnte, ist aber noch nichts konkretes bekannt.

FSR = Grenzenlos
DLSS = PC limitiert
 
Du scheinst ein wenig verwirrt zu sein, denn gängige Engines sind UE, Unity etc. welche auch von fast allen Indie-Entwicklern benutzt werden. Da kaum ein Indiedev die Ressourcen hat um eine komplett eigene Engine zu entwickeln, so sieht es auch im Mobile Markt aus - das einzige womit Du Recht hast ist natürlich die Vorraussetzung von Tensor Cores - da eben die Implementierung darauf basiert und ein anderer Ansatz als Upscaler + Schärfen ist. Deswegen wird AMD vermutlich auch den Weg des geringsten Widerstands eingeschlagen haben, denn sie liefern auch die Chips für Konsolen, also ist es in ihrem Interesse das die Entwickler der aktuellen Generation auch von ihrer Lösung profitieren können.
Ich sage nicht das DLSS der heilige Gral ist, aber es ist meiner Meinung nach der zukunftsträchtigere Ansatz. Ich vermute beiden Firmen ist klar geworden, dass sie die Leistung nicht in dem Tempo der letzten 10 bis 15 Jahre erhöhen können, man muss sich ja nur die Watt, die sich beide Lager derzeit gönnen anschauen. Gleichzeitig steigt allerdings der Anspruch an Grafikqualität - also muss eine Art von Lösung her. AMD versucht dem altbekannten Upscaling Problem mit Post-Processing Herr zu werden und NVIDIA versucht die fehlenden Pixel durch AI berechnen zu lassen. Und ich sehe da einfach mehr Potential im Ansatz von NVIDIA extra Hardware zu verbauen, die spezialisiert für bestimmte Aufgaben sind (RT Cores, Tensor Cores) als wie AMD durch Rohleistung das Problem zu lösen. Wie immer wird es sich vermutlich irgendwo in der Mitte einpendeln. (Bestes Beispiel ist RayTracing wo NVIDIA mit RT Cores angefangen hat und AMD dann mit der 6000er Serie nachgezogen ist und ebenfalls Ray Accelerators eingebaut hat um RT Berechnungen zu beschleunigen)

Was wir alle vergessen ist das z.B. Epic auch an etwas arbeitet, genannt TSR was vermutlich dann nur in der UE nutzbar wäre, aber lt. Meldungen kann es ebenfalls mit FSR und DLSS mithalten.
 
Zuletzt bearbeitet:
Alle Features, sowohl von NVIDIA als auch AMD sprechen die Schnittstellen aka APIs von DX11/12 oder Vulkan an - das sind die Schnittstellen, die vorgegeben sind. Alles was darauf aufbaut ist die Features bzw. die Implementierung der Schnittstelle und das ist bei AMD eben FSR und bei NVIDIA DLSS. FSR hat keine neue Schnittstelle erschaffen sondern lediglich eine eigene Implementierung öffentlich zur Verfügung gestellt.
Eine Schnittstelle ist alles wo zwei (oder mehr) Softwarekomponenten miteinander reden. Also wenn ein Spiel FSR nutzt, dann muss es da irgendwo eine Schnittstelle geben, denn die Spieleengine muss irgendwie die Funktionalität von FSR aufrufen.
Und wie diese Aufrufe (=Schnittstelle, oder zu englisch: Interface) auszusehen haben ist bei FSR öffentlich, bei DLSS nicht (oder noch schlimmer DLSS per Gebrauchsmuster oder ähnliches geschützt). Eine Implementierung ohne Schnittstelle kann obendrein gar nicht benutzt werden. Wie auch?

Wenn DLSS über eine Schnittstelle von Vulkan oder DirectX funktionieren würde und die Spiele für diese Funktionalität auch diese VK/DX-Schnittstelle nutzen würden, würde es keine Rolle spielen ob dahinter eine FSR- oder DLSS-Implementierung upscaled. Genau das ist aber nicht der Fall, die Spiele nutzen direkt DLSS (über dessen proprietäre Schnittstelle) und können somit auch NUR DLSS und das funktioniert eben nur wenn man eine entsprechende NVidia-Karte hat. Auch wenn du jetzt DLSS als Erweiterung zu DirectX definierst ändert das nicht daran, das es trotzdem eine Schnittstelle haben muss.
 
Du scheinst ein wenig verwirrt zu sein, denn gängige Engines sind UE, Unity etc. welche auch von fast allen Indie-Entwicklern benutzt werden. Da kaum ein Indiedev die Ressourcen hat um eine komplett eigene Engine zu entwickeln, so sieht es auch im Mobile Markt aus - das einzige womit Du Recht hast ist natürlich die Vorraussetzung von Tensor Cores - da eben die Implementierung darauf basiert und ein anderer Ansatz als Upscaler + Schärfen ist. Deswegen wird AMD vermutlich auch den Weg des geringsten Widerstands eingeschlagen haben, denn sie liefern auch die Chips für Konsolen, also ist es in ihrem Interesse das die Entwickler der aktuellen Generation auch von ihrer Lösung profitieren können.
Ich sage nicht das DLSS der heilige Gral ist, aber es ist meiner Meinung nach der zukunftsträchtigere Ansatz. Ich vermute beiden Firmen ist klar geworden, dass sie die Leistung nicht in dem Tempo der letzten 10 bis 15 Jahre erhöhen können, man muss sich ja nur die Watt, die sich beide Lager derzeit gönnen anschauen. Gleichzeitig steigt allerdings der Anspruch an Grafikqualität - also muss eine Art von Lösung her. AMD versucht dem altbekannten Upscaling Problem mit Post-Processing Herr zu werden und NVIDIA versucht die fehlenden Pixel durch AI berechnen zu lassen. Und ich sehe da einfach mehr Potential im Ansatz von NVIDIA extra Hardware zu verbauen, die spezialisiert für bestimmte Aufgaben sind (RT Cores, Tensor Cores) als wie AMD durch Rohleistung das Problem zu lösen. Wie immer wird es sich vermutlich irgendwo in der Mitte einpendeln. (Bestes Beispiel ist RayTracing wo NVIDIA mit RT Cores angefangen hat und AMD dann mit der 6000er Serie nachgezogen ist und ebenfalls Ray Accelerators eingebaut hat um RT Berechnungen zu beschleunigen)

Was wir alle vergessen ist das z.B. Epic auch an etwas arbeitet, genannt TSR was vermutlich dann nur in der UE nutzbar wäre, aber lt. Meldungen kann es ebenfalls mit FSR und DLSS mithalten.
Du scheints meine Aussage dazu nicht gelesen zu haben, ich habe von Plattformen abseits von PC gesprochen. Selbst wenn unity auf dem Handy/Smartphone geht.. da gibt es kein DLSS.
Auf dem Handy gibt es durchaus viele Indie Entwickler und selbst auf dem PC gibt es einige die nicht fertige Kits benutzen sondern was eigenes machen.
 
Da kann man eigentlich nicht meckern, das ist ein beachtlich guter launch.
Weiter Optimieren und wir haben in einem Jahr das bessere System.
4K wird so endlich Massentauglich.

Hast du technisch Infos über VR Tauglichkeit? Eigentlich sollte das mit FSR ja funktionieren da es das fertige Bild skaliert.... Ich hoffe da so sehr drauf.

Was mich wundert ist das Asobo/Microsoft nicht im Entwickler Lineup zu sehen sind. Da es auch XBox kompatibel ist uns der MFS rein zufällig jetzt kurz nach Bekanntgabe des FSR Starts auch plötzlich ein VÖ Termin auf der XBox hat würde es mich wundern wenn der MFS das nicht unterstützt. Gerade weil die Konsole RDNA Technik nutzt und der MFS grafisch ein Monster ist.
 
Hast du technisch Infos über VR Tauglichkeit? Eigentlich sollte das mit FSR ja funktionieren da es das fertige Bild skaliert.... Ich hoffe da so sehr drauf.

Was mich wundert ist das Asobo/Microsoft nicht im Entwickler Lineup zu sehen sind. Da es auch XBox kompatibel ist uns der MFS rein zufällig jetzt kurz nach Bekanntgabe des FSR Starts auch plötzlich ein VÖ Termin auf der XBox hat würde es mich wundern wenn der MFS das nicht unterstützt. Gerade weil die Konsole RDNA Technik nutzt und der MFS grafisch ein Monster ist.
Ja FSR ist VR tauglich, hat ein Entwickler von AMD im Interview gesagt. Wobei man es nicht explizit getestet hat, würde technisch nicht dagegen sprechen.
 
aber wenn ein Spiel fsr unterstützt, heißt das wahrscheinlich noch lange nicht das das auch in vr unterstützt wird?
 
aber wenn ein Spiel fsr unterstützt, heißt das wahrscheinlich noch lange nicht das das auch in vr unterstützt wird?
Ist kein spezieller Modus notwendig, weil es immer in der gleichen Schnittstelle den Algorithmus ausführt, egal ob VR, Splittscreen etc. ausgeführt wird es setzt immer kurz vor der Darstellung ein, aber bevor die Effekte hinzugefügt werden.
Hier kannst du dir das Interview nochmal anhören/anschauen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh