Deathloop: FSR 2.0 vs. FSR 1.0 vs. DLSS 2.3 im Benchmark- und Bildvergleich

Sweet Spot ist aktuell aber was anderes, falls du den im Kopf hattest ;)

Jeder wie er mag. Ich würde das auch so gerne sagen, aber Preislich waren mit die Topkarten der jeweiligen Generation immer zu extrem und ich bin Freund der Stufe darunter. aber das darf jeder mit sich selbst ausmachen.
Ja das stimmt ja auch, was du sagst aber vergesse nicht, eine höher wertige Karte kannst du auch später noch dementsprechend besser bzw für mehr verkaufen als eine andere.
Deshalb hab ich in eine Asus Rog Strix RX 6900 XT LC Top Edition investiert "nur" 1600€ und werde die dementsprechenden verkaufen bevor ich mir eine RX 7900 XT LC kaufe. Wahrscheinlich wird mir aber eine RX 7800 XT LC vollkommen ausreichen, da mein absolutes Limit 4k bei 120FPS & 120HZ liegt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jeder kann für sich selber entschieden, welche Features einem wichtig sind. Wenn man beispielsweise Wert auf Raytracing legt, weil dies einem bei aktuellen Games zusagt oder weil es in Zukunft immer wichtiger wird, dann ist es absolut sinnig, dies auch bei der Bewertung eines Produktes zu berücksichtigen.
Das ist ja nicht das Problem, sondern wegen Raytracing wird stark verallgemeinert. Ich habe Bezug auf die Aussage von freakyd genommen. Nvidia hat doch auch DLSS entwickelt um den Leuten was vor zu machen. Die schöne 8K Werbung, die nur mit DLSS und einer 3090 funktioniert... Ist auch Augenwischerei. ;-)
Die nehmen sich da beide nichts, man kann es drehen und wenden wie man will. Aber ich merke schon, Nvidia wird immer als Gönner in der Wahrnehmung verzerrt, was halt so nicht richtig ist. AMD hat es kurzfristig aufgrund der Nachfrage ins Design aufgenommen und halt nicht wie schon Nvidia in zweiter Generation serviert und muss dazu lernen, ist aber okay Nvidia DLSS 1.0 war ja auch der Hammer.. ne ist klar. Erst mit DLSS 2.x wurde das erst richtig gut. Man versucht ja auch schön zu reden das Nvidia weniger RAM hat. ;-)

Technologie und Adaption brauch Zeit.

Ich bin verdammt froh das Intel bald auf dem Markt mitmischen wird. Weil ne wirkliche Wahl hat man ja nicht, hat man jetzt im Miningboom mal wieder gesehen und den Covid Problemen wie toll die Preise für gegebene Leistung waren.
Hätten wir mehr Anbieter hätten wir einen stabileren Preis.

Ich meine Upscaler in der High-End Premiumklasse ... ein Autofan würde vom Hochhaus springen, wenn man ihm erzählt sein Bugatti hat einen künstlichen Motogeräusch Erzeuger damit dieser besser klingt, weil sein Motor nicht ausreicht von der Leistung.
Für mich ist das ne Technik die für low-end bis Mittelklasse recht interessant ist.
 
Das ist ja nicht das Problem, sondern wegen Raytracing wird stark verallgemeinert.
Abseits davon wird natürlich nie verallgemeinert..

Es gibt auch Titel da sind typischerweise AMD Karten weit schneller, gerade in nicht Raytracing/DLSS Schnickschnack Szenarien.
Einfach nur Nativ ohne Features sind AMD Karten in der Regel immer schneller in Vergleichen der selben Preis-/Leistungsklasse.
Nie 🤡

Ich habe Bezug auf die Aussage von freakyd genommen.
Mit einer soliden Fanboy Argumentation.

Nvidia hat doch auch DLSS entwickelt um den Leuten was vor zu machen. Die schöne 8K Werbung, die nur mit DLSS und einer 3090 funktioniert... Ist auch Augenwischerei. ;-)
Genauso ist es! Messerscharf analysiert!

Aber ich merke schon, Nvidia wird immer als Gönner in der Wahrnehmung verzerrt, was halt so nicht richtig ist.
Ich glaube deine Wahrnehmung ist wirklich verzerrt. Eigentlich muss man immer wieder lesen, wie böse Nvidia doch ist und ständig die Kunden melkt, während AMD unser aller Heilsbringer ist mit der Match von Open Spurce, trotz eines geringeren Kapitals.

Ich bin verdammt froh das Intel bald auf dem Markt mitmischen wird. Weil ne wirkliche Wahl hat man ja nicht, hat man jetzt im Miningboom mal wieder gesehen und den Covid Problemen wie toll die Preise für gegebene Leistung waren.
Hätten wir mehr Anbieter hätten wir einen stabileren Preis.
Klar, Intel hätte alldem getrotzt und uns allen gezeigt, dass AMD sowie Nvidia nur künstliche Verknappung betreiben. Deswegen sinken ja auch die Preise, weil Intel den Markt mit neuen GPUs flutet. Intel hat sogar dafür gesorgt, dass AMD bei dem Refresh die MSRP der Modelle im Vergleich zu den Vorgängern reduziert hat. 🤡

Für mich ist das ne Technik die für low-end bis Mittelklasse recht interessant ist.
Hä, ich dachte für die 8k Werbung :unsure:
 
Ich bin verdammt froh das Intel bald auf dem Markt mitmischen wird. Weil ne wirkliche Wahl hat man ja nicht, hat man jetzt im Miningboom mal wieder gesehen und den Covid Problemen wie toll die Preise für gegebene Leistung waren.
Hätten wir mehr Anbieter hätten wir einen stabileren Preis.
Leider nein, weil die Anbieter selbst keine Produzenten sind und die Halbleiterbranche leider auf wenihe Hersteller begrenzt ist aufgrund der extrem teuren und aufwändigen neuesten Fertigungstechniken.
Selbst Intel wird zum Auftragsfertiger gehen, so wie AMD und Nvidia auch. Leider sitzen fast alle davon in Taiwan, also konzentriert in 3 Industriestandorten in Taiwan.

Sollte also dort vor Ort mal etwas passieren, oder im Umkreis, was weder geologisch, politisch, noch wirtschaftlich ausgeschlossen werden kann, dann ist egal, wieviel Kartenhersteller sich um diesen Kuchen streiten. Wenn vor ort ein Problem ist, sind dann alle Hersteller betroffen die auf diese Fertigungsverfahren setzen.
Leider sind aber all gezwungen neueste Fertigungsverfahren einzusetzen, sonst ist man bei Stromverbrauch und Leistung nicht mehr konkurrenzfähig.

Ergo. Wenn Problem, dann ganze Lieferkette betrachten.
In nem gesunden Markt, wenn es rein um Preisgestaltung bei hoher Lieferfähigkeit geht, gebe ich dir aber Recht, dann sinken die Preise, zumindest dort, wo der Verkauf schleppend ist.
Beitrag automatisch zusammengeführt:

Ich meine Upscaler in der High-End Premiumklasse ... ein Autofan würde vom Hochhaus springen, wenn man ihm erzählt sein Bugatti hat einen künstlichen Motogeräusch Erzeuger damit dieser besser klingt, weil sein Motor nicht ausreicht von der Leistung.
Dir ist schon klar, dass die Autoindustrie bereits seit Jahren in Sportcoupes und auch in anderen Fahrzeugen mit Resonanzrohren gearbeitet hat, die das Motoren- oder Abgasgeräusch verstärken sollten.
BMW schon in der ersten Z4 und Audi hat damals auch schon elektronisch nachgeholfen.
Heute ist das sogar alles elektronisch und die Fans vom programmierten Schaltfurzen sind leider auch noch nicht ausgestorben und jagen nachts durch die Innenstädte.
Diese Fahrer nennen sich dennoch alle Autofans.

So schwarz und weiß ist die Welt halt nicht.

Ich schaue vom Ergebnis her drauf und wenn ich im Spiel keine Treppchen und qualitativ in der Bewegung keine Unterschiede bewusst wahrnehme, so kann ich mit Upscaling durchaus gut leben.
Spielen ist immer noch etwas anderes, als minutenlang Standbilder auf Unterschiede zu vergleichen.

Wer weiß noch welche revolutionäre Technik S3 damals beim Savage4 eingeführt hat, die später noch in DirectX integriert wurde? Ja, war auch verlußtbehaftet und somit ein optischer Einfluss.
Interessiert heute keinen mehr, weil es einfach Teil der Weiterentwicklung ist. Spare Leistung, wo du Leistung sparen kannst, erweitere Flaschenhälse und sorge für ein gutes Gesamtergebnis.
 
Zuletzt bearbeitet:
Mit einer soliden Fanboy Argumentation.
Das machst Du doch auch immer!😁
Beitrag automatisch zusammengeführt:

Ich glaube deine Wahrnehmung ist wirklich verzerrt. Eigentlich muss man immer wieder lesen, wie böse Nvidia doch ist und ständig die Kunden melkt, während AMD unser aller Heilsbringer ist mit der Match von Open Spurce, trotz eines geringeren Kapitals.
Das stimmt ja auch, Nvidia ist böse! Deswegen sind die ja so anziehen!:lol:
 
Das stimmt ja auch, Nvidia ist böse! Deswegen sind die ja so anziehen!:lol:
Und jetzt bitte noch mal in verständlich? Wenn ich schon etwas in Fett poste, dann achte ich doch besonders drauf, dass es Sinn ergibt? Glaub mir, du bist nichts besonderes und deine Antworten nicht so geistreich, dass du dir hier diese Extrawurst leisten kannst...
 
Herr Jensen Huang, CEO von Nvidia ist ein sehr erfahrener Mann!

Er hat 3DFX liquidiert und selbst nach über 20 Jahren gibt es Nvidia immer noch.

Sich in der Techbranche so lange zu behaupten will schon was heißen.

Die Firma Nvidia ist breiter aufgestellt, als man denken könnte.

Wir alle können gespannt sein, wie Nvidia auf AMD FSR 2.0 reagieren wird!?
:bigok:
 
Er hat 3DFX liquidiert und selbst nach über 20 Jahren gibt es Nvidia immer noch.
Und AMD hat ATI liquidiert. Was willst du uns sagen?
Äpfel und Birnen?

3dfx war insolvent, NVidia hat sich die Perlen herausgepickt und den traurigen Rest gar nicht erst angepackt
ATI lief soweit gut, als AMD sich zum Kauf entschlossen hat.

Die Firma Nvidia ist breiter aufgestellt, als man denken könnte.
ist VIA auch und dennoch aus den Köpfen und bei den Chipsätzen verschwunden!
Was aber auch viele nicht wissen:
VIA verdient immer noch gutes Geld, hat sich aber auch Nischen bei I/O und Schnittstellenchips im Zubehör und bei OEMs gesucht und erfolgreich besetzt.


Der PC Markt ist stark umkämpft und nicht jeder mag in dieses Fahrwasser gehen wollen, es gibt Bereiche, wo man durchaus auch gutes Geld verdienen kann.
 
Zuletzt bearbeitet:
Wen außer Fanboys interessiert die finanzielle Situation einer Firma?
Also so ganz spontan würden mir da Aktieninhaber einfallen.

Aber selbst wenn man kein totaler Fanboy ist, sondern bestimmte Produkte eines Unternehmens einfach gut findet und auch zukünftig solch gute Produkte kaufen können will, können einen die Finanzen des Unternehmens durchaus interessieren.
 
Also so ganz spontan würden mir da Aktieninhaber einfallen.

Aber selbst wenn man kein totaler Fanboy ist, sondern bestimmte Produkte eines Unternehmens einfach gut findet und auch zukünftig solch gute Produkte kaufen können will, können einen die Finanzen des Unternehmens durchaus interessieren.
ja, aber die Frage war falsch gestellt.
Natürlich interessieren viele Menschen sich für die Finanzen eines Unternehmens und die kann man nicht alle Fanboys nennen.

Die Frage ist: Warum werden bei einer hoffentlich sachlich ausgetragenen Fachdiskussion um Themen wie Upscaling und Testergebnisse plötzlich Sachen wie finanzielle Lage der Hersteller thematisiert?
Fehlten da sachliche Argumente zum Thema, oder warum schweift man dann ab?

Oder ging es nur darum zu verdeutlichen, dass eine Firma in der Vergangenheit gut gewirtschaftet hat und wissen sollte, was sie tut? Man sagt ja auch gerne "to big to fail".
Aber auch das hat die Vergangenheit bereits mit Beispielen widerlegt, so wie es auch Beispiele dafür gab.

Große Unternehmen haben mehr Möglichkeiten Einfluss zu nehmen, haben mehr Polster, aber das schützt nur zeitlich begrenzt. Ein Vorteil, aber keine Garantie.
Wäre aber gut, wenn wir zum Thema zurückkommen. ->Upscaling Ergebnisse im Vergleich
 
Beim zweiten Qualitätsvergleich (da wo der Schriftzug "EXPAND" draufsteht) habe ich mich gewundert, warum die native Grafik so pixelig an den Kanten ist, obwohl es laut Bildunterschrift doch UHD sein soll.
Das ist eigentlich auf allen Qualitäts-Vergleichsbildern so zu erkennen?

Lief da "nativ" etwa ohne AntiAliasing?
 
Ich hab mal ein bischen gewischt. Wenns weiter geht, bitte ohne Foren-PVP und ohne Autovergleiche.

:wink:

PS: Es gibt irgendwo in den Untiefen von Youtube wohl einen Techtalk über einen Screenshot aus einem Spiel. Ne 2h Vorlesung darüber, wie das Bild Aufgebaut ist, was wann wie gerendert wird, wo in der Renderpipeline das HUD drüberkommt usw.
Ich hab mir das Video nicht reingezogen, aber ich weiss aus einem anderen Techtalk-Video, dass AMD und NV andere Wege beschreiten wie ihre FSR und DLSS die Bilder aufbauen. Ich kann mir vorstellen, dass das Thema Pixel/Treppenbildung/Antialiasing damit zu tun hat, also technologiebedingt ist.

Das entsprechende Video hab ich übrigens im Upscaler Sammler in Post3 in meinen TO-DO verlinkt. Ist ein Moore's law is dead Talk mit einem Grafik- und Design Entwickler von PC Spielen. Kam irgendwo mittendrin vor.
 
Mimimi, man darf DLSS und FSR nicht vergleichen, denn DLSS ist besser, denn es hat DEEP LEARNING!1elf

Was ein jämmerliches Fanboygeplärre hier schon wieder.
 
Mimimi, man darf DLSS und FSR nicht vergleichen, denn DLSS ist besser, denn es hat DEEP LEARNING!1elf
Dazu kann ich auch nur auf den Upscaler Sammler verweisen, genauer auf die Youtube-Playlist für Mathenerds. Die ist nicht umsonst da. Eines der Videos geht auch um DLSS, aber vorher sollte man die anderen gesehen haben um das DLSS Video zu verstehen.
Und wenn wir das abgehakt haben, kann man meinesachtens auch die DLSS vs FSR Diskussion deutlich sachlicher führen, einfach weil dann ein Verständnis da ist wie der Kram funktioniert.
 
ist das das neue "Krypto"? das was früher "Nano"- und "Weltraumtechnik" war? Als der Flurkunststoff PTFE in der Bratpfanne als Weltraumtechnik verkauft wurde. LOL

Ja, so wie früher, wird auch heute viel mit Begriffen verkauft, die kaum wer so richtig versteht und erklären kann. Deep Learning ist ok, bringt aber weder Wunder hervor noch ist es schädlich.
Könnte man vergleichen mit Google Übersetzer und Übersetzung mit DeepL.com. Dort wird auch Deep Learning genutzt, wie der Name schon sagt.


BTT ich frage mich aber die ganze Zeit worüber wir hier sprechen:
Es geht bei neuestem DLSS und neuestem FSR um Nuancen in Bildausschnitten, die ich (ganz subjektiv) beim Spielen kaum bemerke. Die Differenz zwischen Qualität und Leistung mag man wahrnehmen, aber diese Differenz zwischen beiden Qualität, wo beide mit temporalen Komponenten rechnen und nur NV noch den DL Faktor mit reinnimmt?
Wie sieht das real im Spiel aus? Nimmt irgendein Spieler den Unterschied so bewusst wahr?
Ich sehe das nicht, ehrlich gesagt ... ich nehme 30% mehr FPS viel besser war (ohne Overlay Anzeige) als minimalste Linienunterschiede in einem Detail am Bildrand in der Ferne.

Wenn man bedenkt, dass AMD jetzt noch ca 2-3 Jahre mit Erfahrung gegenüber nVidia hinterherhängt, was Upscaling angeht, gut aufgeholt.
Das macht AMD nicht zum Gewinner, zeigt aber, dass beide Hersteller verdammt nah bei einander liegen und der Spieler sicherlich andere Kriterien zur Entscheidung heranziehen darf.

Das Argument, dass Nvidia aktuell den besseren Upscaler hat und damit jeder Spieler besser bedient ist, das ist definitiv mit FSR 2.0 entfallen. Jetzt muss man langfristig auf den Spielesupport achten.

Upscaling hat eh nur massiv Rückenwind bekommen, weil die Grafikkartenversorgung im Markt etwas mau war. Das hat viele Gamer an das Thema herangeführt.

Emotional aufgeladen ist das Thema trotzdem und ich vermute es hat auch die Leute teilweise persönlich getroffen, die sich immer Topmodelle geleistet haben, um nativ auf hohen Auflösungen zu spielen und damit ein, wenn auch sehr teuer gekauftes, Alleinstellungsmerkmal hatten.
Wenn jetzt wer mit nem Mittelklassemodell und etwas Reduktion der Qualität bei gleicher Auflösung auf ähnliche spieletauglichen FPS fürs halbe Geld kommt, wäre ich ggf auch mal angefressen.

Nur ne Vermutung.
Im Endeffekt bleibt es aber jedem selbst überlassen und der Spieler bekommt mehr Flexibilität und Freiheit
Extrem neue Games kann man per Upscaler in spielbare FPS Regionen hieven, etwas ältere Games bekommt man mit Downscaling wirklich wunderschön präsentiert, z.B. mit 8k intern auf WQHD runtergerechnet.
Gibt es da einen Grund zu meckern?
 
Die Differenz zwischen Qualität und Leistung mag man wahrnehmen, aber diese Differenz zwischen beiden Qualität, wo beide mit temporalen Komponenten rechnen und nur NV noch den DL Faktor mit reinnimmt?
FSR und DLSS sind Upscaler und Bildfilter. Die funktionieren im Prinzip sehr ähnlich.
Der Unterschied ist, wie FSR und DLSS zu den Konfigurationsparametern für ihre Bildfilter kommen.
Nvidia nutzt für die Erstellung der Konfigurationsparameter 16k gerenderte Frames und trainiert die Konfiguration für ihre DLSS Bildfilter mit Hilfe einer KI.
Jede Version von DLSS, 1.0, 2.0, 2.3 ist ne unterschiedliche Konfiguration der Bildfilter, die eben auf Treiberebene ausgerollt wird.

Ich weiß nicht wie AMD/FSR die Konfigurationsparameter erstellt, aber sicher etwas anders als Nvidia.

Das ändert aber nichts daran wie Upscalertechnologie auf der Mathematik-Ebene funktioniert.

Falls irgendwer glauben sollte, dass DLSS in irgendeinerweise was mit Machine Learning in ihrem eigenen PC macht, kann ich nur sagen: Sorry, du bist auf Nvidia Marketing reingefallen, und du hast die öffentlich verfügbaren Infos nicht verstanden oder ignoriert.

Wie das ganze dann in welche Teilen der unterschiedlichen Grafikchips berechnet wird, mit welcher Laufzeit und Latenz, ganz andere Baustelle. Am Ende ist es Matritzen-Mathematik mit RGB Werten pro Pixel. Das ist was ein Bild ist.
 
Zuletzt bearbeitet:
Falls irgendwer glauben sollte, dass DLSS in irgendeinerweise was mit Machine Learning in ihrem eigenen PC macht, kann ich nur sagen: Sorry, du bist auf Nvidia Marketing reingefallen, und du hast die öffentlich verfügbaren Infos nicht verstanden oder ignoriert.
Ich vermute, NV nutzt im Endeffekt die Ergebnisse vom Machine Learning, um eine für sie möglichste beste Einstellung, Vorlage, Matrize, Filterkonfig im Treiber zu bekommen und das Ganze weiter zu optimieren.
Bekanntlich ist der Aufwand für die letzten wenigen % Verbesserung immer am höchsten und da muss man sicherlich den Aufwand gut reduzieren.

Man kann eben jede Möglichkeit berechnen und sich die beste dann rauspicken. Wenn ausreichend Rechenleistung und Zeit vorhanden ist. Oft ist das nicht der Fall.
Man kann aber über Wahrscheinlichkeiten und andere Faktoren schon einmal eine Vielzahl an Möglichkeiten abschätzen und ausschließen, die kein gutes Ergebnis bringen werden, bzw mit hoher Wahrscheinlichkeit kein Top 10 Ergebnis bringen werden. Den Rest berechnet man dann und pickt sich davon das Beste raus. Einfach Reduktion um 90-95% der Arbeit.

Problem ist nur immer eine gute Abgrenzung und die Faktoren zu ermitteln, die man zur Eingrenzung hernimmt. Dafür kann man dann einen Rechner mit möglichst vielen Beispielen füttern und der ermittelt dann z.B. Regelmäßigkeiten, Zusammenhänge, was dann entscheidende Faktoren sein könnten, um Abgrenzungen vorzunehmen usw.
 
ist das das neue "Krypto"? das was früher "Nano"- und "Weltraumtechnik" war? Als der Flurkunststoff PTFE in der Bratpfanne als Weltraumtechnik verkauft wurde. LOL
So ungefähr. Wenn deine Website nicht mindestens mit KI & Blockchain werben kann, dann ist dein Startup nix wert. Wirklich gut ist es nur mit DL und 'dezentral'. Ob irgendetwas davon gebraucht wird ist Wurst, es verkauft sich gut.

Emotional aufgeladen ist das Thema trotzdem und ich vermute es hat auch die Leute teilweise persönlich getroffen, die sich immer Topmodelle geleistet haben, um nativ auf hohen Auflösungen zu spielen und damit ein, wenn auch sehr teuer gekauftes, Alleinstellungsmerkmal hatten.
Wenn jetzt wer mit nem Mittelklassemodell und etwas Reduktion der Qualität bei gleicher Auflösung auf ähnliche spieletauglichen FPS fürs halbe Geld kommt, wäre ich ggf auch mal angefressen.
Besonders getroffen hat es auch unser stolzes "Team Nvidia". Die mit dem deep-learning-super-sampling auch immer einen tollen Punkt auf ihrer Seite (ge)sehen (haben). Das *muss* doch besser sein! Sieht man auch hier im thread, da wird von TeNSoR-cOreZ geredet um die Überlegenheit der eigenen Karte zu verdeutlichen: Weitpinkeln im buzzword-bingo. :)
 
Sieht man auch hier im thread, da wird von TeNSoR-cOreZ geredet um die Überlegenheit der eigenen Karte zu verdeutlichen: Weitpinkeln im buzzword-bingo. :)
Achso, ich betreibe also einfach nur Buzzword-Bingo. Ist ja nicht so, dass ich dazu noch erwähnt, wo diese behilflich sind. Ignorieren wird einfach den Part mit, dass diese gewisse Berechnungen beschleunigen, wodurch es ermöglicht wird mehr Samples zu verarbeiten und so mehr Details rekonstruiert werden können, auch bei wenigen Bildinformationen. Der Vorteil von DLSS gegenüber FSR in geringeren Auflösung und geringeren Qualitätsstufen kommt sicherlich nicht davon. :rolleyes2:


Wenn du doch angeblich komplett emotionslos und vermeintlich sachlich zu diesem Thema argumentieren möchtest, warum lese ich von dir dann nichts weiter als Anfeindungen und billige Strohmänner, mit denen du Leuten hier haltlos Sachen unterstellst?
 
Besonders getroffen hat es auch unser stolzes "Team Nvidia". Die mit dem deep-learning-super-sampling auch immer einen tollen Punkt auf ihrer Seite (ge)sehen (haben). Das *muss* doch besser sein! Sieht man auch hier im thread, da wird von TeNSoR-cOreZ geredet um die Überlegenheit der eigenen Karte zu verdeutlichen: Weitpinkeln im buzzword-bingo. :)
Klingt so als wäre "Team AMD" noch mehr getroffen, wenn man deine Analyse dazu betrachtet...
 
klingt eher so, als wenn wir nicht mehr zum Thema zurückfinden werden und es bei "du Doof !", "du immer 2x Doofer als wie ich!" hängen bleibt

könnte bitte einer diesen Nebenkriegsschauplatz schließen? Die Fanboys muss man nicht in jeder Ecke füttern.
 
Sollten noch mehr Games FSR 2.0 unterstützen, dann hat DSLL 2.? in Zukunft ausgedient!😊
Wäre ich vorsichtig mit der Aussage!
G-Sync gibt es ja trotz FreeSync auch noch und es verschwindet auch nicht wirklich vom Markt. Es hat sich nur nicht durchgesetzt.
 
Ist ja nicht so, dass das schon seit einem Jahr bekannt ist, dass FSR auf Intel laufen wird ...
 
ist das das neue "Krypto"? das was früher "Nano"- und "Weltraumtechnik" war? Als der Flurkunststoff PTFE in der Bratpfanne als Weltraumtechnik verkauft wurde. LOL
Richtig!!
Als Besitzer einer Asus Rog Strix RX 6900 XT LC Top Edition bin ich mir zu stolz fürs nutzen einer Upsacling Technologie und habe mir so eine Karte genau deshalb gekauft, um endlich im 21.Jh. in nativen 4K flüssig spielen zu können und deshalb auch die Ende 2021 gekaufte Xbox Series X wieder verkauft, da sie eben nicht mal 60 FPS bei nativem 4K liefern kann.

Spiele derzeit in nativem 4k die meisten meiner Lieblingsgames wie God of War, Horizon Zero Dawn oder Tekken 7 in sehr flüssigem 4k von bis zu 80 FPS im bei Tekken 7 hab ich es auch auf 120 FPS gemodded und bin extrem zufrieden mit der Leistung und Qualität.
Die Karte hat jetzt aber auch keine 2000€ gekostet sondern war kurz gebraucht und ca 1500€ für mich. Das ging für mich klar bei so einem schönen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh