FSR 3.1 gegen FSR 4: AMDs Wechsel auf KI-Upsampling mit guter Bildqualität

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.370
In einem Demo-Bereich zeigte AMD einen direkten Vergleich zwischen der aktuellen FSR-Umsetzung (FSR 3.1 in Ratchet and Clank: Rift Apart) mit der für die Radeon-RX-9070-Serie geplanten Implementation FSR 4. Da FSR 4 vorerst nur für die RDNA-4-Karten verfügbar sein wird, kam in beiden Systemen ein Engineering Sample der Radeon RX 9070 XT zu Einsatz, welches wir uns schon genauer angeschaut haben.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD bringt es einfach nicht bei Desktop GPU"s mehr sondern "nur" bei CPU"s
Dann kauft die nicht, niemand zwingt Dich AMD Grafikkarten zu kaufen.
Beitrag automatisch zusammengeführt:

Interessant wäre, ob Games, die FSR 3.1 usw. automatisch zu FSR 4.0 aufgewertet werden bzw. leicht angepasst werden können.:unsure:
 
Waaasssss AMD macht jetzt womöglich das was Nvidia gemacht hat weil Nvidia böse ist? Dann... ist ja.. AMD auch böse... nein das kann ja garnicht sein.
Ich spüre förmlich manche Gehirne vor Dissonanz davon vibrieren.
 
Waaasssss AMD macht jetzt womöglich das was Nvidia gemacht hat weil Nvidia böse ist? Dann... ist ja.. AMD auch böse... nein das kann ja garnicht sein.
Ich spüre förmlich manche Gehirne vor Dissonanz davon vibrieren.
Dann kaufe die nicht, strafe die ab. Nach dem Motto liebe Lisa, ab in die Ecke und schäme Dich.:ROFLMAO:😁
 
Dann kaufe die nicht, strafe die ab. Nach dem Motto liebe Lisa, ab in die Ecke und schäme Dich.:ROFLMAO:😁
Ne danke, AMD Grafikkarten verwende ich schon seit einiger Zeit nicht mehr. War mal eine Alternative als ich noch Jung war, das Geld brauchte und die GK hauptsächlich zum gamen verwendet hatte. Die Zeiten sind lange vorbei.
 
FSR 4 wird dann auch für die nächste Konsolen Generation ein Thema. Die Switch 2 wird auf DLSS setzen. Daher sollte dann FSR 4 dann auch auf PS6 eingesetzt werden. Da braucht man die Technik auch am meisten.
 
Ich würde ja gerne bei AMD bleiben aber da fehlt leider die 9080/90 XTX. Dass zumindest RDNA3 noch FSR4 bekommt ist möglich aber nicht gesichert. Das kann AMD nur rechtfertigen wenn es wirklich Hardwarevoraussetzungen (ML Cores) hat. Die RDNA3 haben aber auch ML Cores.
Dann kauft die nicht, niemand zwingt Dich AMD Grafikkarten zu kaufen.
Doch, AMD zwingt mich NVIDIA zu kaufen.
 
Wenn FSR in Kombi mit FG wenigsten 50-70% in die Richtung von DLSS FG käme, dann wäre das schon sehr interessant, sofern die AMD Karten weiter vom P/L etwas besser aufgestellt bleiben wie es aktuell der Fall ist. Der Treiber muss aber unbedingt verbessert werden.

Das Nvidia Controll Center ist um Welten besser und stabiler.
 
Ich würde ja gerne bei AMD bleiben aber da fehlt leider die 9080/90 XTX. Dass zumindest RDNA3 noch FSR4 bekommt ist möglich aber nicht gesichert. Das kann AMD nur rechtfertigen wenn es wirklich Hardwarevoraussetzungen (ML Cores) hat. Die RDNA3 haben aber auch ML Cores.

Doch, AMD zwingt mich NVIDIA zu kaufen.
AMD zwingt Dich nicht, NVIDIA zu kaufen. Es sind die Scharen an NVIDIA Käufern, die Dich zwingen, NVIDIA zu kaufen.

Die Stückzahlen von AMD bei den HighEnd Karten sind viel zu gering um da mit grünen Zahlen raus zu kommen.

So gut geht es denen nicht, dass sie sich das auf Dauer leisten können. Also jetzt der Versuch mit (hoffentlich) performanten und preislich attraktiven Midrange Karten auf Stückzahlen und Marktanteil zu kommen.
 
AMD zwingt Dich nicht, NVIDIA zu kaufen. Es sind die Scharen an NVIDIA Käufern, die Dich zwingen, NVIDIA zu kaufen.

Die Stückzahlen von AMD bei den HighEnd Karten sind viel zu gering um da mit grünen Zahlen raus zu kommen.

So gut geht es denen nicht, dass sie sich das auf Dauer leisten können. Also jetzt der Versuch mit (hoffentlich) performanten und preislich attraktiven Midrange Karten auf Stückzahlen und Marktanteil zu kommen.
Stimmt - immerhin ist Intel schuld, dass AMD CPU nicht verfügbar sind,
Da ergibt es auch Sinn, dass Nvidia schuld ist, dass AMD nur Kackkarten im Portfolio hat.

Ich erkenne ein Muster.
 
Wenn AMD nur Kackkarten hat, warum bist Du hier im Thread? Um ein bisschen zu provozieren?
Gerade die XTX bietet brachial Leistung fürs Geld.

Zum Thema:

Lies Dir mal die Geschäftsberichte von AMD durch, ist ne AG, Google hilft.
Die Gamingsparte ist der kranke Mann bei AMD, die Marge lächerlich gering.
Mit der XTX wurde kein Geld verdient, da zu wenig verkauft.

Konsequent, da jetzt den Stecker zu ziehen und sich auf die Datacenter Produkte zu konzentrieren. Auch wenn ich persönlich das sehr sehr schade finde.

Selbst bei Nv
 
Wenn AMD nur Kackkarten hat, warum bist Du hier im Thread? Um ein bisschen zu provozieren?
Gerade die XTX bietet brachial Leistung fürs Geld.

Zum Thema:

Lies Dir mal die Geschäftsberichte von AMD durch, ist ne AG, Google hilft.
Die Gamingsparte ist der kranke Mann bei AMD, die Marge lächerlich gering.
Mit der XTX wurde kein Geld verdient, da zu wenig verkauft.

Konsequent, da jetzt den Stecker zu ziehen und sich auf die Datacenter Produkte zu konzentrieren. Auch wenn ich persönlich das sehr sehr schade finde.

Selbst bei Nv

Wenn es keine Kackkarten sind - warum läuft die Sparte bei AMD so schlecht?
Ich glaube, man kann durchaus verschiedene Motivationen haben in einen Thread zu schreiben, die über Provokation hinaus gehen - auch wenn das für dich scheinbar schwer vorstellbar zu sein scheint.

Bedeutet den Stecker zu ziehen nicht, dass man den Stecker zieht? Das sehe ich aber nicht - wo zieht man bitte den Stecker wenn man von FSR 3.1 auf 4 wechselt?
 
Verstehe nicht, wo der Merhrwert von diesem Kackkarten Post für die Community in einem Hardwareforum ist, also ja, ist für mich schwer vorstellbar. Punkt für Dich.

Zu Deiner Frage bezüglich der Kackkarten,
lege Deine Gründe für die Kackkartenbetitelung doch mal dar. Ich bin gespannt.

Den Stecker bei den Highendkarten ziehen, nicht der ganzen Sparte. War leider nicht gut genug ausgedrückt.
Die Entwicklung solcher Karten bindet und kostet Ressourcen, die kann man woanders im Unternehmen gewinnbringender einsetzen. Dazu noch die Kapazitäten bei TSMC die besser genutzt werden können. Die XTX ist ein komplexes Stück Technik, das schüttelt AMD nicht einfach so aus dem Ärmel. Man gibt hier erstmal auf und hofft im Midrange mit nur zwei Chips etwas Geld verdienen zu können.

Wenn sich die nächste oder übernächste Datacenter GPU mit einfachen Mitteln zur konkurrenzfähigen Highend Gamingkarte gestalten lässt, kommt da vielleicht mal wieder was... wenn Gaming bei AMD bis dahin nicht ganz tot ist.
 
es ist sonntag, da geht auch etwas mehr niveau bitte.
 
Verstehe nicht, wo der Merhrwert von diesem Kackkarten Post für die Community in einem Hardwareforum ist, also ja, ist für mich schwer vorstellbar. Punkt für Dich.

Zu Deiner Frage bezüglich der Kackkarten,
lege Deine Gründe für die Kackkartenbetitelung doch mal dar. Ich bin gespannt.

Den Stecker bei den Highendkarten ziehen, nicht der ganzen Sparte. War leider nicht gut genug ausgedrückt.
Die Entwicklung solcher Karten bindet und kostet Ressourcen, die kann man woanders im Unternehmen gewinnbringender einsetzen. Dazu noch die Kapazitäten bei TSMC die besser genutzt werden können. Die XTX ist ein komplexes Stück Technik, das schüttelt AMD nicht einfach so aus dem Ärmel. Man gibt hier erstmal auf und hofft im Midrange mit nur zwei Chips etwas Geld verdienen zu können.

Wenn sich die nächste oder übernächste Datacenter GPU mit einfachen Mitteln zur konkurrenzfähigen Highend Gamingkarte gestalten lässt, kommt da vielleicht mal wieder was... wenn Gaming bei AMD bis dahin nicht ganz tot ist.

Man kann mich wirklich nicht als Hardware Profi bezeichnen. Meine Perspektive ist die eines ... ich nenne es mal informierten Konsumenten. Aus dieser Perspektive hat AMD eine technologische aber auch preispolitische Führung in Sachen CPU. Ob man das nun TSMC oder AMD zuschreibt lass ich mal dahingestellt.

Egal wie - wer sich für eine aktuelle AMD CPU entscheidet muss sich nicht sorgen machen einen Fehlkauf getätigt zu haben. Ein Luxus, den Intel Käufer der letzten Generation(en) nicht hatten.

Aber wenn wir uns die GK anschauen sieht es einfach komplett anders aus. Für mich waren früher AMD Karten eine Preis-Leistungs-Alternative. Vor vielen Jahren. Heute, wo der Preis kaum noch eine Rolle für mich spielt sieht das anders aus. Abgesehen davon, dass AMD technologisch hier seit Jahren nicht mehr mithalten kann oder will. Sowohl die Leistung der Karten an sich als auch die neuen Features bleiben denen von NVIDAIA in fast allen Punkten unterlegen. Abgesehen davon, dass AMD schon immer ein Softwareproblem hatte, das bis heute nicht gelöst zu sein scheint.

Als Konsument ist es für mich vermutlich von Nachteil das AMD so nachhaltig unter performt - aber ganz bestimmt werde ich nicht so tun, als würden sie in dem Segment goldene Eier legen, denn das tuen sie nicht. Eher steigt die Enttäuschung von Generation zu Generation. Ob das daran liegt, das NVIDIA konsequent auf das richtige konzeptionelle Pferd gesetzt hat und ihre Karten einfach so gut performen oder ob es daran liegt, dass AMD so schlecht abliefert - das weis ich nicht.

Ok, das mit dem Stecker ziehen habe ich dann falsch verstanden - aber ja in dem Fall hast du recht und es ist - aus meiner Konsumentenperspektive vermutlich die bessere Entscheidung. Wenn sie nicht im oberen Segment mitspielen können, konzentrieren sie sich eben auf die unteren und liefern wieder Preis-Leistungs-Alternativen. So weit die Theorie. Aber selbst das sehe ich aktuell nicht.

es ist sonntag, da geht auch etwas mehr niveau bitte.
Ich dachte grade weil es Sonntag ist, geht es kaum über dieses Niveau :P
 
Danke für die ausführliche Antwort.

Verstehe ich alles, gerade aus Perspektive von einem Kunden, dem der Preis weniger wichtig ist. Da nehme ich das beste am Markt, Punkt.

Deshalb ist das Zweitbeste jedoch nicht gleich schlecht.

Gerade beim Punkt Preis per Frame in Punkto Raster sehe ich und PCGH AMD vorne.


Alltagsbeispiel: ein Freund wollte sich einen neuen Rechner kaufen, als damals der 9800x3d rauskam, der die CPU der Begierde war. Budget: 2500 EEuro. Die beste Graka für das Restbudget war damals die XTX. Mit Augen zu drücken und kleiner Budgetüberschreitung wäre Die 4080 gerade so auch noch gegangen, er wollte für das Geld aber keine 16GB VRAM. Er ist mit dem Rechner und der Graka mehr als happy.
Würde nicht behaupten, das das eine "Kackkarte" ist 😉

Ich freue mich auf FSR4
 
Stimmt - immerhin ist Intel schuld, dass AMD CPU nicht verfügbar sind,
Da ergibt es auch Sinn, dass Nvidia schuld ist, dass AMD nur Kackkarten im Portfolio hat.

Ich erkenne ein Muster.
Wie Du selbst zugegeben hast, ist INTEL schuld, dass AMD den RYZEN 7 9800X3D nicht ausreichend liefern kann,

dann ist es doch Plausibel, dass auch hier INTEL schuld ist und nicht NVIDIA, dass AMD keine High END Karten bietet:ROFLMAO::LOL:
Beitrag automatisch zusammengeführt:

Zum Thema:

Ich befürchte, dass die neuen Radeon 9070/XT richtig gut und sehr gefragt sein werden,

daher werden die angeblichen günstigen Preise schnell nach oben gehen.

In der Mittelklasse wird AMD dank dem Radeon 9070/XT wohl wieder etwas ryzen pardon reißen.

Wie bei den Ryzen 9800X3D werden die Radeon 9070/XT sich wie warme Semmeln verkaufen,

danach werden einige hier, es sind immer die Selben, meckern und was von Paperlaunch reden.

Merke, wer zuerst kommt, malt auch zuerst.

Andere zahlen drauf. Und dank FSR 4.0 hat die neue Radeon 9070/XT schon was.
 
Zuletzt bearbeitet:
AMD zwingt Dich nicht, NVIDIA zu kaufen. Es sind die Scharen an NVIDIA Käufern, die Dich zwingen, NVIDIA zu kaufen.
Und wo ist dann bitte die 9080 XTX? Wenn man mehr Leistung will als Mittelklasse dann bleibt einem keine Wahl. Und wieso sollten mich NVIDIA-Käufer nötigen die zu kaufen, die Lust auf 4K120 mit RT nötigt mich allerhöchstens. Ich habe beide Flaggschiffe von AMD und 2019 die 5700 XT zu Launch gekauft.

Eine so große Firma sollte es sich schon leisten können bzw. den Anspruch haben zumindest im Highend noch abzuliefern. Im CPU-Markt dominieren sie im Moment. Wie wäre es da mal die Profite in R&D umzusetzen und die GPU-Sparte anzutreiben? Die 9070 ist nichtmal schlecht, für ihre Leistungsklasse scheint sie top zu sein, sie ist leider nur eine ~300 mm² Mittelklassekarte wie die 5700 XT damals. Sie müssen ja nicht gleich mit der 5090 konkurrieren, aber die Preisklasse bis 1000 € ist durchaus noch relevant für "normale" Gamer. Das ist auch so ungefähr mein hard limit beim GPU-Kauf. Ich sehe schon schwarz für die Zukunft wenn sie keine Flaggschiffe mehr liefern wird der Markt grün dominiert und es gibt wieder Stagnation wie zu besten Intel-Zeiten.
 
Zuletzt bearbeitet:
Hier verdrehst Du was, aber egal, kauft NVIDIA und lasst uns in Ruhe.
Oha, ich hoffe Du bist heute mit dem falschen Bein aufgestanden und das ist nicht Deine normale Art.

Ich habe Dir oder "euch" nichts getan. Weiß auch nicht wer "wir" sein sollen. Schönen Abend
 
@FirstAid:
Da nur 2 verschiedene verschieden Wafer für die GPU's belichtet werden müssen,
können eigentlich genügend GPUs auf den Markt kommen.

Aber wer weiss schon was da für Engpässe bei der Platinenbestückung vorkommen können.
Es könnte eine bessere Verfügbarkeit geben, als man sie sonst von AMD gewohnt ist, weil es keinen festen Termin gibt.
 
@BulletTooth

Dein Wort in Gottes Ohr, das chinesische Neujahrsfest fällt in diesem Jahr auf dem 29. Januar 2025, bis dahin müssen die Grafikkarten die Häfen verlassen haben,

denn an diesem Stichtag läuft in China nicht mehr viel.
 
Ich weis nicht so recht man kauft sich um 100te Euro eine Karte um dann Upsampling aktivieren zu können/müssen was eigentlich im Grundgedanke mal dazu war Leistungsschwacher Hardware mehr FPS zu entlocken, ich spiel lieber Nativ.

Mit der UHD 630 war FSR ein segen, aber selbst mit der ARC A380 spiel ich lieber Nativ.
 
Mit der Raphael IGPU macht FSR 3.1 + FG den Unterschied zwischen 30 und 60 FPS. Sieht beides beschissen aus aber trotz FG ist es einfach flüssiger. Hier macht sowas mehr Sinn als im Highend. Da kommt man selbst auf der schwächsten Hardware von unspielbaren in spielbare FPS.
 
Ich weis nicht so recht man kauft sich um 100te Euro eine Karte um dann Upsampling aktivieren zu können/müssen was eigentlich im Grundgedanke mal dazu war Leistungsschwacher Hardware mehr FPS zu entlocken, ich spiel lieber Nativ.

Mit der UHD 630 war FSR ein segen, aber selbst mit der ARC A380 spiel ich lieber Nativ.
Genau das denke ich auch immer !
 
Irgendetwas ist bei den Menschen schief gelaufen, Upscaling war immer verpöhnt als Konsolen Sache und deswegen Nativ PCMR und heute feierns die Leute weil ihre GK um 500,600€ etc. zu schwach ist Nativ zu rendern. Das ist echt gelungenes Marketing wenn Menschen behaupten ein von 892p hochgerechnetes Bild sieht besser aus als 1440p nativ. :fresse2:
 
Ja. stimme dir 100% zu ! Dennoch: wenn ich früher eine Grafikkarte gekauft habe für um die 600,- konnte ich erwarten dass diese auch nativ kann in *vernünftigen fps. Seien das dann damals dann 1280x1024 oder 1920x1080 oder 2560x1440 oder eben jetzt 3840x2160 gewesen. Naja, als ich eine 1280x1024 Auflösung hatte musste ich noch nicht mal 600,- ausgeben dafür. Das hätte man damals vielleicht höchstens für eine 8800 Ultra oder GTX bezahlt.
Ich kann die Leute also ein bisschen verstehen. Die meisten wollen aber eh nur lange Balken.

Ich mag Upscaling nicht weil alles verwaschen aussieht. Eben konsolenlike.

Vor allem finde ich es ein Unding dass Frames jetzt auch per AI generiert werden. Ich will doch sehen was da von den Programmierern vorgesehen ist und nicht von einer KI !? Gehts denn noch ? Wieso kauft man Hardware nicht entsprechend ? Ich habe lange Zeit auf FullHD gespielt mit einem Ryzen2600 und 3200er RAM mit einer 5700XT. Da wäre vielleicht noch gerade so WQHD drin gewesen. Aber UHD nicht. Hat trotzdem Spaß gemacht. Fast genauso. Aufgerüstet hauptsächlich wegen Basteltrieb und neuen Schnittstellen. Wohlgemerkt: Ich spreche hier immer von ingame alles auf Anschlag oder fast alles, und bei relativ aktuellen Titeln natürlich. Ingame alle möglichen Slider (besonders Texturen z.B.) zu bedienen scheint auch manchen fremd zu sein. Ich merke in Witcher3 kaum einen Unterschied zwischen Texturen auf Ultra+ und Hoch oder Ultra. Jedenfalls lieber dort was weglassen und dafür einfach native Auflösung !

Was mich außerdem stört ist dass diese ganzen Dinge doch nur dazu führen dass Spielesoftware (v.a.) einfach nicht optimiert wird. Dass die Progger da nicht richtig was rausholen aus dem was da ist. Man kann Nintendo vorwerfen was man will. Aber was die auf der Switch rausholen ist enorm und sollte Paradebeispiel sein !

*Vernünftige fps sind für mich 60+ in RPGs und 100+ in Ego Shootern. Alles unter 60 geht GAR nicht.
 
Zuletzt bearbeitet:
Weil DLSS und FSR ab 2.0 eben mehr sind als simples Upscaling.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh