[Sammelthread] AMD RDNA4 Smalltalk-Thread

Ja, der war schon fast auf Holzi-Niveau, was einem, wenn die Frau grad Let's Dance schaut, stimmungsmäßig einem eh schon in großer Höhe erwischt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die aussage ist schon gewagt wie ich finde. wer definiert das denn? du?

DLSS ist schon ne ganze Ecke besser als FSR, das ist der Grund, und ich mein damit nicht MFG sondern einzig das Upscaling.

Ich war selbst lang genug mit der 7900XT und davor 6700XT unterwegs um zu wissen wie oft ich FSR nutzen wollte, weil es meist einfach (noch) schlimmer aussah als TAA.

Forza Horizon 5 ist das einzige Spiel, bei dem mir selbst DLSS nicht gut genug aussieht, vermutlich weil ich das mit Bewegungsunschärfe spiele und auch DLSS damit eine Art Schatten hinter dem Fahrzeug erzeugt.

Aber insbesondere wenn deine Lieblingsspiele kein FSR3 (und damit wohl zunächst auch FSR4) unterstützen wird man je nach Anspruch an die Bildqualität lieber in nativ/mit TAA spielen müssen, als mit den Problemen der frühen FSR Modelle rumzumachen, zB Ghosting, Nachschlieren, Verpixelung.

Selbst FSR 3.1 ist da noch nicht so gut als das man es grundsätzlich nutzen könnte: https://www.computerbase.de/artikel...orbidden-west-spider-man-miles-morales.88902/
Ich war vor der 4070 auch immer so ein "Anti Upscaler Typ" weil meine letzte NV eine 1070 war, und nie den Hype um DLSS verstehen konnte.

Die Demo von The Alters (17GB) hab ich gerade runtergeladen, hat auch FSR3, aber das Spiel hat derart viele Effekte das ich nicht weiß was da jetzt noch normal, "richtig" oder schon "falsch" ist.
Aber nur mal kurzer Test und mit FSR3 auf Quality ist da einfach fast kein Regen mehr zu sehen ganz am Anfang, nativ soll wohl Regen sichtbar sein aber der ist ebenso fusselig/verpixelt, vermutlich kann deshalb FSR auch nichts groß retten, während mit DLSS der Regen widerrum zu deutlich sichtbar ist.

Im kommenden GTA5 Update werde ich gerne nochmal mal DLSS mit FSR3 vergleichen, da ich scheinbar echt keine anderen Titel hab, die bereits FSR 3.1 unterstützen.
Immerhin ein Spiel was man oft genug gesehen hat um zu wissen wie etwas aussehen soll, und mit dem RT Update vllt auch lohnenswert es nochmal zu spielen.

Um zur Ursprungsfrage zurück zu kommen:

Wenn du bei NV aus der 4070/5070 (mehr oder weniger) nur durch DLSS fast die gleiche Bildqualität rausholen kannst, wie mit der 9070XT in nativem Rendern, verschiebt sich der Kontrahent nun mal und AMD muss deutlich billiger sein.

Klar ist DLSS nicht immer ein Wundermittel, aber zu 80% leider schon, und das wird viel öfter und schneller implementiert als FSR, und ein nachträgliches Update von FSR ist die absolute Ausnahme, und die neusten Versionen schaffens dann in aktuelle Titel, so gut oder schlecht sie auch sein mögen...

Ebenso ein nicht unwesentlicher Faktor der bei DLSS dazu kommt, ist dadurch auch noch die potenzielle Stromersparnis bei gleichbleibender Qualität.
Diablo 4 kann ich in DLSS Balanced zocken und die Karte verbraucht ~120w mit 90FPS Limit, nativ komme ich gerade so an über 80fps in UHD bei 220W, das Bild sieht aber nicht besser aus.
Und FSR leidet erneut an den selben Problemen, da es nicht die aktuellste (beste) Version ist, ergo ich lieber in nativ, oder per Auflösungsskalierung spielen muss mit AMD, was ich mit der 7900XT auch getan hab.
 
DLSS ist schon ne ganze Ecke besser als FSR,

Im kommenden GTA5 Update werde ich gerne nochmal mal DLSS mit FSR3 vergleichen, da ich scheinbar echt keine anderen Titel hab, die bereits FSR 3.1 unterstützen.

Aaaahja,... kein Titel mit FSR3.1 aber den Sprung von 3.0 zu 3.1 beurteilen können? Eigentlich genug gelesen bis dahin, aber der war auch noch gut:

Wenn du bei NV aus der 4070/5070 (mehr oder weniger) nur durch DLSS fast die gleiche Bildqualität rausholen kannst, wie mit der 9070XT in nativem Rendern, verschiebt sich der Kontrahent nun mal und AMD muss deutlich billiger sein.

Das Video von AMD zu FSR4 hast du aber gesehen, oder die von der CES2025?

Ich hab hier aktuell ne 4070 und 7900XTX kann also FSR3.1 mit DLSS vergleichen und ja, FSR3.1 kommt an DLSS nicht ran, aber der Abstand von FSR3.0 zu FSR3.1 ist imho dann doch nochmal deutlich erkennbar! Und bei allem was man von FSR 4 bisher gesehen hat, würde ich mich nicht zu solchen Aussagen hinreisen lassen.

Wenn ich mir anschaue, wo die 5070Ti mit Ihrem Marktpreis liegt(1100...1200,-€) dann ist die selbst auf den AMD eigenen "Alles ist Geil"-Folien gezeigt Leistung den MSRP Preis mehr als wert und selbst für 800,- Marktpreis würden die 9070XT Karten ordentlich verkauft werden...

Aber vielleicht verseilt AMD ja auch Treiber & VBIOS, das man Blackscreens, etc. hat, oder verzoddelt ein paar ROPs... Oder oder oder....

Du hast die RDNA4 Karten nicht gesehen, ich auch nicht, und wenn Tests zeigen, dass es Bullshit ist, ok, aber alles was man bisher hört, von denen die die Karten bereits haben(trotz NDA) scheint AMD einen Top-Job gemacht zu haben. Woher du also die Erkenntnisse zu RDNA4 hast, darfst du uns aber gerne näher bringen.
 
Bin sehr gespannt auf die 9070xt wird auf jeden Fall gekauft und getestet. Allein schon aus Prinzip was Nvidia die letzten Jahre für einen Scheiss fabriziert und veranstaltet hat. Johny Lederjacke sind die Gamer vollkommen egal Hauptsache KI und andere Server relevante Zweige explodieren im Gewinn.
 
Na was ich so gesehen habe scheint die 9070Xt wohl ca. 130 % - 140 % so schnell wie eine 6700 XT zu sein, aber mal die Tests abwarten ob das zutrifft.
Wenn ja und da kommen nur 90 % raus ist das Teil schon so gut wie gekauft, dann kommt es auf den Preis an.
Für meine RX 6700 XT habe ich 2022 730 € gezahlt, für die RX 9070 XT würde ich, bei eine guten Custom GPU bis 850 € zahlen, hoffentlich gehen die Preise nicht durch die Decke wenn die Leistung auch nur annähernd so ist wie bei der Präsentation vorgestellt.
Ich sitze vor der gleichen CPU/GPU-Kombi wie du und beobachte die 5070XT auch sehr genau.
Hatte die 6700XT gekauft als ich noch einen FHD 16:10 Monitor hatte, dafür war sie mehr als ausreichend, jetzt mit 3440x1440 wirds langsam unlustig...
Plan ist heuer eine neue GPU, dann beten das nichts großes kaputt wird und ich AM5 aussitzen kann.

Hab aber eher so 700€ als Budget im Kopf.
 
Aaaahja,... kein Titel mit FSR3.1 aber den Sprung von 3.0 zu 3.1 beurteilen können? Eigentlich genug gelesen bis dahin, aber der war auch noch gut:



Das Video von AMD zu FSR4 hast du aber gesehen, oder die von der CES2025?

Ich hab hier aktuell ne 4070 und 7900XTX kann also FSR3.1 mit DLSS vergleichen und ja, FSR3.1 kommt an DLSS nicht ran, aber der Abstand von FSR3.0 zu FSR3.1 ist imho dann doch nochmal deutlich erkennbar! Und bei allem was man von FSR 4 bisher gesehen hat, würde ich mich nicht zu solchen Aussagen hinreisen lassen.

Wenn ich mir anschaue, wo die 5070Ti mit Ihrem Marktpreis liegt(1100...1200,-€) dann ist die selbst auf den AMD eigenen "Alles ist Geil"-Folien gezeigt Leistung den MSRP Preis mehr als wert und selbst für 800,- Marktpreis würden die 9070XT Karten ordentlich verkauft werden...

Aber vielleicht verseilt AMD ja auch Treiber & VBIOS, das man Blackscreens, etc. hat, oder verzoddelt ein paar ROPs... Oder oder oder....

Du hast die RDNA4 Karten nicht gesehen, ich auch nicht, und wenn Tests zeigen, dass es Bullshit ist, ok, aber alles was man bisher hört, von denen die die Karten bereits haben(trotz NDA) scheint AMD einen Top-Job gemacht zu haben. Woher du also die Erkenntnisse zu RDNA4 hast, darfst du uns aber gerne näher bringen.

Die Frage war warum AMD billiger sein muss, meine Antwort war weil DLSS besser ist und das für viele ein gravierender Vorteil ist.

Ich hab auch nur gesagt das die bisherigen FSR Modelle relativ schlecht waren, besonders im Vergleich.
Ob FSR3.1 nun besser ist kann sein, aber die Frage ist ob trotzdem ob es gut genug ist, bei CB war leider nur Performance im Vergleichsbildern und da sag ich klar nein.

Wenn FSR4 aber irgendwie annähernd an DLSS rankommt, und sei es nur Quality ist so gut wie Balanced, aber es hat keinerlei Nachschlieren, Pixelbrei etc mehr, dann ist das doch großartig!

Nur bleibt dann ein wesentlicher Faktor außen vor, ob ältere Spiele FSR4 bekommen oder nicht, oder ob man das irgendwie per Treiber erzwingen kann, das wäre dann genial.

Nirgendwo hab ich gesagt das RDNA4 schlecht wäre.

Sollten die AMD Karten auch nur irgendwo im Bereich von 500-700€ wirklich zu kaufen sein, dann wäre es fahrlässig sich nicht eine zu besorgen, gerade wenn man eine Karte braucht, DLSS hin oder her, allein schon wegen der 16GB im Vergleich zu den 12GB der 5070.

Ich bin selbst gespannt auf die Karten, eher noch auf die normale 9070, aber für mich macht der Wechsel schlicht keinen Sinn, da ich sehr zufrieden mit der 4070 Super bin, vor allem auch was Strombedarf angeht, und damit meine ich nicht die 200W Volllast, sondern der Verbrauch wenn man Youtube etc laufen lässt und nebenbei surft, oder irgend 0815 Indie Titel spielt, der die Karte dann nur 30W mehr verbrauchen lässt, und nicht gleich 100W mehr.
 
Ich sehe DLSS auch als Knackpunkt an.
Zu gut und zu verbreitet.

FSR egal welche Version, nicht ganz so gut und Verbreitung auch eher mau und von der Implementierung in manchen Games braucht man gar nicht erst reden.
Wird halt einfach stiefmütterlich behandelt um ernsthaft in Konkurrenz zu treten.
 
Ich finde es schon etwas befremdlich, wie du als Mod gerne passiv aggressiv auftrittst ehrlich gesagt.

Die Erfahrung hat doch (leider) gezeigt, dass AMD nur dann wirklich Marktanteile bei den GPUs für sich gewinnen kann, wenn man Nvidia sehr deutlich in Sachen Preis unterbietet - selbst dann tut man sich schwer.

Das war bei den CPUs ja nicht anders zu Ryzen 1000-Zeiten und Intel. Dort war es anfangs auch ein harter Kampf, obwohl man den Platzhirsch sowohl in Sachen Preis als auch Leistung deutlich auf die Plätze verweisen konnte.
ich finde es befremdlich wie sich hier zig leute hinstellen und einem unternehmen erklären wollen wie die welt funktioniert.

wir wissen noch nicht einmal abschliessend wie sich die karten tatsächlich in freier wildbahn im direkten vergleich zur konkurrenz verhalten aber schlecht reden und über preise meckern das ist dann in ordnung?

marktanteile wird amd sowieso nicht reißen können. ich weiß nicht was da für erwartungen sind.
wann wurde die erste ryzen serie vorgestellt? so 2017 müsste es gewesen sein.
danach ist jede generation besser geworden, man ist gleich gezogen mit intel und mittlerweile sogar vorbei und trotzdem ist man irgendwo bei knapp 25% marktanteil.

wenn man das sieht, was genau soll rdna4 hier schaffen?
blackwell ist die erste generation seit ewig die ein klein wenig schwächelt, aber mit 90% marktanteil richtet sich alles an nvidia aus.
zu glauben mit kampfpreisen ändert sich da was halte ich für falsch um nicht zu sagen naiv.
 
marktanteile wird amd sowieso nicht reißen können.

Exakt! Es müssten jetzt die nächsten Generationen von AMD GPUs eine Ryzen ähnliche Entwicklung hinlegen, dann können wir in ein paar Jahren wieder mal ins marketshare schauen. Von heute auf morgen passiert da gar nichts!

wann wurde die erste ryzen serie vorgestellt? so 2017 müsste es gewesen sein.
danach ist jede generation besser geworden, man ist gleich gezogen mit intel und mittlerweile sogar vorbei und trotzdem ist man irgendwo bei knapp 25% marktanteil.

Exakt! Weil "am Markt", den Foren, den asozialen Medien halt die Marktverteilung auch ihre Wirkung zeigt.... Fragt ein Anfänger welche GPU er nehmen soll, dauert es ca. 5...7 Posts, bis der Erste kommt " Ja, neee also AMD kannste nicht nehmen.... Treiber.... dieses... jenes...." Dann finden sich bei 90% nVidia am Markt und 10% AMD halt entsprechend die "Meinungen" dazu. Ein ausgewogenes Bild zeigt sich da dann nicht mehr.

Teile der Youtuber; Influencer, und leider auch HW-Seiten (Nicht das Luxx, deswegen bin ich ja hier gestrandet) erlauben sich auch immer öfter "Meinung" zu Hardware Themen anstatt Vergleiche & Fakten.


wenn man das sieht, was genau soll rdna4 hier schaffen?
blackwell ist die erste generation seit ewig die ein klein wenig schwächelt, aber mit 90% marktanteil richtet sich alles an nvidia aus.
zu glauben mit kampfpreisen ändert sich da was halte ich für falsch um nicht zu sagen naiv.

Exakt, die Dritte! Ich gehe sogar noch weiter und sage: Kampfpreise seitens AMD schaden am Ende AMD, weil mittelfristig das Entwicklungsbudget leiden wird. AMD braucht einfach einen fairen Marktpreis, und ich denke den sehen wir bei RDNA4, zumindest mehr als in den letzten 3 Gens.

So genug fürs erste... Den Vormittag noch zum Zocken nutzen(ok, so gut es eben mit AMD geht, man weiss ja 320x240 max, bei 4Bit Farbtiefe) bevor der Ernst des Wochenendes eintritt!
 
blackwell ist die erste generation seit ewig die ein klein wenig schwächelt, aber mit 90% marktanteil richtet sich alles an nvidia aus.
Und ich würde sogar soweit gehen und behaupten, dass das so beabsichtigt war, weil man nicht mehr abliefern muss.
DLSS4 mit MFG reicht als Neuerung schon aus.
Und wie man sieht, werden die Karten fast egal zu welchem Preis den Händlern aus den Händen gerissen.
 
trotzdem ist man irgendwo bei knapp 25% marktanteil.
35%
Link
AMD hat gut 10 Jahre gebraucht dafür. Es hat auch seine Zeit gebraucht, bis die Leute AMD CPUs als gleichwertig zu Intel angesehen haben. Bei den Grafikkarten wird es nicht viel anders werden. AMD hat in der Vergangenheit einen langen Atem bewiesen und alle können nur hoffen, dass dies so bleibt. Schlecht wäre ein Preiskampf mit Intel, denn da würde sich nur Nvidia drüber freuen.
 
ich finde es befremdlich wie sich hier zig leute hinstellen und einem unternehmen erklären wollen wie die welt funktioniert.

wir wissen noch nicht einmal abschliessend wie sich die karten tatsächlich in freier wildbahn im direkten vergleich zur konkurrenz verhalten aber schlecht reden und über preise meckern das ist dann in ordnung?

Volle Zustimmung!

Was viele vergessen: AMD ist im Vergleich zu Nvidia und Intel immernoch ein Zwerg.


Der Unterschied ist, dass AMD mit den geringeren Mitteln viel besser umgeht und so konkurrenzfähig ist.

Was mit Ryzen passiert ist, war ein kleines Wunder.

Was hier mit RDNA4 abgeliefert wird, ist ebenso höchst respektabel. Ca die gleiche Performance wie die Konkurrenz, die auf ein vielfaches an R&D Budget und eine viel bessere Infrastruktur hat ist eine sehr gute Leistung. Das man in Sachen DLSS etwas hinterher hinkt, ist mit diesem Hintergrund zu verschmerzen.

Alle, die nach noch niedrigeren Preisen schreien: gut, dann hat AMD eben keine Marge mehr und macht dann die Gaming Sparte dicht. Viel Spaß im endgültigen Nvidia Monopol, die werden bestimmt die Preise niedrig halten, weil sie Gamer lieben.
 
Zuletzt bearbeitet:
Viel Spaß im endgültigen Nvidia Monopol, die werden bestimmt die Preise niedrig halten, weil sie Gamer lieben.

Wenn man ehrlich ist, hat nVidia ein Quasi-Monopol... Die Preisentwicklung der 4090.... 5090 zeigt das ja. Da kann nVidia dann ganz entspannt Chips verknappen um die Preise bis in die nächste Gen hoch zu halten um dann wieder 400...500,-$ auf den MSRP drauf zu schlagen...

Die Boardpartner klammern derweil immer mehr aus den Garantiebestimmungen aus... z.B. Weiterverkauf der GPU, aber was solls? 2k€ für ne gebrauchte 4090 sind ja kein Thema....
 
Nvidia könnte dann ja zerschlagen werden :-)
 
@VL125 Naja, es gab/gibts ja bereits Ermittlungen gegen nVidia wegen der KI-Chips.... Aber selbst wenn das mal ernst würde (was ich nicht glaube), würden sich genügend mit Stockholm-Syndrom finden die dann auf die Barrikaden gehen würden... Auf die Straße vorm nVidia HQ kleben oder so...
 
Das ist mal interessant, hab ich grad aus CB geschnippelt. Über die Stromanschlüssen (Go und NoGos).
Bildschirmfoto 2025-03-01 um 16.31.25.png
 
Da mir der Stromanschluss bei den Wattzahlen ziemlich egal ist, kommts mir eher auf die Kühlung an bzw. wie laut die Karten werden.
 
Ne, ich hätt aktuell garkeinen Grund von den 2 oder 3 8-Pin zum grünen Firewire zu gehen. Also ne Karte mit den unnützen Brennanschluss - nein. Ich geh bei den RDNA4 nicht von schmelzenden Steckern oder Bränden aus, aber mir ist dieser depperte Anschluss einfach zuwider.
 
@ApolloX Leider ist der 12V2x6 bestandteil der PCIe5 Spezifikation, daran beteiligt sind die Mitglieder der PCI-SIG:


....und nicht nur die grüne Gewinnmaximierungs-Bude.

Ich bin auch nicht begeistert von der Entwicklung, vor allem nicht von 600W für das Steckerle, aber wir werden den leider in Zukunft immer öfter sehen. Zumindest so lange es nicht irgendwo mal richtig eskaliert. Bis dahin wird selbst Kauf-Verweigerung zu nichts führen.
 
Ich hab aktuell den 16pin am Netzteil dran, sprich müsste ich den gegen die 3 tauschen, was kein Akt wäre, aber ich denk das die Sapphire Nitro mir am besten zusagt, schön die Kabel versteckt. Also muss ich net wieder basteln.
 
Bei der Gigabyte Gaming haben die sich wohl vertan, oder? Da stehen 22,8 cm. Wobei Zotac hat es ja bei der GTX 1080 Ti mit 250 W geschafft, das ganze auf 21 cm zu halten. Also wären 22,8 cm bei 304 W ja möglich. Die großen Fragen sind aber bei welchen Temperaturen und wie laut.
 
Mit Freude werde ich den 12VHPWR an die Sapphire Nitro+ klemmen, anstatt da mit dem 3 x 8 Pin gescheites Kabelmanagement zu betreiben.

Wenn kein oder kaum Spulenfiepen vorhanden ist und die Karte bleibt, fliegen die Standardlüfter inkl. Rahmen raus und 2 - 3 Phanteks T30 werden draufgeschnallt. :bigok:
 
Guten Abend,

ich halte bereits Ausschau ob man etwas zu den Preisen der verschiedenen Customs finden kann, aber bisher noch gähnende Leere. Wir da bis zum 5 gewartet? Ich dachte durch die UVP Ansage sind die Hersteller nun frei mehr dazu preiszugeben.
 
Das wird sicherlich bis zum Testembargo dauern. So war es zumindest in der Vergangenheit. Eine offizielle UVP für hierzulande gibt es ja auch noch nicht.

Gehe mal davon aus, dass die einfachsten Modelle (Powercolor Reaper, Asus Dual [falls es sie gibt], Sapphire Pulse, AsRock Challenger) die UVP-Modelle sein werden und die anderen mit einem Aufpreis daher kommen.
Wie hoch der sein wird, wird man sehen.
 
Das wird sicherlich bis zum Testembargo dauern. So war es zumindest in der Vergangenheit. Eine offizielle UVP für hierzulande gibt es ja auch noch nicht.

Gehe mal davon aus, dass die einfachsten Modelle (Powercolor Reaper, Asus Dual [falls es sie gibt], Sapphire Pulse, AsRock Challenger) die UVP-Modelle sein werden und die anderen mit einem Aufpreis daher kommen.
Wie hoch der sein wird, wird man sehen.
XFX Swift noch.
 
Korrekt. Gigabyte gibts bestimmt auch ein UVP-Modell, aber die habe ich irgendwie nie auf dem Schirm.
oh, und Acer gibt es ja auch mittlerweile :d
 
Wichtig wäre mir vor allem wie sich die großen 340Watt Karten von den kleinen unterscheiden.
Per Software / BIOS Flash von klein zu groß wechseln, wie sieht die Spannungsvergrung aus, wie die Sicherungen... das könnte mal jemand zusammentragen um die Auswahl zu erleichtern :d.
Ob HWLuxx wohl die Karten ausseinander nimmt nach den Tests und schöne Fotos macht? :love:
 
Sehe ich das richtig, dass bei der Nitro der RGB-Sarotti extra verkabelt werden muss? Das wäre ja ein Träumchen... dann wäre der Quatsch ganz ohne Software, einfach AUS... Kabel ab und AUS...
Das stört mich bei der Devil, die zeigen auf der Homepage schon die Software die man für die Beleuchtung "braucht"....
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh