[Sammelthread] AMD RDNA4 Smalltalk-Thread

Ich hab für die RX6800 Ref über 600€ bezahlt, das waren die Preise zu Release und waren gut.
Zu Relase gabs die RTX 3080 10GB für 1000€ und die ist heute langsamer als eine 1/3 so teure RX6700XT 12GB :d Also RDNA 2 P/L war schon Mega.
Leider ist die Masse immer Dumm und verbrennt Geld mit dem Kauf von Nvidia.
Indiana Jones RTX 3080 10GB.jpg

Kumpel von mir hat mehr Geld für seine RTX 3070ti 8GB ausgegeben als ich für meine RX6800 nonXT.
Und in Star Citizen zocken wir beide 1440p. Und bei ihm fehlen immer viel mehr Textur Details und er ärgert sich heute nicht auch Radeon gekauft zu haben, kauft sich als nächstes aber wieder eine Nvidia.
Manche lernen es nie.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ändert leider nichts daran, dass bei Dedizierten GPU,s der letzten 3 Generationen, AMD,s Marktanteil bei Steam auf 8% liegt, und Nvidia bei 92%.
Keine Ahnung, auf welche Quelle du dich berufst, aber ein wenig anders sieht es lauf Steam schon aus (nicht, dass es damit gut für AMD aussähe):
1737205018170.png

Quelle: PC: Verwendete Grafikkarten nach Hersteller (Steam)

Btw: Ich habe aktuell anstatt der 6900XT, die nun für Fortnite im PC meines Sohnes steckt, wieder meine alte 6700XT drin und ich bin erstaunt, wie gut sie auch unter UWQHD (bei älteren Spielen) meine Ziel-FPS von 144 abbildet - klar, die große RDNA2-Karte hat da deutlich weniger Mühe, aber es geht gut und dazu auch noch sehr leise.

Bei mir steht klar der Erwerb einer neuen AMD-Karte an, ich schwanke "nur" noch zwischen einer 2nd-market-XTX und der 9070xt, die Qualität der Custommodelle wird es machen. Und dann werde ich wieder Ruhe haben und eigentlich eine zu starke Grafikkarte im PC haben... :giggle:
 
Zuletzt bearbeitet:
Keine Ahnung, auf welche Quelle du dich berufst
Ich sagte Dediziert. In deiner Übersicht sind auch APU,s und iGPU,s von Laptops etc. Bitte Präziser.
Ich hatte mir die mühe gemacht und alle einzelnen Modelle gezählt welche Dedizierte Grafikkarten sind, und nur die letzten 3 Generationen.
Da komme ich auf diese Zahlen. Vorallem glänzt AMD noch mit Polaris aus dem Jahr 2016, aber betrachtet man nur die letzten 3 Gens, sieht es bitter aus.
 
Für die 3080 Ref hab ich 730€ bezahlt, also ebenfalls UVP. Es war aber um einiges schwieriger an nV Karten zu kommen als an AMD. Und AMD war auch schon nicht einfach.

Habe damals insgesamt 2x RX6800 und 2x RX6700XT gekauft.

Letztes Jahr für den PC von meiner Freundin auch noch eine RX6800 für 360€, in diesem Preisbereich gabs einfach nix besseres.
 
@Nighteye:
Das mit dem "keine Ahnung" war ehrlich gemeint. Danke für die Präzisierung.
 
Letztes Jahr für den PC von meiner Freundin auch noch eine RX6800 für 360€, in diesem Preisbereich gabs einfach nix besseres.
Und überleg mal, laut Steam hat die RX6800 quasi keine Relevanz obwohl sie viel besser ist als jede RTX 4060 8GB fürs gleiche Geld welche laut Steam 5% haben.
Gleichzeitig kommt die Radeon nichtmal auf 0,3% Verbreitung. Ein Witz.
1737205828024.png

1737205986035.png

Wenn dass so weiter geht hat Radeon bald nur noch 5% Marktanteil.
Für dich und mich mag dass zwar egal sein, weil wir weiter Radeon Kaufen.
Aber FSR wird immer seltener in Spiele Integriert, und DLSS um so mehr.
(RTX 4060 8GB nonTi von Asus)
1737206069329.png
1737206207676.png

Radeon Nvidia User II.jpg
 
Zuletzt bearbeitet:
Das wird sich in naher Zukunft auch nicht ändern.
Es bringt auch nix sich drüber aufzuregen 🤷

Eine B580 wird sich auch nicht etablieren und es wird weiter die 4060 gekauft werden.
Es ist halt so.

Entweder AMD und Intel werden überleben und sich irgendwie in den Markt weiter integrieren oder sie geben auf und nV ist alleine am Markt.

Wir werden es nicht ändern und sich deshalb graue Haare wachsen zu lassen ist doch auch nicht Ziel führend 😉
 
Ich habe mit 2021 die 6800 gekauft und ich bereue es nicht. Die Karte ist sehr gut gealtert und erfüllt auch heute noch ihren Zweck. Auf QHD läuft alles ohne mit den Details auf unschön runter zu gehen Viele Spiele laufen auch mit Max Details in flüssig. Für den Preis eigentlich ein no Brainer. Hat halt nicht die vielen so von nv gehypten Technologien.
Ich liebäuge schon mit dem Upgrade auf die 9070xt, auch wenn ich es eigentlich nicht brauche. Vielleicht bleibt die aber auch noch ein Jahr im Rechner. Im Gegensatz zu nv sinken die Preise der AMD Karten ja immer über die Zeit.
 
Zu Relase gabs die RTX 3080 10GB für 1000€ und die ist heute langsamer als eine 1/3 so teure RX6700XT 12GB :d Also RDNA 2 P/L war schon Mega.
Leider ist die Masse immer Dumm und verbrennt Geld mit dem Kauf von Nvidia.
Anhang anzeigen 1065941
Kumpel von mir hat mehr Geld für seine RTX 3070ti 8GB ausgegeben als ich für meine RX6800 nonXT.
Und in Star Citizen zocken wir beide 1440p. Und bei ihm fehlen immer viel mehr Textur Details und er ärgert sich heute nicht auch Radeon gekauft zu haben, kauft sich als nächstes aber wieder eine Nvidia.
Manche lernen es nie.
Mir ist nicht klar was solche Falschinformationen sollen. Eine 6700XT hat keine Schnitte gegen eine 3080, war sie damals auch gar nicht in derselben Klasse. Die 3080 ist 40 bis 50% schneller, wenn dann noch DLSS dazu kommt wars das.

Es gibt einige wenige Games, in denen das VRAM Thema zum Tragen kommt. Und selbst dann wird man mit wenigen Einstellungen zu einem besseren Ergebnis auf der 3080 kommen. Einfach mal informieren. Zu Deinem Beispiel:


Soll ich jetzt die 80 Games benennen in denen die 3080 schneller ist?

Schon klar dass das hier der AMD Selbstbeweihräucherungsthread ist, aber man kann trotzdem bei der Wahrheit bleiben. Zumal die UVP der 3080 bei weit unter 1.000€ lag. Dass die Karten mehr bei Minern beliebt waren als AMD war halt das Problem dieser zwei Jahre.

RDNA2 war ein gutes Line Up mit dem NVidia gut Paroli geboten wurde. Eine 6800XT ist ohne AI heute besser als eine 3080. Allerdings ist DLSS nun mal Standard geworden und in älteren Games haben beide Karten genug Leistung. Dazu kam auch ein seltsam hoher Idle Verbrauch bei den RDNA2 Karten. Also am Ende war das Spiel zu dem Zeitpunkt noch relativ ausgeglichen.
 
Zuletzt bearbeitet:
Schon klar dass das hier der AMD Selbstbeweihräucherungsthread ist
Wärst du eigentlich Glücklich wenn AMD die Radeon Sparte aufgibt und Intel auch und wir ein Monopol mit noch höheren Preisen für Nvidia hätten ? (Ernst gemeinte frage)
Oder warum schändest du hier die Leiche im Leichenthread :fresse2:
Ansonsten kann ich nur sagen, es gibt auch andere Spiele wo der Vram nicht so Relevant ist, wo eine RTX 3080 ebenfalls sehr schlecht von der Preis Leistung aussieht.
1737214028163.png
 
Leichen? Dein Post war von heute.

Und wie gesagt, insgesamt (sagt Dir Average was) ist die 3080 wesentlich schneller. Für jeden Ausreißer in Richtung 6700XT gibt es 10 Games wo sie kein Land sieht. Ich möchte nur verstehen was dieses Verdrehen der Wahrheit soll.

Und ich scheiss drauf ob AMD morgen pleite geht oder Intel wieder aufgibt. Oder ob NVidia nur noch KI Beschleuniger rausbringt und sich aus dem Gaming zurück zieht.

Es ist da was da ist und damit hat es sich. Ich brauche kein Gaming um ein schönes Leben zu haben. Aber solange es geht, hab ich es halt als Hobby.
 
Verstehe nicht, wieso es IMMER sobald es um nVidia vs AMD geht, so "persönlich" werden muss.
Jeder wäre wohl happy, wenn AMD nVidia auf Augenhöhe begegnen könnte. Das würde die Entwicklung vorantreiben und die Preise nach unten.
Ist derzeit allerdings unrealistisch und somit bleibt ab einem gewissen Level (4K) nur noch eine Option.
Sollte AMD 2026 liefern, werden sicher auch viele umsteigen. Dazu müssen sie allerdings auch richtig abliefern und Rasterleistung allein, reicht heute nicht mehr. Nicht umsonst hat AMD im Upsamling so aufgerüstet.
 
die 3080 wesentlich schneller. Für jeden Ausreißer in Richtung 6700XT gibt es 10 Games wo sie kein Land sieht
Ja für Tetris und Farmvile ist die RTX 3080 besser.
Aber genau bei den Spielen wo man in 1440p mehr als 10GB Vram benötigt, hat die 12GB Radeon mit langsameren Core weniger einbußen.
Ein noch so schneller Core bringt nichts bei Vram Mangel.
Hier eine RTX 4060ti 8GB welche nur 6GB Vram verwendet aber schon einbußen von 100% gegenüber ihrer RTTX 4060ti 16GB Schwester hat. (Video von Daniel Owen)
Daniel Owen 8GB vs 16GB.png

Und wie wir wissen ist Nvidias Speichermanagment nicht 1GB besser, sondern nur paar hunderte MB,s.
Sonnst wäre die RX6700XT 12GB laut Computerbase auch nicht 250% schneller als die RTX 3080 10GB.
Und ich bin in Star Citizen ständig bei 11GB Vram in 1440p mit FSR. Ohne FSR bei 13GB. (RX6800 nonXT)
Also da sieht eine RTX3080 auch kein Land, oder blendet Texturen aus.
 
Ich hab dich nicht aufm Kieker oder so. Wenn einer woanders schreiben würde die 4060 zieht die 7700XT ab würde ich genau so was sagen.

Man sollte halt einfach bei der Wahrheit bleiben. Und die sieht so aus:


3BUQTn5dZgQi7zL8Xs4WUL.png


Da kannst du noch 5 Spiele nennen. Ändert nichts an der Tatsache. Auch diese Games kannst du auf der 3080 mit entsprechendem Setup besser zocken. Im Zweifel nehm ich die Karte mit der besseren Upscaling Performance.
 
Und ich scheiss drauf ob AMD morgen pleite geht oder Intel wieder aufgibt.
Für mich persönlich ist es Relevant dass der Gaming Markt Attraktiv bleibt, und nicht in einem Monopol endet.
Um so mehr Wettbewerber um so besser.
Ich hoffe viele Nvidia User steigen auf Intel Arc um damit Intel weiter macht. Und ich hoffe AMD landet nicht bald bei 5%.
Denn ich freue mich über Konkurrenz und Preiskampf. Dass kommt den Hobbys hundert Tausender zu gute, auch wenn es dir Egal ist und du nicht an andere in diesem fall denkst.
Jeder wäre wohl happy, wenn AMD nVidia auf Augenhöhe begegnen könnte. Das würde die Entwicklung vorantreiben und die Preise nach unten.
Gurkengräber nicht ;)
Sollte AMD 2026 liefern, werden sicher auch viele umsteigen. Dazu müssen sie allerdings auch richtig abliefern und Rasterleistung allein, reicht heute nicht mehr. Nicht umsonst hat AMD im Upsamling so aufgerüstet.
Spoiler Alarm. AMD wird 2026 nicht an Nvidia rankommen, also "Nicht abliefern" um es in deinen Worten zu sagen.
 
Spoiler Alarm. AMD wird 2026 nicht an Nvidia rankommen, also "Nicht abliefern" um es in deinen Worten zu sagen.
Warten wir's doch ab!
Das hat intel damals auch gedacht, als es um die CPUs ging...:sneaky:
Wenn sie ihr Upsampling weiter verbessern (wonach es derzeit aussieht) und die häufig angepeilten 4K 120Hz damit realisierbar machen... Why not?!
 
Ja, FSR4 sollte mal einen großen Sprung machen und dann läuft der Laden. In der Medium Range wird das Geld verdient.
 
Wenn sie ihr Upsampling weiter verbessern (wonach es derzeit aussieht) und die häufig angepeilten 4K 120Hz damit realisierbar machen... Why not?!
Weil Nvidia mit anderen Techniken noch mehr fps, und gleichzeitig noch mehr Bildschärfe hat, und Nvidia einen besseren Ruf hat was Treiber angeht.
PS: Und weil DLSS viel besser verbreitet ist.
Beitrag automatisch zusammengeführt:

Ja, FSR4 sollte mal einen großen Sprung machen und dann läuft der Laden. In der Medium Range wird das Geld verdient.
Bringt ja nichts wenn nichtmal FSR 3 groß verbreitet ist. Von den 20 Spielen die ich die letzten Jahre gespielt habe, hatte kein Spiel FSR 3.
 
Mir ist nicht klar was solche Falschinformationen sollen. Eine 6700XT hat keine Schnitte gegen eine 3080, war sie damals auch gar nicht in derselben Klasse. Die 3080 ist 40 bis 50% schneller, wenn dann noch DLSS dazu kommt wars das.
Man darf aber nicht nur auf die FPS schauen.
Es zeigte sich in der Vergangenheit immer wieder in Tests, dass Karten mit wenig VRam die FPS hochhalten konnten, dafür aber die Bildqualität "ungefragt" runterschraubten.
Und Karten von Mitbewerbern mit mehr VRam zwar weniger FPS gnerierten, aber die Bildqualität hochhalten konnten.

Nach FPS als Vergleichswert ist schneller geschaut, als intensiv Bilder anzuschauen, ob die Bildqualität stabil bleibt.

Lieber verzichte ich auf ein paar FPS für eine stabile Qualität.
Bin gespannt wie die 9070XT wird.
 
Man sollte halt einfach bei der Wahrheit bleiben. Und die sieht so aus:
Glückwunsch, nach Thomas von Aquin hast du "die" aka "deine" Wahrheit gefunden, will heißen, es gibt nicht "die" Wahrheit!
Mal so nebenbei, die Overall-FPS sind grundsätzlich ein Nachweis der Overall-Leistung einer Kernkomponente. Ist halt blöd, wenn die Komponente in 999/1000 Szenarien besser ist, ich jedoch das 1000. abrufe. Und, machen wir uns nichts vor, eine 6700XT mit den 12 Gig befindet sich heute durchaus über der kritischen Marke, bei der Spiele mit SW-Hilfe "gut" lauffähig sein können, die 10 Gig der 3080 könnte da ins Unspielbare abrutschen? Da helfen mir persönlich 10 andere Spiele nicht, wenn ich dieses eine spielen möchte, Ende aus.
 
Viel wichtiger wäre, dass FSR4 im Teiber funktioniert ohne Abhängigkeit vom Spiel, das würde viel mehr bewirken.

So wie AFMF2 gerade nur eben mit KI Unterstützung.
 
... und wenn man dann gaanz laangsam hier von 2020er Serien wieder zu RDNA 4 zurückkehren könnte? Boah, ich weiß schon, warum ich den Thread monatelang deabonniert hatte. :fresse:

Ich hab dafür ein Info-Häppchen für euch. Verdächtig: Der zitierte Beitrag wurde entfernt. Noch ist es also ein - dementiertes - Gerücht. 😗
 
Zuletzt bearbeitet:
Ich habe mit 2021 die 6800 gekauft und ich bereue es nicht. Die Karte ist sehr gut gealtert und erfüllt auch heute noch ihren Zweck.
Ich liebäuge schon mit dem Upgrade auf die 9070xt, auch wenn ich es eigentlich nicht brauche. Vielleicht bleibt die aber auch noch ein Jahr im Rechner.
Warte lieber noch bis ende 2026 auf UDNA 1.
Ich hab auch eine RX6800 und werde es auch so machen. Zu klein der Sprung auf RDNA 4.
 
Kein Mitleid nötig, ich weiß mir zu helfen. ;)
 
Warte lieber noch bis ende 2026 auf UDNA 1.
Ich hab auch eine RX6800 und werde es auch so machen. Zu klein der Sprung auf RDNA 4.
Meine Aufrüstungen der letzten Jahre sind: RX580 (8GB) -> RX5700XT -> RX6700XT -> 6900XT (ernst gemeintes Danke @Gurkengraeber für die Übersicht des Einzelblogs), und jedes Mal kamen overall(!) 20-30FPS dazu. Das ist objektiv betrachtet schon jeweils ein ordentlicher Sprung!(?)
Mein aktuelles Downgrade von der 6900XT zur 6700XT (ich schrieb schon, mein Sohn braucht jedes Fitzelchen FPS in Fortnite :giggle:) bringt mich aber kaum in Schwierigkeiten, auch wenn die 9070ti in meine Upgrade-Gewinn-Historie passte...

Naja, vielleicht ist es auch einfach "nur" der Wunsch nach etwas Neuem, immerhin habe ich in diesem Jahr hinreichend meinem Hobby Tribut gezollt und quasi alle Streamdecks von Elgato gekauft, die die auf Lager hatten... 8-)

Mit freundlichen Grüßen
 
Glückwunsch, nach Thomas von Aquin hast du "die" aka "deine" Wahrheit gefunden, will heißen, es gibt nicht "die" Wahrheit!
Mal so nebenbei, die Overall-FPS sind grundsätzlich ein Nachweis der Overall-Leistung einer Kernkomponente. Ist halt blöd, wenn die Komponente in 999/1000 Szenarien besser ist, ich jedoch das 1000. abrufe. Und, machen wir uns nichts vor, eine 6700XT mit den 12 Gig befindet sich heute durchaus über der kritischen Marke, bei der Spiele mit SW-Hilfe "gut" lauffähig sein können, die 10 Gig der 3080 könnte da ins Unspielbare abrutschen? Da helfen mir persönlich 10 andere Spiele nicht, wenn ich dieses eine spielen möchte, Ende aus.
LoL was für ein Schwachsinn. Es ging darum dass er oben geschrieben hat dass die 3080 langsamer als ne 6700XT ist. Wenn du genau den einen Used Case von insgesamt 8 hast wo das anders ist, dann ist das schön für dich. Nur bleibt die obige Aussage trotzdem falsch. Was der Nonsense mir der einen Wahrheit soll begreifst du wohl am Ende selbst nicht.

hätte er geschrieben "in Indy kann ich mit der 6700XT die Texturen auf Ultra stellen wobei die 3080 nur high kann" hätte ich nichts gesagt. Bestens spielbar ist es auf beiden Karten mit am Ende sogar noch leichten Vorteilen für die 3080 wegen RT. (und ja ich weiß, für euch AMD Fans ist das eine unnütze Technologie)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh