[Sammelthread] AMD RDNA3 Smalltalk-Thread

Eine Bezeichnung als als 7850 wäre sicher besser gewesen, dennoch sollte die Karte einen grundsoliden Einstig für 4k bieten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine 7900 GRE brauch aber etwa 100 Watt weniger im gaming, warum sollte man da eine 6950 kaufen?
Weil es die 7900 GRE nicht zu kaufen gibt, weil man eine 6950 undervolten kann und sie dadurch sparsamer wird als die nicht undervoltbare 7900GRE.

Die Karte zeigt auch wieder mal was für ein Reinfall RDNA3 ist die RT Leistung ist Identisch zu RDNA 2. Die höhere RT Leistung der grossen 7900 Karten kommt rein durch die mehrleistung. Das ist die schlechteste Gen die ich jemals erlebt habe. Komplette Stagnation.
 
Langsam nervt deine Schallplatte.
 
Weil es die 7900 GRE nicht zu kaufen gibt, weil man eine 6950 undervolten kann und sie dadurch sparsamer wird als die nicht undervoltbare 7900GRE.

Die Karte zeigt auch wieder mal was für ein Reinfall RDNA3 ist die RT Leistung ist Identisch zu RDNA 2. Die höhere RT Leistung der grossen 7900 Karten kommt rein durch die mehrleistung. Das ist die schlechteste Gen die ich jemals erlebt habe. Komplette Stagnation.
Steile Thesen die Du gebetsmühlenartig von Dir gibst. Meinst Du wirklich es interessiert hier jemanden? Dazu noch die Tonart.
Es wird Zeit die Ignoreliste zu erweitern.
 
AMD zeigt 7900xtx und 7800x3d in der Starfield Edition:

 
Zuletzt bearbeitet:
AMD zeigt 7900xtx und 7800x3d in der Starfield Edition:
Die XTX sieht echt gut aus.
Bin mal gespannt, was die kosten wird.
 
Bin mal gespannt, was die kosten wird.

500 Stück im Rahmen eines Gewinnspiels, mit etwas Glück kann man dann später eine auf Ebay finden, wahrscheinlich aber zu saftigen Preisen. ;)
 
[...]

Welche 30% Meinst du die 7900xt? und XTX? Ja logisch weil mehr CUs das ist aber kein fortschritt sondern logisch. Rdna 2 mit der selben Cu anzahl wäre gleichschnell aber würde mehr verbrauchen, Stock zumindest.
[...]
Ähm, die Anzahl der CUs sagt ja mal nichts über Fortschritt oder nicht aus. Der Witz am Fortschritt ist ja gerade der, dass man mehr/bessere Schaltkreise auf einen Chip bekommt. Die 7900GRE ist im Prinzip grob eine 7800XT. Dadurch sollte man sie eher mit der 6800XT vergleichen ;). AMD hat viele Baustellen die hoffentlich in den nächsten beiden RDNA Gens behoben werden (hier wird ja auf eine ähnliche Entwicklung wie mit Ryzen gehofft). Sie per se in Dauerschleife als durchgehend scheiße zu bezeichnen ist schlicht falsch.

Das Hauptproblem der aktuellen NVidia und AMD Gen ist eigentlich nur der "Namensbetrug" (siehe 4060 & Co.) und die völlig überzogenen Preise. Die Rohleistung fehlt weder AMD und erst recht nicht NVidia.
 
Amd Rnda 3 glanzleistung. XTX vs 4070 🤡. Nun zieht man den Verbrauch hinzu wird es extrem peinlich. Aber so ist das halt wenn die RT Leistung der ersten Gen nicht steigt….und gegen die 3 RT Gen von Nvidia ist. Das eine 600€ Karte die um 1000€ in griff hält mit knapp über halbem verbrauch. 🤡
9324D9AF-99FB-4EF5-884F-351432079DEC.png
 
Vielleicht besser gleich ein eigenes Forum...

Man hätte auch einfach direkt den Test von PCGH verlinken können. Über die Besuche hätte man sich dort sicher gefreut. Aber man kann natürlich auch stattdessen einfach einen Screenshot ohne irgendeine Information über das getestete Spiel, die Auflösung (lauf Farbe übrigens WQHD) und die Testumgebung posten (y)
 
Aber gefreut hat er sich wie eine Hummel eine 7900XT Pulse bestellt zu haben.
Und der Verbrauch ist weitgehendst gefixt unter Idle
und meine läuft mit 2550 bis 2650 Mhz und 285 bis 300 Watt extrem gut und habe die Referenz XTX.
 
Meine 7900xtx habe ich in vielen Spielen auf 2000mhz begrenzt weil dann eh schon 142fps anliegen. Je nach Game süffelt sie dann 170-230w. Kommt auch drauf an ob FSR2.1 oder nicht. 3440x1440p 144Hz. Im idle bin ich mittlerweile auf 7w runter gewesen, durch aspm ging das ganze jetzt auf 4w runter. Bei YouTube säuft die Karte tatsächlich etwas zu viel mMn, aber das ist soweit ich das im Kopf habe schon sehr lange bei AMD so. Und auch bei Nvidia gibt's die idle Thematik immer Mal wieder - da ist auch nicht alles Gold was glänzt. Wie schon gesagt, rechne Mal aus wie lange du zocken kannst - zB 7900xtx Hellhound 899€, was ist Bestpreis für ne 4080? 1100-1200€? Da kannste schon n paar kWh durch jagen bis du Mal aufm selben Preis bist. Also schieb mal ne ruhigere Murmel hier. Es gibt keine perfekte Grafikkarte, denn auch für ne 4060/4070/4080/4090 kannst du diese Bezeichnung beim besten Willen nicht vergeben.
 
Wer möchte und in Grenzgebiet zu Italien lebt
Monitor für RDNA3 - 7900 XT / XTX

Alienware3423DWF für 874 Euro


PRE - Back to School angebot ----> bis zum 23.ten August!

 
Zuletzt bearbeitet:
Da kommt nur Bibbedi babbedi:
1691843887671.png

Dem Link nach zu urteilen hast du versucht deinen Warenkorb zu verlinken? :)
 
Da kommt nur Bibbedi babbedi
Nein, das kommt dort: :d

 
@ShirKhan Dachte an das:

Witzigerweise hatten wir genau die Diskussion letztes Wochenende beim Grillen. :d
 
Zuletzt bearbeitet:
...Aber man kann natürlich auch stattdessen einfach einen Screenshot ohne irgendeine Information über das getestete Spiel, die Auflösung (lauf Farbe übrigens WQHD) und die Testumgebung posten (y)
Zumindest wenn man sich anstrengt geht es auch besser... PCGH Index Performance aus 20 Spielen Rasterizing.

Nachzulesen hier:
Klick PCGH 4070 XXL Test

Gemittelte Performance UHD.jpg

Overall Performance.jpg


Ich halte, außer von der 4090, nicht viel von den beschnittenen Speicherkrüppeln aus dem grünen Lager. Die 4080 wäre nicht schlecht, aber für die billigste 4080 momentan soll man immer noch 1148 Euro auf den Tisch legen. Für unglaubliche 16 GB VRAM und massiver Beschneidung. Die müsste schon noch deutlich im Preis fallen und dazwischen wäre immer noch genug Platz für eine TI und mehr VRAM. Aber man hofft halt das die meisten gleich zur 4090 greifen und die Kunden für ordentlich Umsatz sorgen.

Nicht zu vergessen das RDNA3 leider noch nicht ganz die Leistung erreicht wie erhofft. Ob da Treibertechnisch noch was kommt keine Ahnung. Trotzdem würde ich eher zu einer XTX oder auch XT greifen als die überteuerten Nvidia Karten zu unterstützen, auch wenn AMD das Chipletdesign noch nicht ganz im Griff hat. Leistungsmäßig in Rasterizing liegt die XTX ja trotzdem über der 4080 und ist mittlerweile ab und an auch deutlich unter 1000 Euro zu haben je nach Modell auch wenn der Verbrauch etwas höher ist. Aber die ~355 Watt der XTX machen dann das Kraut auch nicht mehr Fett, denn es zockt kein Mensch 24 Stunden durchgehend pro Tag damit man die Unterschiede wenigstens ein bisschen merkt am Jahresende bei der Stromrechnung.

Raytracing muss jeder selber wissen ob es ihm gefällt und man den Aufpreis dafür für Team grün bezahlen will. Je nach Spiel muss ich sagen ist es für mich im Jahre 2023 immer noch kein Must Have. Und nein ich habe keinen schlechten Bildschirm als das ich die Unterschiede nicht sehen würde (LG 42 C2 OLED). In vielen Spielen reicht aber selbst eine XTX oder XT für ein bisschen Raytracing meistens aus.
 
Zuletzt bearbeitet:
Habe nur eine RX 6700 XT und einen 5800X ( 65W ECO Mode ) aber mit allen Einstellungen die die Energie betreffen OHNE die GPU auch noch zu untervolten habe ich eine Einsparung von 30.8 W im IDLE für das gesamte System erreicht. Das teste ich momentan auch für die 95W ECO Mode Einstellung, mal sehen wie sich das auch in Games auswirkt.

Man sollte auch bei den 7000er Karten und AM5 CPUs da auch einiges mit Einstellungen rausholen.
Wenn man vielleicht auch noch die FPS auf die Hz des Monitors kappt wird da schon einige W zusammenkommen und die Karte / CPU werden dadurch auch an Leistung gewinnen.
 
Ja und die Diskussion hier klingt ja gerne mal, als gäbs die alten nicht. Wenn ich jetzt noch eine getunte 69XT in den Ring werfe (ne normale), die ich mit etwas Suche ab 450€ finden kann, dann muss man die halb mit 350W heizen lassen, bekommt da aber auch noch einiges an Grafiken heraus.
 
Ich denke jeder hat mittlerweile verstanden, dass du kein Fan von RDNA 3 bist und die 4070 die beste Karte der Welt ist. Mach doch dafür einen eigenen Thread auf.
Habe ich nie gesagt. Die 4070 hat zu wenig vram und ist zu teuer und mehr Rohleistung wäre angebracht.

Aber dir Arch Ada ist Rdna einfach um welten voraus. Das ist nun einmal objektiver Fakt. 🤷🏻
Beitrag automatisch zusammengeführt:

Ja und die Diskussion hier klingt ja gerne mal, als gäbs die alten nicht. Wenn ich jetzt noch eine getunte 69XT in den Ring werfe (ne normale), die ich mit etwas Suche ab 450€ finden kann, dann muss man die halb mit 350W heizen lassen, bekommt da aber auch noch einiges an Grafiken heraus.
Korrekt wobei die 6900xt besser wäre imo da man eine 6950 mit simplen oc hat. Leider ausverkauft. Getunte Rdna 2 sind geil💪🏼.
Beitrag automatisch zusammengeführt:

Zumindest wenn man sich anstrengt geht es auch besser... PCGH Index Performance aus 20 Spielen Rasterizing.

Nachzulesen hier:
Klick PCGH 4070 XXL Test

Anhang anzeigen 910906
Anhang anzeigen 910907

Ich halte, außer von der 4090, nicht viel von den beschnittenen Speicherkrüppeln aus dem grünen Lager. Die 4080 wäre nicht schlecht, aber für die billigste 4080 momentan soll man immer noch 1148 Euro auf den Tisch legen. Für unglaubliche 16 GB VRAM und massiver Beschneidung. Die müsste schon noch deutlich im Preis fallen und dazwischen wäre immer noch genug Platz für eine TI und mehr VRAM. Aber man hofft halt das die meisten gleich zur 4090 greifen und die Kunden für ordentlich Umsatz sorgen.

Nicht zu vergessen das RDNA3 leider noch nicht ganz die Leistung erreicht wie erhofft. Ob da Treibertechnisch noch was kommt keine Ahnung. Trotzdem würde ich eher zu einer XTX oder auch XT greifen als die überteuerten Nvidia Karten zu unterstützen, auch wenn AMD das Chipletdesign noch nicht ganz im Griff hat. Leistungsmäßig in Rasterizing liegt die XTX ja trotzdem über der 4080 und ist mittlerweile ab und an auch deutlich unter 1000 Euro zu haben je nach Modell auch wenn der Verbrauch etwas höher ist. Aber die ~355 Watt der XTX machen dann das Kraut auch nicht mehr Fett, denn es zockt kein Mensch 24 Stunden durchgehend pro Tag damit man die Unterschiede wenigstens ein bisschen merkt am Jahresende bei der Stromrechnung.

Raytracing muss jeder selber wissen ob es ihm gefällt und man den Aufpreis dafür für Team grün bezahlen will. Je nach Spiel muss ich sagen ist es für mich im Jahre 2023 immer noch kein Must Have. Und nein ich habe keinen schlechten Bildschirm als das ich die Unterschiede nicht sehen würde (LG 42 C2 OLED). In vielen Spielen reicht aber selbst eine XTX oder XT für ein bisschen Raytracing meistens aus.
Falsch. Die mehrkosten der 4080 hat man über die Stromkosten rein in paar Jährchen gegenüber der XTX. Ausser man zockt generell wenig. Ausserdem sind Amds preise kein deut besser wenn man alles in relation setzt. Selbst wenn mein Pc läuft viel und oft. Browsen. Youtube alles über das doppelte mehr wie die XTX nicht nur beim Gamen. Bei den höchsten stromkosten der welt kann man das nicht ignorieren. 🤷🏻
Beitrag automatisch zusammengeführt:

Aber gefreut hat er sich wie eine Hummel eine 7900XT Pulse bestellt zu haben.
Und der Verbrauch ist weitgehendst gefixt unter Idle
und meine läuft mit 2550 bis 2650 Mhz und 285 bis 300 Watt extrem gut und habe die Referenz XTX.
Ist es nicht. Natürlich freute ich mich neue hardware ist immer geil. :) . Selbst wenn es gefixt wäre ist der verbrauch bei jeder aktion ada unterlegen.
 
Zuletzt bearbeitet:
ADA säuft im Idle mehr als RDNA 3
ABER unter Youtube ist RDNA 3 wirklich noch nicht bei Ada angekommen!

Ihr verlasst euch zu sehr auf Auslesetools.
Hab zwar zu den aktuellen Gens keinen Vergleich, aber damals 2080RTX vs RX5700, hat die RX bei Auslesetools im idle klar gewonnen, gemessen an der Steckdose hatte ich fürs Gesamtsystem knapp 15 Watt weniger mit der RTX im idle.
 
Falsch. Die mehrkosten der 4080 hat man über die Stromkosten rein in paar Jährchen gegenüber der XTX. Ausser man zockt generell wenig. Ausserdem sind Amds preise kein deut besser wenn man alles in relation setzt. Selbst wenn mein Pc läuft viel und oft. Browsen. Youtube alles über das doppelte mehr wie die XTX nicht nur beim Gamen. Bei den höchsten stromkosten der welt kann man das nicht ignorieren. 🤷🏻
Beitrag automatisch zusammengeführt:
Quasselst du nur irgendwas dahin oder hast du auch mal aussagekräftige Belege für deine Aussagen.

Es kommt immer auf die jeweiligen Gegebenheiten an. Die Standard 4080 zieht in UHD in Games im übrigen auch gerne mal über 300 Watt aus der Steckdose. Die Referenz XTX zieht maximal 355 Watt. Wären um die ~55 Watt Unterschied aufgerundet zugunsten Team Grün. Mit nur einem Monitor gibt es im übrigen so gut wie keinen Unterschied mehr in Sachen Idleverbrauch zwischen Rot und Grün. Ausnahmen bestätigen die Regel auf beiden Seiten. Neuere Treiber können das Ganze auch schnell mal wieder über den Haufen werfen.

Mal angenommen man zockt täglich 6 Stunden. Das ganze 7 Tage die Woche, sprich 365 Tage im Jahr, was sehr sehr viel ist. Bei 55 Watt Unterschied wären das anhand dem Beispiel unglaubliche 31,32 Euro pro JAHR an Mehrkosten der XTX zur 4080, ausgehend von dem was ich momentan an Cent pro kWh zahle. Nämlich genau 26 cent.

Da ich aber niemals 6 Stunden pro Tag schaffe, ergo weitaus weniger am PC sitze, da ich auch arbeiten gehe und eine Familie habe, müsste ich die 4080 Jahrzehnte lang im Rechner nutzen um den Mehrpreis überhaupt irgendwie rein zu holen. Klar Verbrauch ist wichtig, aber manchmal kann man es auch übertreiben. UV und OC können übrigens beide Karten, von dem her kann man jede Karte auch selber so anpassen wie es einem am besten passt je nach Spiel.

Ausgehend von mir wechsle ich meistens eh wieder auf eine neuere Generation, insofern die Preise nicht noch weiter explodieren was den PC anbelangt. Und in welchem Rhythmus das passiert weiß ja jeder selbst.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh