[Sammelthread] AMD RDNA3 Smalltalk-Thread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine 4080 wird es zur Relase der nächsten Gen um die hälfte geben. Das ist ein sehr hoher Verfall. Eine 4070 wird immer noch 400€ bringen auch bei 300€ bei weitem nicht der hohe verfall.
Aber dann sind es doch bei beiden 50% Wertverlust? :haha:
Bei dem Verfall rentiert es sich all 2 Gens die uppere Midrange zu kaufen wenn einem Geld nicht egal ist.
Das wären aktuell ja die RTX4070 und RX7800XT (vermutlich), also um die 600-650€ jeweils.
 
50€ bei einem sind paar hundert € bei dem anderen ist das der ganze preis der nächsten new gen upper midrange Karte.

Wie man sagen kann das ist das gleiche nur weil % uel ähnlicher verfall. Facepalm

Das ist richtig. Die 5070 dann mit 4080-4090 performance auch um 600-700€.

so handahbe ich es zumindest aber ich persönlich lass mich auch nur bedingt von Nvidia verarschen^^. 4080 1200€ von 600€ wohlgemerkt seit 2013 circa:ROFLMAO::poop:
 
Zuletzt bearbeitet:

Äh, ja. :fresse:
 
Im MP ging jetzt Mal eine 6900 XT für 430€ weg..., das ist so ein aktueller P/L-Sieger.
 
69XT LC würde ich ggf nochmal mitnehmen. :)

Edit, bzw dann könnte ich ja auch ne 6950XT nehmen, oder?
 
Ja, find Mal eine LC auf dem freien Markt... Aber such nicht in meinem Büro :-)
 
Der Stream macht mich feddich.

1692974731156.png
 
Ich glaub der gehört zum Programm.
Beitrag automatisch zusammengeführt:

Bin gespannt wie sie die Karten schön reden werden. :popcorn:

1692975090587.png
 
Gibt leider keinen kotz Smiley, der dann nicht auf euer Konto geht. Aber ich stimme euch zu ...
 
So kann man als 5 Jähriger bub rumlaufen aber doch nicht auf einem Boot wo in Kürze sachen vorgestellt werden auf die viele Gamer warten. Seit corona ist die welt nur noch eine Clowns Show. :rolleyes2:
 
TSHÖÖÖRTS
 
ABSOLUTER WAHNSINN!!!
Beitrag automatisch zusammengeführt:

1692975992001.png
 
Das sagte der Moderator doch eben zu den Karten. :fresse:
 
"AMD bietet die Radeon RX 7900 XT im hauseigenen Referenzdesign zur Gamescom 2023 für 799 Euro an. Um das zeitlich begrenzte Sonderangebot wahrnehmen zu können, benötigen Spieler nur einen Gutscheincode für den Onlineshop von AMD. So lassen sich die 141 Euro im Vergleich zu dem regulären Preis der RDNA-3-Grafikkarte einsparen."

"Der dafür benötigte Gutscheincode lautet "AMDGAMESCOM7900XT", muss im Warenkorb entsprechend aktiviert werden und auch Starfield ist wieder inkludiert."

 
Framegen für alle und alle dx 11 und dx 12 spiele hört sich gut an, auch wenn ich nichts von FG halte hat mich nur in 2 spielen uberzeugt bis jetzt. Die Technik ist halt noch Jung. Aber AMD zugang für jeden und in jedem spiel hört sich gut an auch wenn ich nicht finde das es alte spiele brauchen.

AMD Open vs Nvidia proprietär. Damit wissen wir auch das FG auch locker auf Ampere laufen könnte, sie haben gesagt die Qualität leidet aber darunter. Das heißt wenn AMDS version mithalten kann das Nvidia einfach nur frech gelogen hat.
Beitrag automatisch zusammengeführt:

ui die avatr karte muss ich haben
 
Zuletzt bearbeitet:
Ich hab u.a. auch den G3223Q. Kannst du mal testweise einen auf 120Hz und den anderen ebenfalls auf 120 bzw 60 Hz stellen. Ich hatte so das Gefühl das 120Hz der "sweetspot" beim Verbauch bei mir war ...
Habe ich auch schon erfolglos sowohl Anfang des Jahres als auch mit dem neuen Treiber getestet.
Interessant wird es ohne HDR, dann geht der Verbrauch massiv runter. Daher nochmal zur Vollständigkeit Tests mit weiteren Kombinationen mit/ohne HDR und/oder FreeSync.

MBA 7900 XTX von Asus mit zwei Dell G3223Q (Freesync, max. 4k/144Hz) - Windows idle, aktiv geöffnet: Edge (Forum), AMD Adrenalin und Windows Grafikeinstellungen
Freesync und HDR aktiv, beide Monitore auf 144Hz: zwischen 100 und 110 Watt (2487 MHz VRAM Takt)
Freesync und HDR aktiv, erster Monitor auf 144Hz, zweiter Monitor auf 120Hz: zwischen 100 und 110 Watt (2487 MHz VRAM Takt)
Freesync und HDR aktiv, beide Monitore auf 120Hz: zwischen ca. 100 Watt (2487 MHz VRAM Takt)
Freesync und HDR aktiv, erster Monitor auf 144Hz, zweiter Monitor auf 60Hz: ca. 60 Watt (909 MHz VRAM Takt)
Freesync und HDR aktiv, erster Monitor auf 120Hz, zweiter Monitor auf 60Hz: ca. 60 Watt (909 MHz VRAM Takt)

Freesync aktiv und HDR deaktiviert, beide Monitore auf 144Hz: ca. 100 Watt (2487 MHz VRAM Takt)
Freesync aktiv und HDR deaktiviert, erster Monitor auf 144Hz, zweiter Monitor auf 120Hz: ca. 100 Watt (2487 MHz VRAM Takt)
Freesync aktiv und HDR deaktiviert, beide Monitore auf 120Hz: zwischen ca. 100 Watt (2487 MHz VRAM Takt)
Freesync aktiv und HDR deaktiviert, erster Monitor auf 144Hz, zweiter Monitor auf 60Hz: ca. 30 Watt (ca. 100MHz VRAM Takt)
Freesync aktiv und HDR deaktiviert, erster Monitor auf 120Hz, zweiter Monitor auf 60Hz: ca. 30 Watt (ca. 100MHz VRAM Takt)

Ob Freesync an ist oder nicht spielt ansonsten keine rolle, daher erspare ich allen und mir die Auflistung.
Interessant ist ohne HDR, dass sobald ein Monitor mit 60Hz betrieben wird der VRAM Takt auf ein normales Niveau runtergeht.
Hier gibt es ein Déjà-vu zu früheren AMD Chipgenerationen, wo es nach langer Zeit endlich mit dem VRAM Takt besser geworden ist.
Scheint also bei der 7900 XTX eine Mischung aus den mit RDNA3 gekommen Problemen und altbekanntem zu geben...

Hybrid Graphics funktioniert bei mir nicht richtig, spiele starten nicht oder stürzen ab
Ja, darin liegt auch die Ursache, weshalb ich mir nicht sicher bin ob sich der Aufwand lohnt.
Die Berichte sind in Sachen Hybrid Graphics sehr spärlich und dann auch sehr unterschiedlich, wie soft hängt es wohl an den unterschiedlichen Hardwarekombinationen und den jeweiligen Nutzungsszenarien (einschl. Spielverhalten) ab.
 
Unter 23.8.1 ist die Leistungsaufnahme mit der 7900 XT im idle auf 50w angestiegen, während es mit 23.7.1 noch 18w waren. 4k/120/HDR. Ohne HDR ist es mit 11w gleich. Schade, dieses ewige hin und her nervt einfach nur noch und ständig muss man schauen, ob sich nicht wieder etwas verschlechtert hat.
 
Bei meiner XTX Aqua und einem Monitor (LG 38GN950-B) bei 144Hz läuft auch der neue Treiber 23.8.1 ohne Probleme zwischen 6W bis ca. 33Watt. HDR aus + Freesync an.
Auch wenn ich HDR einschalte (Freesync an), bleibt er fast bei den Werten. Die Leistung geht nicht auf 6W runter, sondern "nur" bis 9Watt.
Mein persönliches Fazit: bin total zufrieden. 👍

Ist natürlich alles nur beim Surfen, sobald ich aber ein Youtube Video starte, geht es hoch auf 50-53Watt. Aber wenn ich ehrlich bin, stört mich das nicht 🤪
 
Zuletzt bearbeitet:
ohne Probleme zwischen 6W bis ca. 33Wat
Mit was liest du das aus, HwInfo?
Beitrag automatisch zusammengeführt:

Ich weiß nicht was HwInfo da ausliest ,aber 100% nicht den wirklichen Verbrauch.
Bei mir auch ca. 6w.
Aber an den PCI Anschlüssen direkt nicht unter 20w und da kommt der PCI-E auch noch dazu.
 
Zuletzt bearbeitet:
PCI ist bei mir im Idle auf 5Watt, mit Firefox 9-25Watt
 
@RedF
Hast Recht,habe den Wire mal zurück gesetzt jetzt zeigt er das auch an.
Hat sich wohl beim Benchen verschluckt. :d

Wo sieht man eigentlich den PCI-E Verbrauch?
 

Anhänge

  • IMG_20230827_124551.jpg
    IMG_20230827_124551.jpg
    375,5 KB · Aufrufe: 79
Zuletzt bearbeitet:
Das ist so schwach von AMD. Die 7800XT ist wie ne 6800XT aus 2020. Nicht mal beim Verbrauch sieht die besser aus und neue Treiberprobleme gibt es for free wieder oben drauf.

Würde AMD nichtso gut unter Linux laufen, würde ich niemals zu AMD greifen.
 
Traurig aber wahr
 
Zuletzt bearbeitet:
Hab auf dieses ewige hin und her auch keine lust mehr, ich hab meinen zweit Monitor jetzt einfach intern angeschlossen und gut ist
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh