[Sammelthread] AMD RDNA3 Smalltalk-Thread

Wie es aussieht, läuft es gar nicht rund bei Radeon. Die bekommen die Treiber gar nicht hin, obwohl das ganze Team nur an RDNA 3 arbeitet derzeit..
RDNA2 war dagegen ein großer Unterschied, da lief das Meiste auch und die Fixes kamen auch relativ schnell. Ich zahle aber nicht so viel Geld, damit ich noch warte, bis die Treiber reifen..

Was für ein Stuss hier erzählt wird. Arbeitest du bei AMD oder woher weißt du das alle daran arbeiten ...
Ach ja, der neue Treiber 23.2.1 ist auch für die 6000er Generation ... das zeigt ja mal, das sich AMD darum gar nicht mehr kümmert 8-)
Und nur am Rande, seit Mitte 22 kann der Nvidiatreiber das Dualmonitorsetup mit Kvm nicht mehr, nach Umschaltung bleibt immer ein Monitor schwarz. Die Kollegen machen also auch Fehler ... und meine 3090 braucht im Multimonitorsetup Idle um die 40 W
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei 120hz hab ich eh nur 15w :d
 
Was für ein Stuss hier erzählt wird. Arbeitest du bei AMD oder woher weißt du das alle daran arbeiten ...
Ach ja, der neue Treiber 23.2.1 ist auch für die 6000er Generation ... das zeigt ja mal, das sich AMD darum gar nicht mehr kümmert 8-)
Und nur am Rande, seit Mitte 22 kann der Nvidiatreiber das Dualmonitorsetup mit Kvm nicht mehr, nach Umschaltung bleibt immer ein Monitor schwarz. Die Kollegen machen also auch Fehler ... und meine 3090 braucht im Multimonitorsetup Idle um die 40 W
Ist ja wohl nicht schwer zu erahnen, wenn seit Monaten keine Treiber mehr kommen für ältere Karten oder die 7800 Serie. Nvidia steht kurz vor dem Release der Mittelklasse Karten mit der 4060 und 4070.

Bei Nvidia kannst du Nvidia Inspector nutzen und den 2D Modus erzwingen noch

@JtotheK - Wie ist das Verhalten bei 100 oder 110Hz?
 
und was hat das jetzt damit zu tun ?

Nvidia steht kurz vor dem Release der Mittelklasse Karten mit der 4060 und 4070.
 
...
Ach ja, der neue Treiber 23.2.1 ist auch für die 6000er Generation ... das zeigt ja mal, das sich AMD darum gar nicht mehr kümmert 8-)
...

Im changelog steht auch was von 7900, scheint unified zu sein.

Und meine 4090 ist auch ~27W bei 100Hz, also ist der Idle Verbrauch gar nicht mehr so katastrophal (übrigens schon seit dem vorletzten Treiber. Nur der Releasetreiber war sch...)
 
Weiß ich nicht. Hab ich nicht getestet. Kann ich Mal testen wenn ich nachher am PC bin
 
und was hat das jetzt damit zu tun ?
Dass das MCM Design noch etwas Zeit benötigt, denn Navi 33 steht ja vor den Startlöchern, aber sieht so aus, als hätte der letzte Treiber wenigstens etwas mehr gebracht. Ich teste Ihn auch mal gleich bei N21.

@gbm31 - Im Vergleich zur letzten Generation ist der leider auch hoch, denkst du es liegt am VRAM Clock?
 
Moin, habe den Treiber gestern drauf gemacht und bei mir gabs im Idle 3440x1440 und 144Hz keine Änderung. Idle-Verbrauch bei 20-30 Watt. Ich hatte ja hier schnonmal erwähnt, dass ich bei meiner 6900xt nicht auf den Idle-Verbrauch geachtet hatte. Habe ich erst bei der 7900xx gemacht, weil so viel diskutiert wird. Dadurch habe ich keinen persönlichen Vergleich. Sollte aber wie hier gesagt der Verbrauch im Idle der 6000er wirklich unter 10W gelegen haben, so ist das schon ein krasser Unterschied. Allerdings jetzt auch nicht so, dass es gleich auf der Stromrechnung einschlägt. Was miche her interessieren würde ist der Stromverbrauch beim Zocken. Hier machen 100W schon was aus. Hat sich heir was getan?
 
Der idle Verbrauch der 6800xt lag bei mir @3440x1440 144hz bei 8-9w. Also sind die 60w die ich unter rdna3 habe absolut nicht hinzunehmen. Ich denke aber dass amd das bald regeln kann.
 
Der Verbrauch liegt bei mir mit 4k@120Hz und FHD@60Hz bei 42W, der VRAM läuft wie bisher auf 909Mhz. Sobald ich von 120Hz auf 144Hz wechsel springt auch der Verbrauch hoch ... bleib ich halt bei 120Hz
 
Bin mit 23.2.1 weiterhin bei ~40W für 3440x1440 144hz + 2560x1440 60hz (alte rtx 2070 brauchte das gleiche)
Stelle ich den großen monitor auf 120 oder 60hz runter geht es auf 80W hoch :fresse:
 
Weder AMD noch NVidia sind Engel und beide interessieren sich nur für unser Bestes: Geld. RDNA3 war leider ein Griff ins Klo, ich hoffe aber einfach mal, dass das hauptsächlich am MCM Design liegt und mit RDNA4 dann entsprechende Sprünge drin sind.

Bei NVidia stimmt mit Lovelace die Perfomance, dass kann man nicht leugnen. Aber der letzte Miningboom ist ihnen preistechnisch zu sehr zu Kopfe gestiegen.

Bezüglich des Low- & Midrange hoffe ich einfach mal, dass Intel am Ball bleibt und die anderen beiden zu (wenigstens kleinen) Preisnachlässen / besserem Angebot in diesen Segmenten zwingt.
 
Weder AMD noch NVidia sind Engel und beide interessieren sich nur für unser Bestes: Geld. RDNA3 war leider ein Griff ins Klo, ich hoffe aber einfach mal, dass das hauptsächlich am MCM Design liegt und mit RDNA4 dann entsprechende Sprünge drin sind.

Bei NVidia stimmt mit Lovelace die Perfomance, dass kann man nicht leugnen. Aber der letzte Miningboom ist ihnen preistechnisch zu sehr zu Kopfe gestiegen.

Bezüglich des Low- & Midrange hoffe ich einfach mal, dass Intel am Ball bleibt und die anderen beiden zu (wenigstens kleinen) Preisnachlässen / besserem Angebot in diesen Segmenten zwingt.

Wenn ich sowas lese frage ich mich immer was die Anspruchshaltung an AMD ist. Am besten 4090 Leistung für die Hälfte vom Geld, nur dann taugt es was.

Da komm ich einfach nicht drauf klar, wie man so eine Aussage treffen kann. RDNA3 ist effizienter als RDNA2, wenn auch nicht auf dem Level von Ada, bietet rund die doppelte Raytracing Leistung, wenn auch nicht auf dem Level von Ada. Nvidia Karten kosten dafür mehr Geld. Das bleibt objektiv stehen.

Wie kann man da vom Griff ins Klo reden, ich raffs nicht, als könnte man mit der Karte maximal Minesweeper spielen.
 
Wenn ich sowas lese frage ich mich immer was die Anspruchshaltung an AMD ist. Am besten 4090 Leistung für die Hälfte vom Geld, nur dann taugt es was.

Da komm ich einfach nicht drauf klar, wie man so eine Aussage treffen kann. RDNA3 ist effizienter als RDNA2, wenn auch nicht auf dem Level von Ada, bietet rund die doppelte Raytracing Leistung, wenn auch nicht auf dem Level von Ada. Nvidia Karten kosten dafür mehr Geld. Das bleibt objektiv stehen.

Wie kann man da vom Griff ins Klo reden, ich raffs nicht, als könnte man mit der Karte maximal Minesweeper spielen.
Dummgeschwätz halt.
 
Zuletzt bearbeitet:
Wenn ich sowas lese frage ich mich immer was die Anspruchshaltung an AMD ist. Am besten 4090 Leistung für die Hälfte vom Geld, nur dann taugt es was.

Da komm ich einfach nicht drauf klar, wie man so eine Aussage treffen kann. RDNA3 ist effizienter als RDNA2, wenn auch nicht auf dem Level von Ada, bietet rund die doppelte Raytracing Leistung, wenn auch nicht auf dem Level von Ada. Nvidia Karten kosten dafür mehr Geld. Das bleibt objektiv stehen.

Wie kann man da vom Griff ins Klo reden, ich raffs nicht, als könnte man mit der Karte maximal Minesweeper spielen.
Wenn der Kram für die Kohle wenigstens laufen würde wäre ich noch bei AMD. Ich hab den PC die letzten Tage ausgelassen weil nix ging. Wild Hearts Demo nur Augenkrebs und in Monster Hunter Rise ständig Bild flackern, Abstürze (gern auch vorwiegend am Ende der Quest) und total merkwürdige Tonverzerrungen über HDMI die mitten beim Zocken kommen und auch wieder gehen.

Falls diese Probleme mit der 4080 bestehen bleiben werde ich mich gerne hier nochmal melden. Aber so einen Affentanz hatte ich lang nicht mehr erlebt. :kotz:
 
Bei mir läuft alles ultra gut. Callisto Protocol, Dead Space, mw2, Halo Infinite, WoW, alles top. So sieht die Kehrseite der Medaille aus.
 
Wenn der Kram für die Kohle wenigstens laufen würde wäre ich noch bei AMD. Ich hab den PC die letzten Tage ausgelassen weil nix ging. Wild Hearts Demo nur Augenkrebs und in Monster Hunter Rise ständig Bild flackern, Abstürze (gern auch vorwiegend am Ende der Quest) und total merkwürdige Tonverzerrungen über HDMI die mitten beim Zocken kommen und auch wieder gehen.

Falls diese Probleme mit der 4080 bestehen bleiben werde ich mich gerne hier nochmal melden. Aber so einen Affentanz hatte ich lang nicht mehr erlebt. :kotz:
Hast du die Karte vertikal verbaut ? Ich frage wegen dem Rizer Kabel , damit gibt es schon mal Probleme. Auf welche GEN ins der PCIe Slot im Bios eingestellt?
 
Hab 1x1440p bei 120hz und da gings von 52Watt auf 37-47Watt runter
Hab wohl nicht gecheckt, dass ich doch 170hz gefahrn bin. Hier mit 120hz. Schwangt zwischen 14 und 35 Watt. Ram taktet jetzt auch richtig runter
1676460940475.png

Edit: Dualmonitor 1080p@100hz und 1440p@120hz sinds 40-50 Watt (Vram schwangt so um die 900Mhz)
 
Zuletzt bearbeitet:
Hast du die Karte vertikal verbaut ? Ich frage wegen dem Rizer Kabel , damit gibt es schon mal Probleme. Auf welche GEN ins der PCIe Slot im Bios eingestellt?
Jo ist vertikal verbaut. Allerdings rennt der PCIe Benchmark von 3dMark ohne Probleme durch und der brettert ja auch ordentlich Bandbreite das Kabel lang. Ansonsten hatte ich keine Mucken mit dem Kabel. Könnte ich höchstens sein, dass beim Umstecken von Vertikal zu Horizontal was nicht richtig sitzt. Die Karte geht aber eh morgen zurück zu Alternate also ist es nun auch egal.

Im BIOS ist alles korrekt auf PCIe 4.0 gestellt.
Beitrag automatisch zusammengeführt:

Bei mir läuft alles ultra gut. Callisto Protocol, Dead Space, mw2, Halo Infinite, WoW, alles top. So sieht die Kehrseite der Medaille aus.
Ja bloß gut. Eigentlich lief es größtenteils mir ja auch gut. Die Probleme haben sich die letzten Tage angefangen zu häufen. Keine Ahnung was da los ist. :(
 
Bei mir läuft alles ultra gut. Callisto Protocol, Dead Space, mw2, Halo Infinite, WoW, alles top. So sieht die Kehrseite der Medaille aus.

Siehst!

Ich habe freudestrahlend 2 Tage nach Release meine 6900XT (die ich auch am Releasetag gekauft hatte) durch eine 7900XTX MBA ersetzt.

Erster Schreck: huch ist die laut
Zweiter Schreck: Wattman tut nicht
Dritter Schreck: Meine Rennsport-Sims laufen schlechter als mit der 6900XT, Alix war immer mit hohen Einstellungen safe über 90fps, krebst bei 50fps, was die Brille auf 45Hz gehen lässt, Augenkrebs
Dass idle 80W durchliefen hat mich nicht mal gestört, der Zocker wird auch nur zum Zocken angeworfen, und zusammen mit dem Simrig (mit allen aktiven Feedbacks) ist das Pillepalle.

12 Tage alles ausprobiert, dann retour und zähneknirschend die Lederjacke gesponsert. Hab ich davor nur mit GF2 Pro, GF4 Ti4600, GTX 570, GTX 1070 Ti. Sonst Trident, Matrox, Voodoo, Ati/AMD.


@gbm31 - Im Vergleich zur letzten Generation ist der leider auch hoch, denkst du es liegt am VRAM Clock?

Keine Ahnung. Ist scheins nicht so einfach, NV kriegts auch nicht immer hin je nach Display, Bildfrequenz, DP oder HDMI. Der VRAM meiner 6900XT wurde auch lange von vielen Treibern auf max. gehalten, erst im letzten halben Jahr oder so ging der zuverlässig runter. Davor musste ich mit CRU eigene Auflösungen und Bildfrequenzen anlegen usw.
 
Moin, habe den Treiber gestern drauf gemacht und bei mir gabs im Idle 3440x1440 und 144Hz keine Änderung. Idle-Verbrauch bei 20-30 Watt. Ich hatte ja hier schnonmal erwähnt, dass ich bei meiner 6900xt nicht auf den Idle-Verbrauch geachtet hatte. Habe ich erst bei der 7900xx gemacht, weil so viel diskutiert wird. Dadurch habe ich keinen persönlichen Vergleich. Sollte aber wie hier gesagt der Verbrauch im Idle der 6000er wirklich unter 10W gelegen haben, so ist das schon ein krasser Unterschied. Allerdings jetzt auch nicht so, dass es gleich auf der Stromrechnung einschlägt. Was miche her interessieren würde ist der Stromverbrauch beim Zocken. Hier machen 100W schon was aus. Hat sich heir was getan?
Bei der 6900 wurde allerdings nicht die TBP gemessen, sondern nur der Chip oder mit VRAM. Da kommen auch noch mal 10W obendrauf. Damit ist die 7900 genauso im idle, wenn man nicht über 1440p/120 oder 4k60 geht.

Das Ulkige allerdings, die 6900 konnte auch die hohen Auflösungen/Wiederholraten ohne zu sehr im Idle-Verbrauch anzusteigen. Oder war der Ram doch nicht drin in der Messung? Der ist ja die Ursache, die GPU geht immer auf wenige MHz, nur der Ram taktet hoch..

Beim Zocken ist sie durstig wie ne 6900xt, man kann aber gut untervolten und underclocken ohne große Einbußen, so lasse ich die bei 230W standard laufen bei >> 6900xt Performance
 
Ich hab n Messgerät am PC hängen und hatte vorher (6800XT) im idle 60w max gesamt PC, jetzt sind's 110w.
 
Gitbs die Idleprobleme auch noch bei 60Hz bzw. hat sich da zwischenzeitlich was getan bei 2x 4K@60Hz mit Office ?
 
Heute meine red devil bekommen.
Also Spulenpfeifen ist nicht so krass wie man teilweise liest. Es ist im 3d mark extreme test zu hören aber alles anderes als störend
 
Wenn der Kram für die Kohle wenigstens laufen würde wäre ich noch bei AMD. Ich hab den PC die letzten Tage ausgelassen weil nix ging. Wild Hearts Demo nur Augenkrebs und in Monster Hunter Rise ständig Bild flackern, Abstürze (gern auch vorwiegend am Ende der Quest) und total merkwürdige Tonverzerrungen über HDMI die mitten beim Zocken kommen und auch wieder gehen.

Falls diese Probleme mit der 4080 bestehen bleiben werde ich mich gerne hier nochmal melden. Aber so einen Affentanz hatte ich lang nicht mehr erlebt. :kotz:

Tja also bei mir läuft die Karte sehr gut und ich habe absolut keine Probleme. Performance ist auch super. 25 - 30% mehr im Gegensatz zur 6900xt. Aber ich habe natürlich auch nich 3 Karten im Wechselbetrieb gehabt und das System neu installiert bevor ich die 7900xtx eingebaut hatte.

Ich hatte ebenfalls mal eine Zeitlang einen Leistungsmesser zwischen Rechner und Steckdose. Allerdings hatte ich vor Einbau der 7900xtx nicht nochmal geschaut. Beim Zocken weiss ich aber noch, dass der komplette Rechner (mit Monitor) ca. 500 Watt gezogen hat. Also 1KWh alle zwei Stunden. Zum Glück habe ich eh nur am Wochenende Zeit zum spielen.
 

Hier wieder EKWB at its best. Den Laden kann man nur meiden. Für die, die nicht verstanden haben warum ein Ekwb Produkt keine gute Sache ist :d und ich bin mir sicher, spätestens in einem halben Jahr gehts wieder um ein grottiges Produkt, vielleicht ja sogar die liquid Devil.
 
Tja also bei mir läuft die Karte sehr gut und ich habe absolut keine Probleme. Performance ist auch super. 25 - 30% mehr im Gegensatz zur 6900xt. Aber ich habe natürlich auch nich 3 Karten im Wechselbetrieb gehabt und das System neu installiert bevor ich die 7900xtx eingebaut hatte.
Und was soll ich mit der Aussage jetzt anfangen??
Der Tipp von Sp4wn17 war wenigstens noch hilfreich. Jedoch hat erstmal die Physische Kontrolle des Riserkabels nix ergeben.

Aber soll heißen weil bei DIR alles gut läuft sind die anderen einfach nur nen DAU?? Soweit ich sehe spielst du weder MHR und Wild Hearts noch nutzt du eine Quest 2. Also hast du mit mir 0,0garnix Schnittmenge.
Sei froh wenn DEINE Games vernünftig laufen. Meine tun es leider nicht.

Sollte die 4080 wie gesagt ähnliche Zicken machen so werde ich damit auch nicht hinter dem Berg halten und zB wirklich das Riser Kabel austauschen müssen. :(
 
Ich hab n Messgerät am PC hängen und hatte vorher (6800XT) im idle 60w max gesamt PC, jetzt sind's 110w.
Ok das ist nen heftiger Unterschied... 110W-60W also 50W, 6800XT also 10W vs. 60W mit der neuen Karte..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh