[Sammelthread] AMD RDNA3 Smalltalk-Thread

crynis,​

ich bin bisher mit AMD sehr zufrieden gewesen.
Bin auch eher einer UV IN Verbindung mit FPS Cap spielt.

Dann kaufe ich mir für die Differenz lieber einen schneller Arbeitsspeicher8-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
gleich mal testen den neuen treiber und schauen, was amd da frei gibt bzw anbietet 😁
 
Vielleicht solltet ihr den Download mal verlinken, die Software Suche auf der AMD Seite kennt noch keinen neuen Treiber :d

geht immerhin etwas:

Fixed Issues​

  • Corruption may be encountered when using Virtual Super Resolution with multi-display configurations.
  • A system crash may be observed when changing display modes with 4 display configurations.
  • While loading Marvel’s Spider-Man: Miles Morales™ an app crash or driver timeout may occur after enabling ray tracing settings.
  • Improvements to power usage during hardware accelerated video playback. Further power efficiency improvements are planned for future releases.

Known Issues​

  • High idle power has situationally been observed when using select high resolution and high refresh rate displays.
  • Intermittent app crashes or driver timeout may occur when using Radeon Super Resolution with some extended display configurations.
  • Video stuttering or performance drop may be observed during gameplay plus video playback with some extended display configurations.
  • Stuttering may be observed in UNCHARTED™ 4: A Thief’s End during the opening game sequence.
  • While playing Valheim™ an app crash or driver timeout may occur using Vulkan® API. Any users who may be experiencing these issues should select DirectX® API as a temporary workaround.
  • Some virtual reality games or apps may experience lower than expected performance.
 
Zuletzt bearbeitet:
Ok also Effizienz ist auf der Roadmap

"Further power efficiency improvements are planned for future releases."
 
Das weiß ich auch :LOL:

Den Sinn deines Beitrags erschließt sich mir trotzdem nicht. Die Preise die für Grafikkarten aufgerufen werden sind komplett geisteskrank, ich glaube aber das die goldenen Zeiten in denen man ne MIdrange GPU für 300€ kaufen konnte vorbei sind. Ich hatte gerade die Kohle und baue mir alle 4-6 Jahre ne neue Kiste zusammen, da kann man schon mal "all in" gehen.
Der Sinn des Beitrags besteht darin, dass wie Gamers Nexus schon sagt, es zur Zeit keine Karte gibt, die ihren wirklen Wert wiederspiegelt und Abwarten das einzig sinnvolle ist ansonsten, zahlt man eben ordentlich drauf wie schon bei der 20er Serie.

Ich hab auch von diversen Freunden Systeme aufgerüstet und umgerüstet nur war keiner bereit 2000€ nvidia in den Rachen zu werfen, um nen bissl zu daddeln. Widerum die Leute die damit auch Folding@home btreiben und Produktiv damit arbeiten, sowie nebenbei Zocken, haben wirklich profitieren können.

Letztlich entscheidet das jeder für sich.
Aber wer sich ne 4090 holt zum Zocken, hat sich nun mal das Halo-Produkt nvidias geholt. Ich versuche für mich immer noch Gründe zu finden. Mein Rechner ist von 2017 und lediglich die Graka wurde immer wieder ausgetauscht. Vielleicht ist die Schmerzgrenze leichter zu überwinden, wenn man wirklich 5-6 Jahre kein Upgrade hatte. ;D
Geld ist nicht das Problem an der Stelle, eher mein innerer Monk^^
 
- Some virtual reality games or apps may experience lower than expected performance.
Der Punkt ist neu oder?
Immerhin Hoffnung für VR. Also nicht das ich Probleme wie andere hätte, läuft alles und so ne Performance bin ich nicht gewohnt, aber laut vr Benchmarks hat sie sich ja nur leicht über den besten 6000er Karten eingereiht und war sehr inkonsistent mit den Frametimes.
 
Youtube video schauen habe ich jetzt 58w davor waren es 88w. 3840x1600 LG UW 120hz
 
noch nicht perfekt aber besser
bei nvidia 4090 laufen da halt 30w
 
Naja ich glaub viel besser wirds nicht, meine alte 6800XT brauchte auch ca. 50w. -30w für einen .2 Treiber sag ich sicher nicht nein.
 
Edit: Besonders das Fazit und dir Infos zur Effizienz sind, meiner Meinung nach, interessant.
Sehe ich auch so, danke. Mir hat dieser Satz besonders gut gefallen.
"Alternativ betrachtet handelt es sich bei diesen Herstellerdesigns eher um eine Werbeaktion zugunsten von AMDs Referenz-Design."
Ich begrenze ja schon die Power der Referenz-Karte, weil sich die Performance pro Watt mit mehr Power so stark verschlechtert. Was bitte bringen dann Herstellerdesigns, deren einziges Ziel es ist, noch mehr Power in die Karte zu pumpen?
Beitrag automatisch zusammengeführt:

 
bin jetzt im idle mit 32" 4k 144hz und 25" 244hz -> 82w statt vorher 106w
 
naja das ist leider immer noch schlecht -.-
da müssten sie wirklich auf 30-40w runter
 
Obs jetzt 50 oder 30 sind ist am Ende auch egal. Zumindest wenn man's finanziell im Vergleich mit der 4090 betrachten möchte.

Außer man möchte den Rechner wirklich über mehrere Jahre 24/7 im idle bei 70 Cent Stromkosten betreiben^^
 
Obs jetzt 50 oder 30 sind ist am Ende auch egal. Zumindest wenn man's finanziell im Vergleich mit der 4090 betrachten möchte.

Außer man möchte den Rechner wirklich über mehrere Jahre 24/7 im idle bei 70 Cent Stromkosten betreiben^^
Die meisten sind weder rational bei ihren Kaufentscheidungen noch bei den tatsächlichen Stromkosten. Die denken wenn sie 10W pro Stunde sparen ist das gefühlt viel ... tatsächlich aber nur ein kleiner zweistelliger Betrag im Jahr....und das zieht denen jeder Custom Grafikkartenhersteller aus der Tasche
 
mir ist aufgefallen, das dieser hotspot von bis zu 110°C durch den treiber bug bzw settings verursacht werden !!!

den komischerweise ist mir das bei kein anderes spiel aufgetreten auser im cod mw2.
Moment mal, ich spiele derzeit nur Warzone 2.0/DMZ. Kann jemand - der "normale" Hotspot Temperaturen hat - mal STOCK Warzone 2.0 austesten? Das Spiel ist kostenlos.
@Thomasmh
@Igor451
@gbm31
Was habt ihr in dem Spiel für eine Hotspot Temperatur mit wie viel RPM?
 
Ich nicht mehr, die Karte ist schon unterwegs zu NBB, sorry.
 
Der Sinn des Beitrags besteht darin, dass wie Gamers Nexus schon sagt, es zur Zeit keine Karte gibt, die ihren wirklen Wert wiederspiegelt und Abwarten das einzig sinnvolle ist ansonsten, zahlt man eben ordentlich drauf wie schon bei der 20er Serie.

Ich hab auch von diversen Freunden Systeme aufgerüstet und umgerüstet nur war keiner bereit 2000€ nvidia in den Rachen zu werfen, um nen bissl zu daddeln. Widerum die Leute die damit auch Folding@home btreiben und Produktiv damit arbeiten, sowie nebenbei Zocken, haben wirklich profitieren können.

Letztlich entscheidet das jeder für sich.
Aber wer sich ne 4090 holt zum Zocken, hat sich nun mal das Halo-Produkt nvidias geholt. Ich versuche für mich immer noch Gründe zu finden. Mein Rechner ist von 2017 und lediglich die Graka wurde immer wieder ausgetauscht. Vielleicht ist die Schmerzgrenze leichter zu überwinden, wenn man wirklich 5-6 Jahre kein Upgrade hatte. ;D
Geld ist nicht das Problem an der Stelle, eher mein innerer Monk^^

Brudi, alles gut :) Mich hat nur das "Fanboi" gestört, da ich sicherlich kein Fanboy von irgendwas oder irgend jemandem bin.
 
Moment mal, ich spiele derzeit nur Warzone 2.0/DMZ. Kann jemand - der "normale" Hotspot Temperaturen hat - mal STOCK Warzone 2.0 austesten? Das Spiel ist kostenlos.
@Thomasmh
@Igor451
@gbm31
Was habt ihr in dem Spiel für eine Hotspot Temperatur mit wie viel RPM?
Sapphire 7900XTX MBA nach 2 Std warzone 2.0 (mit Stock settings)

1671629669662.png
 
Ich habe jetzt mal Battlefield 2042 gespielt. Max FPS in dem Spiel richtet sich scheinbar nach dem Monitor, obwohl ich VSync auf Off habe, also bei mir 144 Hertz/FPS. Das Spiel läuft super smooth und die FPS sind ständig bei 144.
Mein Wattman Setting ist: max GPU 1400 MHz, 1075 mV und Power minus 10.
Die GPU läuft trotzdem auf max. 2177 MHz, scheinbar ist das die Minimum Max Frequency, die AMD vorgibt.
Die max TBP liegt bei 189 Watt.
Max GPU Fan liegt bei 1115 RPM.
Ich bin schwer beeindruckt. Insbesondere wenn ich bedenke, wie schwer sich meine 6900 XT mit dem Spiel getan hat.
Kann aber auch daran liegen, dass Battlefield 2042 mittlerweile gepatcht wurde. Ich habe das ewig nicht mehr gespielt.
 

Anhänge

  • Screenshot 2022-12-21 140650.jpg
    Screenshot 2022-12-21 140650.jpg
    217,3 KB · Aufrufe: 89
Ich habe jetzt mal Battlefield 2042 gespielt. Max FPS in dem Spiel richtet sich scheinbar nach dem Monitor, obwohl ich VSync auf Off habe, also bei mir 144 Hertz/FPS. Das Spiel läuft super smooth und die FPS sind ständig bei 144.
Mein Wattman Setting ist: max GPU 1400 MHz, 1075 mV und Power minus 10.
Die GPU läuft trotzdem auf max. 2177 MHz, scheinbar ist das die Minimum Max Frequency, die AMD vorgibt.
Die max TBP liegt bei 189 Watt.
Max GPU Fan liegt bei 1115 RPM.
Ich bin schwer beeindruckt. Insbesondere wenn ich bedenke, wie schwer sich meine 6900 XT mit dem Spiel getan hat.
Kann aber auch daran liegen, dass Battlefield 2042 mittlerweile gepatcht wurde. Ich habe das ewig nicht mehr gespielt.
Warum ist deine RAM Temperatur so hoch ? 89 Grad ist echt heftig
 
Gute Frage. Keine Ahnung, ist bei mir immer höher als die GPU Hot Spot. Selbst im Idle liegt sie bei 66 Grad. Ist das ein Problem?
Also nach meinen begrenzten Kenntnissen durch die 6900xt ist das noch nicht schädlich ....aber auch nicht besonders schön. Bei mir hatte ich damals festgestellt das die Backplate nicht richtig angezogen war mit den Schrauben (hatte eine mit WLP) und dadurch auch bis zu 80 Grad. Ich meine das RAM empfindlicher gegenüber Hitze ist als nen GPU Die aber lasse mich da gerne eines besseren belehren.

Meiner Meinung nach darf das bei dieser geringen Last nicht sein ....wenn der GPU Die mal über 300 Watt zieht was passiert denn dann? Liegt der VRam dann bei 100 Grad ?
 
an diejenigen die probleme mit ihrer rx 7900 xt(x) haben. (oder auch anderer hardware)

bei neuer hardware sollte man nicht nur mit ddu den vorherigen gpu treiber deinstallieren, sondern allgemein mal alle treiber updaten und gegebenenfalls auch das bios.
es ist immer leicht, alles auf die neue hardware zu schieben.
zumal sich eher die leute im forum melden die probleme haben, als diejenigen, bei denen alles ohne probleme läuft.
die vertreiben sich die zeit sicher mit zocken, als damit im forum zu diskutieren.
 
Ja das kann ich bestätigen. Ein Freund wollte mit mir COD Coldwar spielen und ständig ist schon meist im Ladebildschirm der Pc komplett aus gegangen. Wir hatten damals das Netzteil in Verdacht in Verbindung mit einer FE 3090 obwohl CP2077 und andere Games ohne mucken liefen. Ein neues Netzteil und auch RAM brachten keine Besserung. Um es kurz zu halten war es nachher ein simples BIOS Update vom Mainboard😱
 
bei neuer hardware sollte man nicht nur mit ddu den vorherigen gpu treiber deinstallieren, sondern allgemein mal alle treiber updaten und gegebenenfalls auch das bios.

Ich hab sogar mein Win11 auf Insider gestellt um die aktuellsten builds zu kriegen.
Der Aufwand darf auch nicht sein, das Zeug muss tun!
 
Ich hab sogar mein Win11 auf Insider gestellt um die aktuellsten builds zu kriegen.
Der Aufwand darf auch nicht sein, das Zeug muss tun!
ich weiß jetzt nicht ob das sarkasmus ist. aber mal angenommen man installiert eine aktuelle grafikkarte auf einem 3 jahre altem system.
vor drei jahren wusste noch keiner was für grafikkarten mal kommen. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh