Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Mmhh meine bescheidenen 2 Cents zur aktuellen Lage:
Wenn man jetzt eine Karte möchte und High-End will kauft man die 4090, wenn man weniger ausgeben möchte schaut man nach einer 6900XT zu um die 700€. Karten aus dem (High-End) Mittelbau zu kaufen ergibt aktuell und so kurz nach Release imo keinen Sinn. Die 4080 ist eine klare Karte fürs Upselling zur 4090 und für das Gebotene zu teuer. Genauso die 7900XT. Die 7900XTX ließe sich rechtfertigen, wenn man keinen Wert auf RT legt und die Karte zur UVP direkt bei AMD bekommt, ist aber klar noch nicht ganz fertig.
Also wenn jetzt eine Karte her muss 4090 oder 6900XT, ansonsten warten.
Man sollte sich vielleicht auch noch einmal vor Augen führen, dass der Nerd Circle Jerk hier (egal ob Team Rot oder Grün) nicht der Nabel der Welt ist und einen kleinen Teil der Käuferschicht ausmacht. Viele upgrade jetzt erst auf eine 6700XT oder so, nachdem die wieder verfügbar sind und die Preise gefallen sind.
Tut sie nicht, sonst hätte ich meine XTX nicht zurückgeschickt.
In VR brocken, hakelig, teilweise langsamer als meine 6900XT.
Dazu deutlich lauter als meine Ref.
Soviel zum Blabla.
Dein Beispiel zeigt ganz gut, wie stark das "Erlebnis AMD" vom jeweiligen Nutzungsprofil und der Erwartungshaltung abhängt.
Bei dir, 69xt -> 79xtx, mit ner G2 um SIMs wie ACC zu zocken und du warst zufrieden mit der 69xt.
Für mich, GTX -> 69xt, mit ner (damals) Q2 war bereits die 69xt keine 1400 wert, ging nach ner guten Woche zurück. Wo es drauf ankam fehlte die Leistung und dazu kamen diverse andere Macken.
Für RDNA3 hab ich mir durch den verbesserten VCN viel versprochen, hab jetzt ne P4, aber dein Fazit zu VR und die diversen anderen negativ Punkte ... ich bleib vorerst bei der GTX.
Vielleicht fixt AMD das VR Problem ja noch. Das erwarte ich auf jeden Fall bevor ich so ne Karte überhaupt in Betracht ziehe.
Damit bleiben für meine Preisbeobachtungsliste aktuell nur noch 3090/4080 :-(
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Interessant, aber was soll das Fazit daraus sein. Ein Lotteriespiel mit 1k+ Einsatz?
Ich würde den Kühler sicher nicht abbauen und Stress wegen (späteren) Garantiefällen riskieren.
Möglicherweise er hat ja die hohen Temps nicht nachstellen können!
Am Ende hat ihm der junge Mann noch vielleicht aus versehen die Falsche Karte zu geschickt und zwar die die i.o war
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Möglicherweise er hat ja die hohen Temps nicht nachstellen können!
Am Ende hat ihm der junge Mann noch vielleicht aus versehen die Falsche Karte zu geschickt und zwar die die i.o war
Ist schon witzig, bevor er überhaupt die Karte mit dem "berichteten" Problem mal startet, um diesen "Fehler" wenigstens mal mit eigenen Augen zu sehen, zerlegt er das Teil und wechselt auch direkt die Kühlpaste
Wenn das ein Montagefehler war, kanns genauso gut der User gewesen sein der das Teil zuvor hatte, der hat schließlich auch schon dran rumgepfuscht.
Die Aussage das "jeder instinktiv" bei so nem Verhalten die Karte zerlegt und dran rumbastelt, das hat schon was.
Ich würde nen Retourschein drucken und das Teil eintüten, weil ich weiß was die Hardwareabteilung in der Regel macht, wenn sie Manipulation an der retournierten Hardware feststellen 🤑
Wer jetzt noch nicht weiß wohin mit seinem Geld es wird eine Titan geben mit 48GB VRAM 24GBPs statt nur 21, dem Vollausbau, 2x 12Pin, 4 Slot, 600W TBP und 800W Peak, sicher ab 3,5k Euro.
Ich habe heut getestet wie sich meine Karte mit/in einem anderen Netzteil/System verhält. Netzteil was ich getestet hatte ist ein günstiges BQ 850W Pure Power gewesen. Das langt auf jeden Fall auch, da ist ein 5800X, 32GB RAM, 1x SSD, 1x NVME, 1xHDD, 1x SoKa verbaut.
Ich bin allerdings ein wenig neidisch auf den Idle Verbrauch mit nur einem 144Hz WQHD Monitor gewesen. Die Karte gönnt sich ja bei 2 WQHD 144Hz Monitoren 85-100W im Idle bei mir und hat da auch schon 60C. Selbe Karte gönnt sich in dem anderen System nur 20W, vielleicht bekommt AMD das noch besser hin mit dem multi Monitor Verbrauch. Auch die Hotspottemperatur war an einem Monitor immer etwas niedriger.
Ich bin allerdings ein wenig neidisch auf den Idle Verbrauch mit nur einem 144Hz WQHD Monitor gewesen. Die Karte gönnt sich ja bei 2 WQHD 144Hz Monitoren 85-100W im Idle bei mir und hat da auch schon 60C. Selbe Karte gönnt sich in dem anderen System nur 20W, vielleicht bekommt AMD das noch besser hin mit dem multi Monitor Verbrauch. Auch die Hotspottemperatur war an einem Monitor immer etwas niedriger.
Das Problem hat mich schon zu Zeiten 6900XT/ 6950XT ziemlich genervt, weil mein System auch viele Stunden läuft, ohne dass damit gezockt wird. Anfangs konnte man das Problem noch umgehen, indem man beide Monitore auf 60Hz eingestellt hat. Das war zwar nervig, aber immerhin eine Lösung (für mich). Mit irgendeinem Update ging aber auch das nicht mehr... Selbst mit dem Update, wo es angeblich behoben sein sollte. Am Ende bin ich mit meiner MSI 6900XT und später mit der 6950XT Pure bei rund 40-50w idle-Verbrauch gelandet + den Nachteil, dass immer wieder die Lüfter anspringen mussten, weil es für eine reine Passiv-Kühlung zu viel ist.
Ich denke schon, dass AMD die Treiber dahingehend weiter optimieren wird. Wie lange das aber noch dauern wird, steht in den Sternen und unter 50w idle-Verbrauch halte ich eher für unrealistisch. Das hat AMD selbst bei der 6900XT/ 6950XT nie bekommen (Multi-Monitor-Betrieb). Teilweise ist der hohe idle-Verbrauch sogar offiziell begründet.
Gerade Farcry 6 da habe ich 2650 bis runter auf 2550 Mhz und 347 Watt und ca. 1990 U/min bei 71 GPU und Hotspot 91/ max. 92 Grad.
den 5800X3D muss ich mit dem Tool noch untervolten, da bleibt jener kühler !!
Das Problem hat mich schon zu Zeiten 6900XT/ 6950XT ziemlich genervt, weil mein System auch viele Stunden läuft, ohne dass damit gezockt wird. Anfangs konnte man das Problem noch umgehen, indem man beide Monitore auf 60Hz eingestellt hat. Das war zwar nervig, aber immerhin eine Lösung (für mich). Mit irgendeinem Update ging aber auch das nicht mehr... Selbst mit dem Update, wo es angeblich behoben sein sollte. Am Ende bin ich mit meiner MSI 6900XT und später mit der 6950XT Pure bei rund 40-50w idle-Verbrauch gelandet + den Nachteil, dass immer wieder die Lüfter anspringen mussten, weil es für eine reine Passiv-Kühlung zu viel ist.
Ich denke schon, dass AMD die Treiber dahingehend weiter optimieren wird. Wie lange das aber noch dauern wird, steht in den Sternen und unter 50w idle-Verbrauch halte ich eher für unrealistisch. Das hat AMD selbst bei der 6900XT/ 6950XT nie bekommen (Multi-Monitor-Betrieb). Teilweise ist der hohe idle-Verbrauch sogar offiziell begründet.
Ich habe heut getestet wie sich meine Karte mit/in einem anderen Netzteil/System verhält. Netzteil was ich getestet hatte ist ein günstiges BQ 850W Pure Power gewesen. Das langt auf jeden Fall auch, da ist ein 5800X, 32GB RAM, 1x SSD, 1x NVME, 1xHDD, 1x SoKa verbaut.
Ich bin allerdings ein wenig neidisch auf den Idle Verbrauch mit nur einem 144Hz WQHD Monitor gewesen. Die Karte gönnt sich ja bei 2 WQHD 144Hz Monitoren 85-100W im Idle bei mir und hat da auch schon 60C. Selbe Karte gönnt sich in dem anderen System nur 20W, vielleicht bekommt AMD das noch besser hin mit dem multi Monitor Verbrauch. Auch die Hotspottemperatur war an einem Monitor immer etwas niedriger.
Das hab ich ich mir jetzt nicht gemerkt kann sein das was von einer Grizzly gesprochen wurde.
Aber die Lösung so klang es zumindest soll sein in welcher Reihenfolge die Karte zusammen geschraubt wird.
In dem Fall zuerst die GPU mit ihren Federn festmachen dann das restliche PCB.
Das hab ich ich mir jetzt nicht gemerkt kann sein das was von einer Grizzly gesprochen wurde.
Aber die Lösung so klang es zumindest soll sein in welcher Reihenfolge die Karte zusammen geschraubt wird.
In dem Fall zuerst die GPU mit ihren Federn festmachen dann das restliche PCB.
Ich habe mir schon mal die Paste bestellt die er verwendet hat. Vielleicht tausch ich die Paste. Ansonsten läuft meine Karte ja sehr gut und hat fast kein Spulenfiepen, will halt nicht riskieren durch einen RMA das ich dann etwas schlechteres erwische.
- Beide Monitore mit 60Hz --> ca. 5-12w
- Einen der beiden Monitore mit +60Hz (165Hz, 144Hz, 120Hz usw.) --> 30-35w
Auflösung spielte bei mir keine Rolle. Hatte zwei 1440p Monitore und jetzt 1x 1440p & 1x 4K. Exakt gleiches Verhalten. Sobald ein Monitor über 60Hz eingestellt wird, erhöht sich der ASIC-Verbrauch auf 30-35w.
Gemessen mit XFX 6900XT Black und MSI 6900XT Gaming Z Trio.
Den im Übrigen auch andere User bestätigen konnten. Die besagten 5-12w, habe ich ab einem bestimmten Zeitpunkt (Treiber) nicht mehr gesehen, auch nicht mit der 60Hz Methode. Der idle-Verbrauch deckt sich auch ziemlich genau mit dem was Techpowerup gemessen hat (MSI 6900XT, 6950XT Pure). Idle-Verbrauch rund 40w, Video playback 52w, avg bei mir ~45w. Davor waren es weniger als die Hälfte.
Hab alles mögliche probiert, Treiber neu installiert (vorher mit DDU runtergehauen), Ports getauscht etc. Keine Chance, der idle-Verbrauch blieb bei min. 40w. Hab die Schnauze dann irgendwann voll gehabt und bin ins grüne Lager gewechselt.
wie seht ihr die chancen, liquid metal bei der xtx anzuwenden? zwischen den chiplets dürfte eigtl. alles mit dem schwarzen kleber gefüllt sein, so dass auffüllen / "abdichten" mit wlp o.ä. dort nicht nötig sein dürfte. müsste eigtl. funktionieren, trotz chiplet kram?
Schönes Video von KitGuru mit der Nitro+, wo alles ein wenig angerissen wird. Teardown, OC, UV usw. In der Spitze werden sogar 555w geknackt. Neben der Red Devil, wäre das wohl die Karte meiner Wahl. Schade, dass die Preise teilweise teurer sind als im grünen Lager bei der RTX 4080. Dennoch, insgesamt kann die Nitro+ schon überzeugen wie ich finde.
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Kurzes Update:
Hatte bis gestern laut HWinfo Hotspot Temperaturen von 84° / 96° trotz 4x140er und 1x 120er Lüfter. Habe nun mal den Airflow im Gehäuse optimiert und die Drehzahlen leicht angehoben und siehe da, die Hotspot Temperaturen haben sich massiv verbessert, zudem ist mir aufgefallen das die Temperaturanzeige in HWinfo sich deutlich von der im Treiber unterscheidet.. Der idle Verbrauch im Treiber ist ebenfalls von knapp 100watt auf 28-30 watt gesunken bei 3840*1440@120hz und das obwohl ich nichts am Treiber geändert habe. Zudem sind die die GPU-Lüfter nun im zero Fan Modus.
Brachte bei mir nichts, Airflow war aber schon vor der Drehzahlerhöhung gut. Delta geht halt bis 30°C, das scheint bei Dir vorher nicht der Fall gewesen zu sein. Was mir aber auch aufgefallen ist um so wärmer sie im Idle wird um so höher der Verbrauch.
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Der Schaden in dem Video ist definitiv kein Sag^^
Das ist Karte mit Gewalt aus dem board ziehen, ohne vorher zu entriegeln und noch nach oben und unten biegen weil es "klemmt"
Beim Sag bricht ganz sicher nicht mal eben die Sicherung weg ^^
Brachte bei mir nichts, Airflow war aber schon vor der Drehzahlerhöhung gut. Delta geht halt bis 30°C, das scheint bei Dir vorher nicht der Fall gewesen zu sein. Was mir aber auch aufgefallen ist um so wärmer sie im Idle wird um so höher der Verbrauch.
Letzteres kann ich bei meiner Karte zumindest ebenfalls bestätigen, vermutlich weil dann die Lüfter anspringen.
Seltsamerweise fängt bei meiner Karte die Temperatur kontinuierlich an zu steigen sobald ich die Spannung (1060mv) und das Powerlimit(-10%) manuell runtersetze und endet dann sobald eine bestimmte Temperatur erreicht ist in einem Treiberreset sofern ich vorher nicht selbst wieder das standard Profil auswähle. Nach auswahl des standard Profils bleibt der Watt Verbrauch allerdings im 3 steligen Bereich und die Karte läuft dann im idle auch heißer als sonst. Erst nachdem ich den Treiber mit Custom Resolution Utility resete geht der Idle Verbrauch und die Temperatur wieder auf Normalniveau zurück. Auch der Zero Fan Modus scheint bei genauer beobachtung nur sporadisch zu funktionieren, selbst wenn die Temps niedrig sind wird dieser oftmals nicht aktiviert.
Letzteres kann ich bei meiner Karte zumindest ebenfalls bestätigen, vermutlich weil dann die Lüfter anspringen.
Seltsamerweise fängt bei meiner Karte die Temperatur kontinuierlich an zu steigen sobald ich die Spannung (1060mv) und das Powerlimit(-10%) manuell runtersetze und endet dann sobald eine bestimmte Temperatur erreicht ist in einem Treiberreset sofern ich vorher nicht selbst wieder das standard Profil auswähle. Nach auswahl des standard Profils bleibt der Watt Verbrauch allerdings im 3 steligen Bereich und die Karte läuft dann im idle auch heißer als sonst. Erst nachdem ich den Treiber mit Custom Resolution Utility resete geht der Idle Verbrauch und die Temperatur wieder auf Normalniveau zurück. Auch der Zero Fan Modus scheint bei genauer beobachtung nur sporadisch zu funktionieren, selbst wenn die Temps niedrig sind wird dieser oftmals nicht aktiviert.