2022 sind 4 GB nicht mehr zeitgemäß: 2x Radeon RX 6500 XT von Gigabyte im Test

Ich hätte ja auch schonmal Tests gemacht mit einer rtx3080 die mit der Bandbreite von pcie 3.0 x4 angebunden war im Vergleich zur x16 Anbindung, und die hatte dennoch eine gute performance
Aber nicht im Bereich wo die 10gb vram überlaufen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hätte mir eine bessere Effizienz gewünscht. Ob der relativ hohe Verbrauch an dem Chiptakt liegt?
 
Aber nicht im Bereich wo die 10gb vram überlaufen?
Also 4K+ wird schon grenzwertig, bei diversen Games reicht der RAM halt nicht mehr, auch wenn die Karte die Power hätte z. b 5k zu verarbeiten mit spielbaren FPS Bottleneckt der RAM...
Aber ich bin da zufrieden, angesichts der aktuellen Situation kann man es sich nicht leisten auf so hohem Niveau zu meckern.
Das ding ist wie gemacht für UWQHD.
 
Ich hätte mir eine bessere Effizienz gewünscht. Ob der relativ hohe Verbrauch an dem Chiptakt liegt?
Ist auch meine Vermutung. Die haben einfach an der Taktschraube gedreht, damit die Karte überhaupt in für den Desktop relevanten Bereichen liegt. Wenn man auf 60 oder 80W (statt 125W) geht, dann wird die sicher effizienter sein. Oder gar auf 30W wie im mobilen Bereich...

Die Theorie, Navi 24 sei in dieser Form nicht für den Desktop geplant gewesen, scheint sich zu bestätigen: https://www.phoronix.com/forums/for...h-radeon-rx-6500-xt-support/page2#post1303444
Damit wäre dann auch klar warum AMD den Video En/decoder beschnitten hat. Im Notebook hat man meist ne iGPU dabei, die diesen Job übernehmen kann. Ergo ist es in Navi24 nicht nötig und kostet nur Chipfläche sowie Strom.
 
Ich freu mich dann schon auf die RX 6200 mit 50 MB Speicher und der Power eine Uhrzeit in 640x480 darzustellen - für 129€
 
Warum da einige Grafikkartenhersteller überhaupt drauf anspringen und die Chips kaufen? AMD betreibt hier Verwertung mobiler GPUs auf dem Desktopmarkt, aber so wird das nix. Was ich bei einer 5500XT noch verstanden habe, bezüglich des PCIe4.0 Interfaces schon problematisch empfand wird hier auf die Spitze getrieben. Die Karte muss in eine PCIe4.0 Umgebung und für den Desktop ist die untauglich, außer für Office und Co. Nur leider ist sie dafür viel zu stromhungrig.

Chip runtertakten, Passiv kühlen, sparsam machen, ordentliches PCIe3.0 Interface

Ich hätte mir passive , Sparsame 30W Karten gewünscht, die mit ordentlich Anschlüssen versehen eine lange Zeit supportet werden.
So bleiben halt weiterhin Nvidias 1030, GT220 und co. Auch völlig ausreichend, wenn auch nicht mit allen modernen Features gesegnet.
 
Warum da einige Grafikkartenhersteller überhaupt drauf anspringen und die Chips kaufen? AMD betreibt hier Verwertung mobiler GPUs auf dem Desktopmarkt, aber so wird das nix. Was ich bei einer 5500XT noch verstanden habe, bezüglich des PCIe4.0 Interfaces schon problematisch empfand wird hier auf die Spitze getrieben. Die Karte muss in eine PCIe4.0 Umgebung und für den Desktop ist die untauglich, außer für Office und Co. Nur leider ist sie dafür viel zu stromhungrig.

Chip runtertakten, Passiv kühlen, sparsam machen, ordentliches PCIe3.0 Interface

Ich hätte mir passive , Sparsame 30W Karten gewünscht, die mit ordentlich Anschlüssen versehen eine lange Zeit supportet werden.
So bleiben halt weiterhin Nvidias 1030, GT220 und co. Auch völlig ausreichend, wenn auch nicht mit allen modernen Features gesegnet.
Naja du hast schon recht wobei PCIE4.0 x8 ja durchaus ausreichend ist = PICE3.0 x16, das ist ja heute noch so das es ausreichend ist. Selbst für ne 3080.
 
Next up
 

Anhänge

  • Why-make-a-worse-version-of-something-that-was-already-really-bad.jpg
    Why-make-a-worse-version-of-something-that-was-already-really-bad.jpg
    55,6 KB · Aufrufe: 138
Naja du hast schon recht wobei PCIE4.0 x8 ja durchaus ausreichend ist = PICE3.0 x16, das ist ja heute noch so das es ausreichend ist. Selbst für ne 3080.
Alles richtig nur statt 4Lanes mit PCIe4.0 wäre es besser gewesen 8 Lanes PCIe3.0 zu wählen. Das mag identische Transferraten haben, aber steckt man diese PCIe4.0 Karte in ein System, was eben kein PCIe4.0 hat, dann halbiert man mit einem PCIe3.0 Steckplatz die Datentransferrate. Sprich, ne NMVe ist teilweise schneller!

Problem ist, dass Navi24 für Notebooks geplant war und dort niemals mit PCIe3.0 angebunden worden wäre. Als Steckkarte ist das bei älteren PCs aber möglich. Darauf wollte ich Hinaus ...

Für Office und Co würde auch ne 2GB Karte reichen, dann aber bitte moderne Schnittstellen, passivkühler, Verbrauch auf 35W runter und so weiter.
Oder gleich in den Mobile-Markt werfen. Aber das was AMD da jetzt gemacht hat, bleibt im Lager liegen.

Da hat wer im Marketing einfach nur gepennt ... am Markt vorbei ...


Als 6400 scheint das ja ok zu sein, nur ob die OEM Only bleibt? 54W ist aber dennoch ne Hausnummer und AV1 Decodierung nicht in Hardware? Schade ...
 
Erst war der Navi 24, möglichst abgespeckt und auf Effizienz getrimmt für einen Einsatz im Notebook. Der wurde produziert. In Massen.

Dann hat irgendwer bei AMD hektisch in den Flur gerufen:
Intel macht Ernst mit XE DG! Im Notebook!
Wenn Intel jetzt xe DG mobile bringt, was machen wir mit den ganzen Navi 24 Chips die im Lager liegen?

Daraufhin gab es eine Abteilungsversammlung am Kaffeeautomaten und irgendwer hatte die Idee den navi24 auf ein PCB statt ins Notebook zu packen, weil sind ja jetzt zu viele von da.

Und Grafikkarten werden gekauft, warum wissen wir alle...

Und dann hat man noch überlegt, was man mit dem navi24 auf dem PCB so alles anfangen kann wenn man das Powerlimit ausreizt...

Den Rest macht dann Marketing. Oder der Grafikkarten-Weltmarkt. So oder so ähnlich dürfte es gelaufen sein.

PS:
Ich hab Grade 2 Gedanken dazu
1) dass ein 5600g kein pcie4 kann wirkt wie ein Eigentor. Also ist navi24 irgendwie next gen, weil pcie4. Das spricht für mobile 2022 Generation.
2) wenn man navi24 auf 75w Powertarget bringen würde, und ohne pcie6 bauen würde...
Wieviel Power bleiben dann übrig?
Und warum hat die 6400 ein Powertarget von 53 und nicht 75w?
 
Zuletzt bearbeitet:
Alles richtig nur statt 4Lanes mit PCIe4.0 wäre es besser gewesen 8 Lanes PCIe3.0 zu wählen. Das mag identische Transferraten haben, aber steckt man diese PCIe4.0 Karte in ein System, was eben kein PCIe4.0 hat, dann halbiert man mit einem PCIe3.0 Steckplatz die Datentransferrate. Sprich, ne NMVe ist teilweise schneller!

Problem ist, dass Navi24 für Notebooks geplant war und dort niemals mit PCIe3.0 angebunden worden wäre. Als Steckkarte ist das bei älteren PCs aber möglich. Darauf wollte ich Hinaus ...

Für Office und Co würde auch ne 2GB Karte reichen, dann aber bitte moderne Schnittstellen, passivkühler, Verbrauch auf 35W runter und so weiter.
Oder gleich in den Mobile-Markt werfen. Aber das was AMD da jetzt gemacht hat, bleibt im Lager liegen.

Da hat wer im Marketing einfach nur gepennt ... am Markt vorbei ...


Als 6400 scheint das ja ok zu sein, nur ob die OEM Only bleibt? 54W ist aber dennoch ne Hausnummer und AV1 Decodierung nicht in Hardware? Schade ...
Ja klar die Lanes wären schon wichtig gewesen egal ob PCIE 4.0/3.0 Hauptsache 8 Lanes+
 
Ich denke das dank dieser Karte für Nvidias 3050 8G die Preise durch die Decke schießen werden, weil die Karte ist nur für den absolut verzweifelten eine Option.
Navi 24 wird im 6nm Prozess produziert, die anderen im 7nm. Hier wird also absichtlich Schrott gebaut.
 
Meine 1050 TI bleibt noch ne Weile. Wird ja immer schlimmer was so auf den Markt kommt. Wenn diese Gurke jetzt schon 350 Euro kostet, dann braucht man über den Preis einer 3050 ehrlich nicht mehr spekulieren.
Wird bestimmt über 500 Euro liegen.

Allerdings sind deren Eckdaten wesentlich stimmiger.
 
Zuletzt bearbeitet:
Meine 1050 TI bleibt noch ne Weile.
hab leider meine vor der Welle für kleine 80€ mal weggegeben, weil sie nur lag. Jetzt könnte ich die mal gebrauchen, muss ich ne GT 610 hernehmen ... Brechreiz

"Stimmiger" trifft es aber ganz gut, Ja, die 6500XT ist absolut unstimmig, das Teil schreit nach zusammengewürfelt und nicht für den Desktop Markt kreiert
 
wie alle tun als würde irgendeine gpu das kosten was sie zu leisten im Stande ist ^^
Preise sind x2 bis x3, nicht erst seit gestern. Man hat Menschen über 1000 Euro für Midrange Karten ausgeben sehen.
Und ich mein nich die, die damit offenkundig hin und her handeln, sondern Endverbraucher. Weil muss ja und geht ja nich anders. Wer hat der kann, auch diese (unfassbar schreckliche) gpu wird vergriffen sein und von Scalpern gehortet.
Nie war es lukrativer mit der Herstellung von Grafikkarten anzufangen. Wer macht mit? :d
Für ne RGB Kartoffel kann man doch schon 180 Euro verlangen! Auf auf!
 
Selbst mit 6GB / 8GB wäre die GPU Müll.
Zu schwach und beschnittenes Interface. Die 4GB sind das kleinste Übel :wall:
Mal abgesehen von dem Absoluten Totalen WUCHERPREISEN für diesen Mist, wie bei allen GPU's werden doppelte + dreifache Abzockerpreise gefordert.
 
Vom Ryzen Auftakt in 2017 zur 6500xt in 2022 ist viel passiert.
Meiner Meinung kann AMD die 6500xt nur noch retten, wenn sie als Ref. zur UVP im eigenen shop angeboten würde.
 
Jetzt mal zu Fakten außerhalb der Blase aus dem Luxx.

Grafikkarten sind rar und teuer. Da nimmt man, was man kriegen kann. Ja , auch solche Krüppel, wenn die Alternative ansonsten gibt es gar nichts lautet.

Egal ob Bastler, oder Komplettkäufer, bei der heutigen Marktlage ist die Karte "gut".

Und wenn die Minder die 3050 wegkaufen, werden die Spieler nichts von der wesentlich besseren Leistung haben.

Der Preis ist natürlich eine Frechheit. Zur guten alten Zeit hätte so eine Karte maximal 100 € gekostet.
 
Jetzt gibt es schon Hinweise bei der Sucher für eine 1660, die nicht mehr bei Alternate 620€ kostet, sondern günstige 480€.

Naja, bei der Ausstattung der 6500XT sind selbst 100€ einfach zu teuer. Dafür hat die einfach zu viele Defizite.
 
Naja, bei der Ausstattung der 6500XT sind selbst 100€ einfach zu teuer. Dafür hat die einfach zu viele Defizite.
100€ ist einfach unrealistisch. Dafür sind die Herstellkosten zu hoch, unabhängig von der Markt und supply chain situation in den letzten 18 Monaten.

Wenn du sowas erwartest nimm eine alte gt710 die sich in dem Preisrahmen produzieren lässt oder eine CPU mit IGP.
 
Wenn man mal ehrlich ist, das Ding funktioniert, die Leistung ist nicht überragend, aber akzeptabel.

Unter 150 € wirste soein Ding nicht sehen.

Es ist immerhin keine gt710 oder sowas und man kann damit doch schon zocken.
 
Wird Raytracing bei der 6500XT auch unterstützt?
AMD soll die Entwickler bereits aufgefordert haben für die AMD RX 6500 XT eigene Grafik Optionen einzubauen.

Hier ein erstes Video von Battlefield 2042 auf der RX 6500 XT:

:fresse:
 
Wenn man mal ehrlich ist, das Ding funktioniert, die Leistung ist nicht überragend, aber akzeptabel.

Unter 150 € wirste soein Ding nicht sehen.

Es ist immerhin keine gt710 oder sowas und man kann damit doch schon zocken.
1642759690614.png

Naja anscheinend immerhin unter 300€, aber der ganze Supply hängt ja noch irgendwo :d
 
Ich sag mal so, wenn ich jetzt gar keine andere Möglichkeit hätte dann würde ich den Kauf eventuell doch in Erwägung ziehen.

Ist das geil, nein! Aber es ist zumindest eine Grafikkarte, die verfügbar ist und keine Niere kostet...
 
Besser wäre aber gewesen, wenn AMD sie als Ref. Version im eigenen shop verkaufen würde.
 
Aber in der aktuellen Lage für die Meisten das Beste, was man bekommen kann.
Meinst du ich hab mir einfach eine 3080ti gekauft für 1799 . Preis hin oder her stattdessen irgendeine schwächere oder 0815 Karte zu Kaufen kam nicht in frage und ich denke da bin ich nicht alleine mit der Meinung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh