Boardpartner stellen ihre Modelle der Radeon RX 6500 XT vor

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
radeonrx6600xt.jpg
Gestern aktualisierte AMD seine Produktpalette der mobilen Radeon-GPUs und stellte nebenbei mit der Radeon RX 6500 XT auch ein neues Einsteigermodell vor. Dieses basiert auf der Navi-24-GPU, die in 6 nm gefertigt wird. Die Karte bietet 1.024 Shadereinheiten, organisiert in 16 Compute Units und kommt so mit 16 Raytracing-Beschleunigern daher. Über ein 64 Bit breites Speicherinterface sind 4 GB an GDDR6 angebunden und kommen auf eine Speicherbandbreite von 128 GB/s. Unterstützt wird der Speicherausbau von 16 MB an Infinity Cache. Die TDP der Karte liegt bei 107 W.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was denkt sich Gigabyte eigentlich dabei, eine solche Karte mit nur knapp 100W TDP mit einem Triple Fan Kühler auszustatten? Selbst die Dual Fan Modelle sind ja quasi schon zuviel.
Solche Karten sind für den Low Cost Bereich ausgelegt und sollen nicht augrund von überdimensionierter Kühlung noch extra teuer werden. Kein Funke Verstand in deren Designabteilung.

Übrigens ist an anderer Stelle der 19, JANUAR als Releasedatum für die Karte angegeben. Wer hat nun recht?
 
Zuletzt bearbeitet:
@Morrich

villeicht haben sie kalkuliert und festgestellt dass diesen kühler zu nutzen billiger ist als einen neuen designen und herzustellen. ausserdem taktet rdna2 recht gut, da etwas kühlung zu haben schadet nicht.

abgesehen davon reden wir über gigabyte, da frage ich schon lange nicht mehr "warum".
 
Sie haben mit der "Eagle" doch auch ein Modell mit nur zwei Lüftern im Angebot. Sie müssen da also nichts neu designen. Sie könnten sich dieses Triple Fan Monster einfach sparen, weil völlig unnötig.
 
Wenn 8GB oder wenigstens 6GB drauf wären..
4GB sind leider wirklich zu wenig, daher uninteressant. Hier wird die 3050 mit 8GB wahrscheinlich wesentlich attraktiver.
 
Die Karte ist für OEM Kisten und soll Bild machen. Die gleiches Segment wie die ewig verbauten GTX750TI. Als Gurke wo RT beworben werden kann mehr als ausreichend.
 
Sie haben mit der "Eagle" doch auch ein Modell mit nur zwei Lüftern im Angebot. Sie müssen da also nichts neu designen. Sie könnten sich dieses Triple Fan Monster einfach sparen, weil völlig unnötig.
Sag das mal der Silent-Fraktion.
Es gibt bei den GPU´s Nachfrage nach großen Kühlern.
Sonst gäbe es auch keine Noctua Edition mit Monsterkühler von Asus.

Wenn das 1:1 der Kühler der größeren Modelle ist, dann halten sich auch die Mehrkosten in Grenzen.

Hauptgrund dürfte aber hier aber die Optik sein.
In einer OEM-Kiste gibt das ein gutes Bild für den Laien.
 
Sag das mal der Silent-Fraktion.
Ich soll mir das also selbst sagen?

Man braucht keinen solchen Monsterkühler um eine flüsterleise Karte zu bekommen. Da ist es viel, viel wichtiger, die Lüfterkurve gescheit einzustellen. Und genau da hapert es bei allen Herstellern ganz gewaltig. In der Regel drehen die Lüfter viel zu hoch um die Karten völlig unsinnig bei besonders niedrigen Temperaturen zu halten.
Wenn man da einfach etwas besser arbeiten würde, wären viele Karten deutlich leiser bzw. sogar flüsterleise, ohne Temperaturprobleme zu bekommen.
 
Naja, wenn sich die RDNA2-Chips halberwegs gleichen, dann wäre auch hier eine niedrige Temperatur mit ausschlaggebend für einen geringeren Stromverbrauch. Aber ob das der Vater des Gedanken war, den Triple-Slot zu verbauen - ich wage es zu bezweifeln. In ein ITX-klein-klein-Gehäuse samt passendem Netzteil würde ich die ~ 130-140W (110W Chip plus 20-30W Rest) jedenfalls auch nicht packen wollen.

Da bleibt zu hoffen, dass eine +- 75W RX 6400 als LowProfile kommt _und_ man sie günstig in die Hände bekommt, irgendwie. Ansonsten bleibt nur der Weg zu ner AM5-RDNA2-APU samt bestimmt günstigem ITX-Board, wenn man etwas Leistung unter Linux mag, und deswegen Nvidia dort ausgeschlossen hat. Wobei auch hier dann der (zwar schnellere vs DDR4, aber immernoch) zu lahme "GPU"-Speicher nervig werden könnte.
 
Die Asus TUF sieht ja "süß" aus :)

Und mit der Powercolor mit 1 Lüfter hat man doch was ITX taugliches??
 
Und mit der Powercolor mit 1 Lüfter hat man doch was ITX taugliches??
Dimensions - 179 x 124 x 40 mm, 2-slot
Stimmt, ich denke bei ITX aber eher kleiner, kompakter. In Cases, wo die RX 6500XT reinpasst, passen dann meist auch andere Leistungsklassen à la RX 6800 oder RTX 3080.
Ich würde halt was in Richtung https://geizhals.de/msi-geforce-gtx-1050-ti-4gt-lp-v809-2404r-a1542809.html oder https://geizhals.de/msi-geforce-gtx-1650-4gt-lp-oc-a2128397.html verbauen wollen, nur halt a) nicht zu dem Preis und b) nicht von NVidia (Linux-Treiber...). Wobei, wie gesagt, allein der Verbrauch bzw. die Hitzeentwicklung eventuell ein Problem sein würde.
Somit offiziellerweise leider immernoch nix von AMD seit der RX 560 LP. Aber vielleicht kommt man ja mal an ne Dell/HP/Lenovo/whatever LowProfile RX 6400, wenn die sich sowas bauen lassen?
 
Bei GTX1070 gab es sogar single slot und dass bei 180W TDP und bei ca. 110W TDP Ampere so eine Grütze.
 
Mittlerweile gibt es Infos, dass die Karte nur PCIe 4.0 x4 haben soll.
 
was aber für die leistung wohl ausreichen müsste oder ?

trotzdem strange. auf biegen und brechen die karten so kastrieren damit sie blos NIEMAND kauft :fresse:
 
Solang man auf dem Board PCIe 4.0 hat... Mit 3.0x4 würde das wohl auch bei ner FullHD-Karte Einschränkungen geben.

Edit: Ja, auf 3DCenter stehts auch als wohl bestätigt, dazu noch, dass die Video-En-und Decoder beschnitten sind, als ob AMD da nicht eh schon generell etwas hintendran wär. Just ka...
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Tzk
WTF hat sich AMD mit der Beschneidung des Decoder und PCIe gedacht? Das ist ja absolut lächerlich bei der Preisklasse und Chipgroesse.
 
Wenn 8GB oder wenigstens 6GB drauf wären..
4GB sind leider wirklich zu wenig, daher uninteressant. Hier wird die 3050 mit 8GB wahrscheinlich wesentlich attraktiver.
Kommt drauf an, besonders wenn man sich anguckt was wirklich an VRam genutzt wird.
Die Anzeigen z.B. im Afterburner sind immer inklusive reserviertem VRam. Selbst in 4K kommen die meisten Spiele nicht über 8GB.
Dann wird man mit der Karte eher in 1080p Spielen, also um den Speicher mache ich mir da keine Sorgen.

gigabyte-rtx-3090-eagle-oc-vram-8k-vs-4k_6113891.jpg
 
Aber ich, absolut.
Klar ist das eine 1080p Karte, alles andere macht keinen Sinn.
Ich sehe es aber ganz deutlich an meiner aktuellen GTX 1060 welche sogar 6GB VRam hat.
Die reichen auch ganz oft nicht mehr. Aktuelles Beispiel ist Forza Horizon 5. Kommt Regelmäßig Meldung das der Grafikspeicher voll ist.
Die 4GB reichen hinten und vorne nicht. Zumindest nicht, wenn man alles auf Low spielen möchte.
 
Aber ich, absolut.
Klar ist das eine 1080p Karte, alles andere macht keinen Sinn.
Ich sehe es aber ganz deutlich an meiner aktuellen GTX 1060 welche sogar 6GB VRam hat.
Die reichen auch ganz oft nicht mehr. Aktuelles Beispiel ist Forza Horizon 5. Kommt Regelmäßig Meldung das der Grafikspeicher voll ist.
Die 4GB reichen hinten und vorne nicht. Zumindest nicht, wenn man alles auf Low spielen möchte.
Was hast Du da eingestellt?

 
2560x1440 @ High
Das läuft "gerade so" mit 6GB VRam.
Kommt immer Meldung das der Speicher voll ist, läuft aber gerade noch so am Limit das man es gut zocken kann.
 
Kann es sein, dass die komplett unbrauchbar fürs Mining ist? Dann würde sie für 200 € ja ganz gut dastehen. Also für den Preis, würd ich sie zur Überbrückung nehmen...
 
Kann es sein, dass die komplett unbrauchbar fürs Mining ist? Dann würde sie für 200 € ja ganz gut dastehen. Also für den Preis, würd ich sie zur Überbrückung nehmen...
Zu viel beschnitten. Keine 150€ wert.
 
Es geht lustig weiter. Eine Karte die Bild machen soll ist jetzt auch noch bei den Ausgängen beschnitten. Es wird immer absurder.
 
Hm. Bei nem PCIe-x4-Interface hätte man auch gleich die Länge auf nen x4-Slot begrenzen können. Dann könnte man das schnuffelig in den Server setzen und an die VM durchreichen. So ist man wieder an nen x16-Slot oder offene Slots gebunden. Naja, für OEM halt. Wobei das endlich mal wieder was Neues ganz unten im Segment ist was auf aktuelle Technik setzt.
 
Da sind so monströse Kühler drauf, weil die Hersteller damit eine bessere Marge erreichen können.
 
Mittlerweile gibt es infos das die Karte PCI 4.0 benötigt. Das heisst dann das sie auf einer PCI 3.0 x16 Board nicht funktionieren oder das sie nicht die volle Leistung schaffen? Ich dachte ich könnt versuchen mein R9 380 durch die ersetzen aber ich habe auf meinen Board leider nur PCI 3.0 16x :unsure:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh