Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Die 6800 ist etwas schneller, verbraucht etwas mehr, kostet etwas mehr als die 3070.
Damit ist sie die am schlechtesten positionierte GPU, weil sie quasi überall die gleichen relativen Werte hat, aber wohl bei RT abstinkt.

Die 6800XT ist da schon interessanter:
Gleich auf mit 3080, etwas billiger, mehr VRAM (dafür langsamerer). Da kann man über den Preis die schwache RT Leistung argumentieren.

Die 6900XT sieht sehr solide aus.
Wohl gleich auf mit der 3090, deutlich billiger, dafür weniger VRAM (und langsameren!) und bescheidene RT Leistung.
Die 3090 wird hier im Preis hart sinken müssen, oder eine 3080 TI muss einspringen.

Alles in Allem ein guter Launch wohl, wenn die Preise so bleiben und sie verfügbar sind.
Kein Killer Produkt, aber eine Alternative zu Ampere. Wer lieber mehr VRAM hat und den Speed dessen ignoriert,... dazu kein Interesse an RT hat, findet bei AMD ne sehr solide Alternative.
Wer lieber RT hat und schnellen VRAM, greift zu NVidia.

Wer hier den "Killer" sieht, war die letzten 10 Jahre aber wohl im Tiefschlaf. Nvidia wird kontern und das wohl recht fix.
Wie gut sie kontern können, werden wir Anfang 21 sehen vermutlich. Kommt da nun für 999 ne 3080 TI mit > 12gb GDDR6X, 99% der Leistung der 3090 und ähnlicher RT performance, ist das Ding schon wieder gegessen. Die 6800 ist jetzt schon komisch platziert und die 6800XT wird durch eine 50 Euro Preissenkung ausgehebelt.

Solide, aber kein Killer. Und dennoch unglaublich cool. Endlich Konkurrenz!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soll 6800 echt teurer sein als ne RTX3070?

Allgemein bin ich aber wirklich glücklich, dass AMD mal wieder richtig mitmischen kann.
 
Im Vorfeld war zu lesen, dass es das Topmodell nur von AMD selbst geben soll. Hat sich da etwas geändert dh keine 6900 XT als Custom?
 
interessante Karten! Jetzt hab ich einen 1440p 144Hz Gsync Monitor den ich auch sehr mag. Bin ich wohl weiterhin auf Nvidia angewiesen oder wie?!
 
Die gezeigten Werte mit den Karten sind auf einer aktuellen Intel Basis entstanden, oder?

Ich meine AMD hat mal gesagt, dass sie dafür Intel CPUs nutzten...
5900.PNG


Ryzen 9 5900X
 
Stimmt, 60% mehr FPS (siehe z. B. Watchdogs) sind absolutes fanboygehabe und nix wert... Ja nicht in jedem Spiel, aber in einigen, vor allem aaa
hast du den von dir zitierten beitrag ueberhaupt gelesen?
hast du verstanden worauf er sich bezog?

aber schoen, dass ich dich triggern konnte. :d
 
Ah verstehe, die 3080 in deiner Sig ist also unwahr.
Was wolltest du nochmal mit deinem Kommentar?

Stellst Du Dich gerade ein wenig ... unbeholfen an?

Mein nicht so schwer zu verstehender Kommentar war, dass es mit Smart Memory Access ein proprietaeres Feature gibt, fuer das Nvidia im Forum von vielen, mutmasslich auch Dir, geteert und gefedert worden waere. Bei AMD sind die Leute da immer auffallend nachsichtig. Was hat das nun mit meiner Signatur zu tun? Kennst Du die Strassenpreise der neuen Radeons nun oder nicht? Denn 50 US$ weniger sehen in einer Folie gewiss huebsch aus - bedeuten aber nicht, dass der Preis so auch im Handel ankommt. Die ersten Listungen der 5000er Ryzen hast Du mitbekommen?
 
Der Bauer sagte das er ca. ende November die 6900XT bekommen wird als testsample
 
Die 6800 hat 16gb ram während die 3070 nur 8 hat. Das unterschlagen wir mal lieber nicht.

Wird wohl bei mir die 6800xt werden. Mit ghettomod. Bis denne.
 
Das einzige was deutlich günstiger ist ist die 6900 vs 3090
Eine Nvidia 3080 würde mit 16GB Speicher, wenn man so eine entwickelt hätte, deutliche 100€ mehr kosten.
Aber der auf billigst getrimmte Speicherausbau der 3070 und 3080 spült nicht nur mehr Geld in die Nvidia-Kassen, sondern lassen diese Karten auch noch schäbig erscheinen.

2080Ti Leistung aber dann 8GB RAM bei der 3070 ist mehr als nur schäbig. Die 10GB sind auch ein Witz für diese Leistungsklasse. Aber mit 16GB RAM würde eine 3070 locker 650€ kosten.
Aber das wollte die Lederjacke nicht.
Man hat auf billig, billig und noch mehr billigst getrimmte Karten so schnell wie möglich auf den Markt geschmissen, um die Kunden über den Tisch zu ziehen, mit Karten, die schon mit dem nächsten Titel im VRAM Limit hängen könnten.

Das wäre ungefähr so, als würde man 195 Reifen auf ein Auto montieren, dass aber 235 Reifen bräuchte, um die komplette Leistung entfalten zu können.
 
Kann mirnjemand ausrechnen wie hoch der speichertakt bei 256 bit interface ist und 512gb/s haben
 
Dann wenn das Embargo endet 😉
 
Ist doch alles viel zu teuer. Wann ist denn voraussichtlich mit neuen, noch bezahlbaren Karten aus beiden Lagern zu rechnen? :o
 
Sind doch bezahlbar
 
Die Boardpartner werden kaum schon verlässliche Daten zu den Samples nennen können. Da fließt noch viel Wasser den Rhein runter.
 
Nicht aufgepasst?
FidelityFx -Super resolution dürfte DLSS entsprechen

FidelityFx -Super resolution hört sich so an als wenn die Auflösung Dynamisch nach unten geht wie bei einer Konsole und nicht wie bei DLSS von einer kleiner gerenderten nach oben gerechnet wird oder ?
 
Boardpartner dürfen wohl erst morgen infos rausgeben
 
Wo bleibt die offizielle Gratulation von Nvidia an AMD für BigNavi? ;)
 
FidelityFx -Super resolution hört sich so an als wenn die Auflösung Dynamisch nach unten geht wie bei einer Konsole und nicht wie bei DLSS von einer kleiner gerenderten nach oben gerechnet wird oder ?
Zitat von PCGH
Eine wichtige Stellung nimmt dabei AMDs Toolkit für Entwickler ein, welches unter dem Namen FidelityFX eine Reihe von Effekten und Lösungen zur Implementierung anbietet. Das bekannteste ist wohl Sharpening, doch in Kürze sollen weitere Module veröffentlicht werden, welche in Kombination mit DirectX 12 Ultimate funktionieren. Die Rede ist unter anderem von einem effizienten Denoising-Filter (elementar beim Raytracing), Variable Rate Shading und Super Resolution. Letzteres klingt besonders spannend, erinnert es doch an Nvidias KI-Bildglättung DLSS. "Open and cross-platform" (quelloffen und für alle Plattformen) soll die Lösung sein, ergo auch für die RDNA-2-basierten Konsolen. Bedauerlicherweise kündigte AMD an, dass dieses spannende Feature nicht zum Launch der RX-6000-Grafikkarten verfügbar sein werde, sondern noch etwas Zeit brauche. Genauere Informationen soll es in Kürze geben.
 
Die 6800 XT kostet also 12% mehr als eine 6800, liefert dafür aber 20% mehr CUs.

Merkwürdige Segmentierung, seit wann wird das Preisleistungsverhältnis nach oben hin besser?

6900 XT 54% teurer als 6800 XT und nur 11% mehr CUs. Nicht ganz 3090-Level an Absurdität, aber geht in die selbe Richtung, bei der 3090 kann man es sich noch mit dem VRAM schönreden, bei den AMD-Karten ist er jedoch identisch. Es ist das Halo-Produkt, daher irgendwie verständlich, aber trotzdem nicht schön.

Im Endeffekt ist die 6800 XT viel attraktiver als die beiden anderen Karten.
 
Also irgendwie checke ich das mit dem Raytracing nicht so ganz.
Kann das nun in Spielen die jetzt schon Raytracing nutzen auch mit den neuen Karten aktiviert werden oder nicht? Als Beispiel Metro Exodus oder das neuen Watch Dogs.
Oder hat AMD jetzt auch ihr eigenes Süppchen was die kochen. Blicke da nicht durch
 
Soll 6800 echt teurer sein als ne RTX3070?

Allgemein bin ich aber wirklich glücklich, dass AMD mal wieder richtig mitmischen kann.

Wieso sollte die denn billiger sein? Bei doppeltem Speicher und schneller?^^

Geiler scheiß dann muss ich über eine Intel-Cpu beim lääääängst überfälligem Upgrade garnicht nachdenken. AMD wäre ja dumm, wenn sie nicht im Zusammenspiel mit der eigenen CPU Extras bieten. Ich hoffe mal das funtzt, dann ist das ein No-brainer. Bis RTX in mehr als 1-2 games wirklich relevant ist gibts eh schon die nächste Generation!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh