Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Nach der folie sollte es schon reichen auch für 4K.
Obs dann immer so ist wird man wohl erst nach unabhängigen benches mit nem zen3 sehen.
auf die Folie habe ich mich ja bezogen und im Idealfall eben mit Ryzen 5000 scheint es meist zu reichen in 4K - mich interessiert aber eben dann auch wie es mit altem Ryzen oder Intel ausschaut ob die 6800XT und die 6900XT dann auch noch einigermassen im Schnitt die 60 Fps in 4K packen, wenn eben der kleine Zusatzboost durch die Cpu wegfällt und die Graka mit dem Vram es alleine richten muß sozusagen.

Finde es sehr schade das da gestern zur Architektur selber und wie das nun genau mit dem Cache funktioniert absolut gar nichts gekommen ist und wir somit zum weiterwarten verdammt sind

@Crusha
Tensor Cores haben die Amd Karten gar keine, wie genau das bei Amd mit Raytracing läuft ist leider immer noch alles offen - leider auch hier keinerlei genauere Infos dazu gestern...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
auf die Folie habe ich mich ja bezogen und im Idealfall eben mit Ryzen 5000 scheint es meist zu reichen in 4K - mich interessiert aber eben dann auch wie es mit altem Ryzen oder Intel ausschaut ob die 6800XT und die 6900XT dann auch noch einigermassen im Schnitt die 60 Fps in 4K packen, wenn eben der kleine Zusatzboost durch die Cpu wegfällt und die Graka mit dem Vram es alleine richten muß sozusagen.

Finde es sehr schade das da gestern zur Architektur selber und wie das nun genau mit dem Cache funktioniert absolut gar nichts gekommen ist und wir somit zum weiterwarten verdammt sind

@Crusha
Tensor Cores haben die Amd Karten gar keine, wie genau das bei Amd mit Raytracing läuft ist leider immer noch alles offen - leider auch hier keinerlei genauere Infos dazu gestern...
Ja das da so gut wie nichts dazu gekommen ist fand ich auch sch.....
Mich interessiert genauso ob die karte 60 frames in 4K packt und das durchgängig.
Aber da muss man wohl noch auf gute benches warten die dann zeigen wie die karte mit und ohne rage mode und smart acces in 4K dasteht.
Die 16GB ram sollten ja noch ne weile reichen für 4K.
 
wie genau das bei Amd mit Raytracing läuft ist leider immer noch alles offen - leider auch hier keinerlei genauere Infos dazu gestern...

Naja, schon... Bild dazu (von Don):

bildschirmfoto-2020-10-29-um-08-07-27-png.543747

Haben sie aber offenbar:
 
dachte schon die RX6000er lassen RT über die CPU berechnen :d
 
Naja, schon... Bild dazu (von Don):
danke das kenne ich aber das sagt uns eben auch nicht mehr als das es in Hardware berechnet wird und das es pro CU eine Einheit für Raytracing gibt aber wie genau die nun funktoniert und was sie leistet wissen wir eben alles noch nicht ...


@Motkachler
die 16 GB reichen sicher locker auch die nächsten 1-2 Jahre für 4K das Problem ist leider das schmale SI und ich traue dem Wundercache einfach nicht wirklich zu, das der das im Schnitt, wenn sich ein Game mal etwas mehr vom Vram gönnt, ausbügelt was an reiner Bandbreite mit dem schmalem SI fehlt - aber ich hoffe das ich mich täusche...

bis auf die Preise die wir kennen und die ungefähre Leistungseinordnung war das nicht wirklich sehr Informativ gestern - aber war ja zu befürchten kam ja bei Ryzen auch nicht mehr bei der ersten Präsentation
 
Was das Thema RT Performance angeht.
Wir wissen bisher nur, dass eine Karte auf Turing Niveau ist, etwas darüber aber unter Ampere. (Laut Leaks und EINEM Benchmark)
Bleibt die Frage, wie viel FPS verliert man bei AMD wenn Raytracing zum Einsatz kommt.
 
Kann mir jemand erklären wieso AMD nicht auf breiteres Speicherinterface bei den neuen Karten gesetzt hat? Technisch bedingt? Keine Erfahrung? zu teuer?
Würde mich einfach mal interessieren, denn NVidia hat den Karten mit GDDR6 Speicher auch ein breiteres SI spendiert
 
@immortuos
die Karten konnte man schon kaufen und EK konnte nicht sagen auf welche Karten ihr Kühler passt. sonst hätte ich meine 3080 schon ;)
Eben das was ich in meinem Post erwähnt hatte.
Was hat das mit meiner Aussage zu tun?
Beitrag automatisch zusammengeführt:

Kann mir jemand erklären wieso AMD nicht auf breiteres Speicherinterface bei den neuen Karten gesetzt hat? Technisch bedingt? Keine Erfahrung? zu teuer?
An der Erfahrung liegt es nicht, früher hatte AMD immer das breitere SI, man erinnere sich an die 290(X) mit 512 Bit.
Denke es liegt am Stromverbrauch?
 
Kann mir jemand erklären wieso AMD nicht auf breiteres Speicherinterface bei den neuen Karten gesetzt hat? Technisch bedingt? Keine Erfahrung? zu teuer?
Würde mich einfach mal interessieren, denn NVidia hat den Karten mit GDDR6 Speicher auch ein breiteres SI spendiert
das würde wohl viele Interessieren, ob wir darauf auch jemals ne wirklich Anwort erhalten werden - eher nicht - ich vermute eine Mischung aus Preis (so hat man für alle 3 Varianten dasselbe schmale SI), Verbrauch, und Platz ...

ich bin bei solchen Cache Behelfslösungen immer eher skeptisch, aber mal schaun vielleicht überrascht uns Amd ja wirklich mit dieser Variante selbst bei hohen Auflösungen und hohem Vram Verbrauch...
 
Vorgestern ist meine R9 290 abgeraucht (geplante Obsoleszenz? :d), dann muss ich jetzt wohl doch eine RX 6800 XT kaufen :) Wollte das eigentlich noch bis Anfang 22 schieben. Glaubt ihr es kommen direkt Partnerkarten für 650€?
 
@Xeroxxx
Wenn die Verfügbarkeit beim grünen Lager ein Indikator ist... wirst du bis Anfang 22 auf eine RX 6800 XT warten :kotz:
 
Hm, d.h.

- Nvidia hatn fettes Speicherinterface aber wenig RAM
- AMD hatn dünnes Speicherinterface aber viel RAM

Klingt für mich als hätten beide Bottlenecks, und das invalidiert das ganze "16 GB bei AMD ist besser als 10 GB bei Nvidia" ein bisschen... ^^
 
Vorgestern ist meine R9 290 abgeraucht (geplante Obsoleszenz? :d), dann muss ich jetzt wohl doch eine RX 6800 XT kaufen :) Wollte das eigentlich noch bis Anfang 22 schieben. Glaubt ihr es kommen direkt Partnerkarten für 650€?
Lass es mich so sagen:
HAHAHAHAHAHA, der war gut! HAHAHAHAHA.

Ehm, nein.
 
@clancy688

Da stellt sich mir die Frage: wie hoch ist denn überhaupt der Datendurchsatz zwischen Speicher und GPU?
Wäre ja interessant, das zu wissen. Dann könnte man besser beurteilen, ob GDDR6 diesbezüglich schon am Limit läuft.
 
Hm, d.h.

- Nvidia hatn fettes Speicherinterface aber wenig RAM
- AMD hatn dünnes Speicherinterface aber viel RAM

Klingt für mich als hätten beide Bottlenecks, und das invalidiert das ganze "16 GB bei AMD ist besser als 10 GB bei Nvidia" ein bisschen... ^^
naja bei nVidia wissen wir was passiert, wenn der ram voll läuft--> Texturen Qualität lässt nach. Wir wissen noch nicht was IC herausholt, wenn Bandbreite gefragt ist. Sollte IC das komplett kompensieren können, hat AMD hier gutes Ingeneering hingelegt und viel ram bezahlbar gemacht!
 
leider ja vor allem solange wir nicht wirklich wissen wie gut dieser Infinity Cache das schmale SI bei den Amds kompensieren kann - in 1080 und 1440p wirds kein Problem sein, aber da reichen eigentlich auch die 10 GB die Nvidia verbaut...

soferne man aus den paar Folien die Amd gestern gezeigt hat ne Tendenz ablesen kann, dann schaut es wohl so aus als ob das schmale SI in 4K doch das eine oder andere % kosten könnte, aber das ist alles einfach noch viel zu vage, da brauchen wir richtige Tests dazu, die sich dem Thema explizit widmen...

@Xeroxxx
die Customs sollten so ab Ende November anscheinend eintrudeln von der 6800XT, aber welche Stückzahlen und welche Preise wird sich alles erst zeigen ich vermute mal für die Customs min 700 Euro - die guten wohl eher 750-800 - Early Adopter Preise halt, wenn die Verfügbarkeit passt, pendelt sich das nach 1-2 Monaten sicher noch etwas nach unten ein aber falls die Stückzahlen nicht viel besser wie bei Nvidia ausfallen, könnte auch das Gegenteil der Fall sein...
 
der IC ist nur die vorwehe vom MCM, jede wette das da die module parallel drauf zugreifen und der wird uch nicht nur 128mb groß sein dann ^^

hies es nicht 512 GByte/s + 1,15 TByte/s das wars...




und ich würde auch behaupten das der IC der zugriffspunkt für die CPU ist
 
Zuletzt bearbeitet:
Vorgestern ist meine R9 290 abgeraucht (geplante Obsoleszenz? :d), dann muss ich jetzt wohl doch eine RX 6800 XT kaufen :) Wollte das eigentlich noch bis Anfang 22 schieben. Glaubt ihr es kommen direkt Partnerkarten für 650€?
Hast du eine Wasserkühlung oder war das eine luftgekühlte? Ich frage deshalb, weil ich noch eine 290x mit Wasserkühler rumliegen habe. Die hätte ich dir geschenkt als Übergang. Aber da der Luftkühler vermutlich nix mehr taugt, würde es dir nur mit Wasserkühlungskreislauf helfen (zur Überbrückung).
Beitrag automatisch zusammengeführt:

btw der Launch der 3070 wird wohl gerade wieder von Bots überschattet. Wenn die Shops das nicht in den Griff kriegen braucht sich auch keiner eine Hoffnung auf eine Radeon machen.
 
also langsam wird es ech mühsam als Gamer ne Grakfikkarte zu bekommen in der letzten Zeit, entweder die Miner kaufen alles weg oder nun diese vermaledeiten Bots, was ich eigentlich nicht verstehe wenn man nun neben weiteren Massnahmen zb pro Name und Adresse nur noch eine Karte für den Kauf zulässt :unsure:
 
Was hat das mit meiner Aussage zu tun?
du findest es nicht gut dass AMD mit Wasserkühlerherstellern zusammenarbeite. Ich schon. Als Beispiel dafür hatte ich das Wirrwarr mit den Kühlern für die RTX3000er Reihe angegeben. Da wusste der Hersteller nämlich viel zu lange NULL.
Aber am Ende bleibt das auch nur Ansichtssache und eine Diskussion bringt uns weder Kühler noch Karte schneller.
🍻
 
Wie läuft das eigentlich mit G-Sync Monitoren und AMD inzwischen? Kann man das irgendwie nutzen oder eine Alternative? Funktioniert das ggf. sogar gut?
 
Das ist kompliziert.
AMD spricht alle offenen Standards, inkl. Freesync.
Hier kommt es ganz auf deinen Monitorhersteller an, ob der vorgesorgt hat, oder nicht.
 
Kann mir jemand erklären wieso AMD nicht auf breiteres Speicherinterface bei den neuen Karten gesetzt hat? Technisch bedingt? Keine Erfahrung? zu teuer?
Würde mich einfach mal interessieren, denn NVidia hat den Karten mit GDDR6 Speicher auch ein breiteres SI spendiert
Es ist eine mischung verschiedener faktoren. Breiteres SI ist teurer, saugt mehr strom und ist komolexer im pcb. Wenn man ein altbewährtes system mit altbewährtem speicher verwenden kann, dann macht man das auch. Die 128mb cache scheinen dahingehebd massiv zu helfen.
 
@even.de

kommt glaube ich drauf an wie neu der Monitor ist ? irgendwann ab 2019 sollten wohl die meisten Gsync Monitore auch mit Amd Grakas funktionieren, aber das kommt wohl auf den jeweiligen Monitor an, wenn der Monitor neben Gsync auch als kompatibel zu adaptive Sync angegeben wird sollte es klappen.

Bei Gsync Monitoren vor 2019 klappt es ziemlich sicher nicht

weiter Infos dazu: https://www.pcgameshardware.de/Nvid...it-AMD-Grafikkarten-verwendet-werden-1337776/
 
3950X raus den 5900X in das X570 rein dann die 6900XT gekauft und fertig meine PS5 Pro /XBOX
Wen die versprochenen Feature dann auch Zeitnah kommen und greifen ist AMD ein Mega Clou gelungen!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh