Radeon RX 6000: AMD zeigt erste 4K-Benchmarks

Ja, und Alle wo du's nicht merkst sind es sicher nicht, ne? Ich pushe hier nicht die Glaubhaftigkeit dubioser quellen - aber ich bestreite die Glaubhaftigkeit aller vermeintlich "anerkennbaren" Quellen. Die Masse liegt übrigens nachweislich so gut wie nie richtig..
99,99% aller Menschen sind hemmungslose Opportunisten und würden falls nötig ihre Mutter verkaufen. erkennt man schon offensichtlich an der allgemeinen Begeisterung für ein Wirtschaftssystem, innerhalb dessen die oberen 10% von der brutalen Folter und Ausbeutung der übrigen 90% leben.
Dämlich? Ich bin hier nicht der Leichtgläubige mit dem mangelhaften Blick für's Wesentliche. Für mich ist Alles hier hypotethisch und ich komme damit klar, ohne mich irgendwelchen lächerlichen Illusionen hinzugeben.. Realitätsverweigerung - das ist dämlich!

WTF?... WTF auch die vorherigen Posts.....
Die Vergleiche mit Big Navi und der 2080 ist mal übel...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Hyrasch AMD hat sich durch die CCP, welche alles klauen, zurück auf die Bühne geschossen. Deren Ziel, Intel zu zerstören, die leider auch die Produktion ins Ausland verlagern. Adios Westen! Hoffe ihr begreift was das heisst.
Lisa Su ist ein U-Boot.
 
von mir aus kann AMD auch LMAA gehören Hauptsache die Produkte sind gut Rest ist mir wurscht
 
@Hyrasch AMD hat sich durch die CCP, welche alles klauen, zurück auf die Bühne geschossen. Deren Ziel, Intel zu zerstören, die leider auch die Produktion ins Ausland verlagern. Adios Westen! Hoffe ihr begreift was das heisst.
Lisa Su ist ein U-Boot.

Vorsicht, ich glaub, dein intrakranieller Druck steigt.
 
Bei 28Mrd Transistoren sollte man doch bissel aufmerksam werden. Die 28Mrd werden auch genau dafür genutzt wie angegeben?
 
Alter wenn man danach geht darfste nchts technisches kaufen weil alles voller lücken ist.
 
Wo siehst du denn dass ich die Glaubhaftigkeit dubioser Quellen pushe?
Ich habe 5 verschieden Quellen angegeben und sogar bei UserBenchmark darauf hingewiesen dass ich sie nicht 100% repräsentativ halte da dort alles gemischt ohne Angabe ausgewertet und gemittelt wird.
Im Vergleich zu dir beziehe ich mich aber eben auf verschiedene Quellen die entweder eine höhere Reputation als dein Video haben und wesentlich mehr Angaben zum Test machen und mehrere Titel testen oder wenigstens eine größere Stichprobe (mit gewissen Fehlern) betrachten.
...
Reputation? Im Kapitalismus.. :lol:
 
Angeblich soll das More Power Tool zu RDNA2 sofort zum Start funktionieren
 
Zuletzt bearbeitet:
Ich hatte wirklich gedacht mit der Selbstzerstörung des Wendlers heute schon das bekloppteste mitbekommen zu haben... Sind wir uns wirklich ganz sicher, dass Covid nicht das Hirn befällt?

Die Selbsthilfegruppe der anonymen Lederjackensüchtigen im Thread nebenan ist ja schon grenzwertig, aber so langsam hab ich das Gefühl, für den ein oder andere wäre es gesünder, mal bis mindestens Anfang November die Tastatur beiseite zu legen. Dann hält bei manchen auch die F5-Taste vielleicht was länger.

Ich persönlich find es ganz interessant, dass die Karte wohl ziemlich identisch zu einer 3080 ohne Brechstangen-Powerlimit performt. Da kann man sich jetzt seinen Teil denken.
Aber dann kennen wir immer noch keine Preise, keinen Verbrauch und wissen nichts über die weitere Technik (RTX, "DLSS"). Ich würde ja jetzt eigentlich sagen, dass es ja "nur" noch bis zum 28. dauert, wir dann viel schlauer sind und es bis dahin eh nur mit größerer Mühe die Alternative von Nvidia zu kaufen geben wird.

Aber so langsam bin ich mir nicht mehr so sicher, ob hier wirklich alle bis dahin emotional und geistig "durchhalten"...
 
Hoffen wir mal das AMD ein top rundes Produkt liefern kann.
ein NV Killer muss es ja nicht sein aber ein Produkt welches absolut rund ist und eine Alternative zu NV ist wäre schon klasse.
so eine 6900XT mit wakü würde ich kaufen wenn sie überzeugt

da hier ja gelöscht worden ist habe ich auch ein paar meiner Beiträge gelöscht
 
knappe 3080 Leistung aber dafür 16GB Speicher

Das kann man so nicht sagen aber bisher so 5-10% weniger als die 3080. Nur von welcher Karte waren die Benchmarks? 6800XT oder 6900XT?

Ich frage mich natürlich wie jeder andere ob dies schon alles war oder ob uns wirklich doch eine Überraschung erwartet.

Irgendwie gibt es auch das Gerücht das womöglich AMD "Xilinx" übernehmen könnte, nur haben die überhaupt soviel Kapital?
 
Zuletzt bearbeitet:
es weiß aber niemand wie AMD getestet hat, ob ingame Benchmark oder 5 Minuten normales spielen.
falls letzteres erzielt man deutlich höhere werte.

In GOW und BL3 ist die Leistung zwischen einer 3070, wenn man die werte auf CB vergleicht.
Also rund 15-20% unter einer 3080.
Üblicherweise ist die x070er reihe nur 10-15% langsamer als die x080er, es wäre also annehmbar das die Leistung zwischen einer 3060 und einer 3070 liegt.
Da amd geizig ist mit denn Infos wird dies auch zutreffen oder man arbeitet noch an Extras um damit zu Punkten.
Bei ihren CPUs hauen die doch auch immer alles raus aber bei denn GPUs gibt es immer nur häppchenweise Infos.

Trotzdem bin ich überrascht das man die Leistung einer RTX2080 erreicht hat, ich habe mit deutlich weniger gerechnet.
Das Problem an der Sache ist eher das AMD extrem viel investiert hat aber die GPUs trotzdem günstig verkaufen muss.

ich möchte dich freundlich darauf hinweisen das eine 3090 ca 66 fps schafft in borderlands 3, eine 3080 ca 60 fps und die rx 6900 xt 61 fps.
finde deinen fehler selbst.
 
Ui...die Performance macht auf jeden Fall Lust auf Mehr :). Ich bin mir sicher, dass AMD nicht dreist lügt und die Ergebnisse in den drei Spielen sicherlich reproduzierbar sein werden, aber natürlich werden sie genau wie Nvidia Cherry-Picking betrieben haben. Alle drei Titel sind jetzt nicht die typischen Spiele, die man für gewöhnlich in GPU-Tests an erster Stelle findet, also werden sie wohl das aktuelle Optimum für die Navi 2 Architektur darstellen.

Ich bin mir auch ziemlich sicher, dass die Ergebnisse vom stärksten Modell stammen werden, alles andere wäre Marketing technisch völlig unsinnig. Immerhin hat der Konkurrent sein top Modell am Markt und "jeder" probiert gerade eine 3080/90 zu bekommen. Warum sollte AMD da mit der Leistung hinterm Berg halten?

Ich bin gespannt wie Navi 2 insgesamt, über alle Titel hinweg, die 2080ti+ Leistung für 4k benötigen, abschneiden wird. Befürchte aus Erfahrung, dass AMD da im Schnitt zwar nahezu mit der 3080 mithalten können wird, aber dann doch wieder schmerzhafte Ausreißer nach unten zu verzeichnen sein werden :(. Wäre wirklich schön wenn ich mich irren würde...

Ich warte auf jeden Fall bis es ausreichend Erfahrungswerte hier im Forum und in verschiedenen Tests zu lesen gibt. Performance-Rating maximal -10% zur 3080, wenige Ausreißer nach unten in relevanten Spielen (also wo die Bildrate deutlich unter 60Fps rutschen könnte), weniger als 300w TDP und keine katastrophalen Probleme wie bei den ersten 5700ern - dann kaufe ich auf jeden Fall das AMD top Modell, ansonsten stimmt für mich der Mehrwert zu meiner 2080 Super nicht wirklich und ich warte eher auf eine 3080 20GB Version.
 
Alle drei Titel sind jetzt nicht die typischen Spiele, die man für gewöhnlich in GPU-Tests an erster Stelle findet, also werden sie wohl das aktuelle Optimum für die Navi 2 Architektur darstellen.

Ja aber es sind auch wieder die Spiele welche auch genau bei Nvidia bei solchen GPU-Benchmarks ausgewählt werden.
 
Man darf nüchtern nicht vergessen die PS5 mit ~500€ soll 4K@60fps bringen können, dann darf das nicht alles gewesen sein.
Beitrag automatisch zusammengeführt:

Dann hätte ich keinen Grund 700€ für ne Graka zu zahlen wenn das ganze System für 500€ die gleiche Leistung hat.


In den selben Qualitätseinstellungen?
 
Wenn ich nicht falsch liege stammen die Zahlen der GPU Benchmark von einer Kombi eines 5900x und einer 6000XT. Offen ist für mich ob und in wenn ja in welchem Ausmaß der 5900x hier einen Einfluss hatte. 2-3 Fps mehr oder weniger ergeben ja schon einige Prozent Leistungsunterschied bei 60 FPS. Computerbase hat zB BL3 mit der 3080 mit dem 3900x getestet und dabei 67 FPS erzielt. Schafft die 3080 mit dem 5900x hier zB 70 FPS ist der Unterschied in Prozenten gesehen schon wieder 15 statt 10%. Bin jedenfalls gespannt auf die Vergleichszahlen bei identen Systemen!
 
Interessant wäre ein DLSS On,Off gewesen,bzw. eben ein Spiel mit Raytracing.BF5 oder SotTR.Zahlen in den Raum geworfen nutzen genau nichts,eigentlich sogar weniger als nichts.
 
Wenn ich nicht falsch liege stammen die Zahlen der GPU Benchmark von einer Kombi eines 5900x und einer 6000XT. Offen ist für mich ob und in wenn ja in welchem Ausmaß der 5900x hier einen Einfluss hatte. 2-3 Fps mehr oder weniger ergeben ja schon einige Prozent Leistungsunterschied bei 60 FPS. Computerbase hat zB BL3 mit der 3080 mit dem 3900x getestet und dabei 67 FPS erzielt. Schafft die 3080 mit dem 5900x hier zB 70 FPS ist der Unterschied in Prozenten gesehen schon wieder 15 statt 10%. Bin jedenfalls gespannt auf die Vergleichszahlen bei identen Systemen!
Die CPU kannst du in 4K getrost vergessen hier die benchmarks:

Borderlands, hier erreicht ein 8700K bereits die 60FPS min.
borderlands.jpg



Modern Warfare, hier erreicht ein Ryzen 1600X bereits die 89FPS min.
mw.jpg


in G5 erreicht ein Ryzen 1600X auch breits die 77min FPS
g5.jpg


der 5900X hat garkeinen Einfluss
 
Die CPU kannst du in 4K getrost vergessen hier die benchmarks:

der 5900X hat garkeinen Einfluss

Die Benchmarks sind nicht in 4k. Ich habe auf die schnelle nur ein 4K Benchmark des i10900 für FC5 gefunden in dem dieser gegenüber dem 3900 ein paar FPS mehr erzielte. Ich schaue mal ob ich ein CPU Benchmark in 4k für BL3 finde
 
Die Benchmarks sind nicht in 4k. Ich habe auf die schnelle nur ein 4K Benchmark des i10900 für FC5 gefunden in dem dieser gegenüber dem 3900 ein paar FPS mehr erzielte. Ich schaue mal ob ich ein CPU Benchmark in 4k für BL3 finde
Die Benchmarks bei Der AMD Präsentation waren in 4K @ Ultra und meine Benchmarks sind in 1080P wo ein CPU Limit zum Tragen kommen würde... Deshalb, der 5900X spielt keine geige.
 
Die Benchmarks bei Der AMD Präsentation waren in 4K @ Ultra und meine Benchmarks sind in 1080P wo ein CPU Limit zum Tragen kommen würde... Deshalb, der 5900X spielt keine geige.
Mir ist klar dass in 4k die CPU fast keine Rolle spielt. Ich rede ja auch von lediglich 2 FPS Unterschied was BL3 unter die “magischen“ 60 FPS drücken würde. Richtig ist aber, dass man das nicht auf höhere FPS umlegen kann. 2 FPS Unterschied bei zB 90 FPS sind weit weniger Prozentpunkte als bei 60 FPS.
 
wie sollen denn 2FPS unterschied kommen, wenn bereits z.b in Borderland ein Ryzen 5 3600 65min FPS schafft? Wenn AMD da mit einem 5900X und einer Radeon 6000 die angegebenen 60,1FPS schafft, bedeutet das im Umkehrschluss doch, dass der 5900X, welcher wohl deutlich schneller als ein 3600 ist, keine rolle spielt da hier die GPU nicht mehr als die 60,1FPS schafft.
 
wie sollen denn 2FPS unterschied kommen, wenn bereits z.b in Borderland ein Ryzen 5 3600 65min FPS schafft? Wenn AMD da mit einem 5900X und einer Radeon 6000 die angegebenen 60,1FPS schafft, bedeutet das im Umkehrschluss doch, dass der 5900X, welcher wohl deutlich schneller als ein 3600 ist, keine rolle spielt da hier die GPU nicht mehr als die 60,1FPS schafft.
1602229174587.png

Das ist ein Test der 3080 mit verschiedenen CPU. Wie du siehst schafft der 9900k 2,5 FPS mehr als der 3900x. Angenommen der 5900x kommt in BL3 auf höhere Werte als der 9900k so ergäbe sich sehr wohl ein FPS Unterschied zum 3900x was uU auf die geänderte Architektur zurückzuführen wäre, da gerade bei BL3 auffällt, dass Intel generell besser abschneidet als AMD.
 
Zuletzt bearbeitet:
Und was sagt das jetzt? Das sagt doch nur das CPU XY schneller ist als CPU AB... Nichts anderes als mein 1080p test, welche graka wurde verwendet?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh