Radeon RX 6000: AMD zeigt erste 4K-Benchmarks

Und was sagt das jetzt? Das sagt doch nur das CPU XY schneller ist als CPU AB... Nichts anderes als mein 1080p test, welche graka wurde verwendet?
Es sagt, dass selbst in 4k die CPU noch einen wenngleich marginalen Einfluss hat. Ich habe ja nichts anderes behauptet. Mein Eingangspost zielte ja in Wahrheit darauf ab zu hinterfragen ob man aus den präsentierten Zahlen bereits exakte Leistungsunterschiede herausrechnen kann. Ich selbst nehme aus der Präsentation mit, dass Big Navi jedenfalls sehr nahe an den 3080 rankommt und eine sehr gute Alternative zum 3080 sein kann va wenn AMD die Verfügbarkeit besser hinbekommt als Nvidia.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja wir werden sehen, Nvidia macht ja auch viel Werbung und Benchmarks mit Spielen die Powerd by Nvidia sind. Wo die Entwicklung (Grafikkartentreiber und Game Studio) nahe dran ist.

Ich möchte dich darauf hinweisen, dass Borderlands 3 ein extremer Cherrypick für AMD ist.


Sind die Benchmarks mit oder ohne DLSS 2.0?
 
Zum Glück gibts für dieses "Cherry Pick" Argument dann die Benches, wenn die Karten draußen sind. Das wird dann wohl der Moment sein, wo ganze Benchmark-Parkours als "Cherry Pick" bezeichnet werden und wo dann nur noch DX11 gilt, oder der Reviewer wurde von AMD gekauft. Und wehe da ist kein GTA 5 drin!
 
das ist kein argumnet das ist fakt was auch ligsch ist in anbetracht einer präsentation. cod war auch schon immer ein amd game siehe benches. in bf v haben sie mit den treiber aufgeholt also nvidia da ist eine 2070 super jetzt um das schneller wie im average.

custom 3070 oc= big navi realistisch. langsam halt
 
Klar und wenn Nvidia möglicherwiese ne Fehlkonstruktion liefert, ist nur der Treiber Schuld. Schließlich ist doch nicht so schlimm wenn man ein paar Wochen nach dem Kauf weniger FPS hat.
 
Naja wir werden sehen, Nvidia macht ja auch viel Werbung und Benchmarks mit Spielen die Powerd by Nvidia sind. Wo die Entwicklung (Grafikkartentreiber und Game Studio) nahe dran ist.

Sind die Benchmarks mit oder ohne DLSS 2.0?

Seit wann hat Borderlands 3 DLSS?



Kannst du eigentlich auch was anderes als unnötige Shitposts?


Zum Glück gibts für dieses "Cherry Pick" Argument dann die Benches, wenn die Karten draußen sind. Das wird dann wohl der Moment sein, wo ganze Benchmark-Parkours als "Cherry Pick" bezeichnet werden und wo dann nur noch DX11 gilt, oder der Reviewer wurde von AMD gekauft. Und wehe da ist kein GTA 5 drin!

Das Hersteller sich in deren Präsentationen immer Szenarien aussuchen, wo diese gut dastehen, ist wohl nichts neues...
 
Wir werden es bald erfahren, Benchmarks werden zeigen wo und wie die Karten zueinander im Vergleich stehen.

Bis dahin läuft wahrscheinlich jede Diskussion darauf hinaus, das es ein für und wieder für beide Lager gibt.
Da stecken mittlerweile Milliarden an Investitionen und enorm viele Kluge Köpfe auf beiden Seiten in der Entwicklung.
Die Resultate der Vergleiche werden also sehr interessant werden!
 
Seit wann hat Borderlands 3 DLSS?

Genau das ist unter anderem bei Nvidia das Problem, alles was nicht für ihre Hardware maßgeschneidert wurde, scheint Einbußen/Probleme zu haben.

Dann wird einfach behauptet das ist dann für AMD ein "Cherrypick" usw.
Beitrag automatisch zusammengeführt:

Das ist wie früher mit Nvidia Physics Titeln.
 
Zuletzt bearbeitet:
Klar und wenn Nvidia möglicherwiese ne Fehlkonstruktion liefert, ist nur der Treiber Schuld. Schließlich ist doch nicht so schlimm wenn man ein paar Wochen nach dem Kauf weniger FPS hat.

Was ist das fuer eine "Fehlkonstruktion" und welche Treiberversion liefert (nennenswert) weniger Frames? Denn in den mir bekannten Tests zum Thema konnten keine signifikanten Unterschiede festgestellt werden - nur, dass die Karten jetzt weniger hoch boosten. Der von Nvidia angegebene Boost-Takt liegt btw bei 1.71 GHz, also weit von den 2 GHz and more entfernt, bei denen es ueberhaupt erst zum Problem kam.

Aber Ja, wenn Igor Schwallersack ins antigruene Horn stoesst und Schauergeschichten von fehldesignten Karten auftischt, verfaengt das bei einer ganz bestimmten Zielgruppe eben und laesst die sich auch vom Faktencheck nicht postmortal die Laune verhageln. Es ist gruen, es muss boese sein.

Fun Fact - in den Adrenalin-Treibern gibt es eine Vulnerability. Als "Fix" empfiehlt AMD, bei einem BSOD einfach den PC neuzustarten. Oh welch Geniestreich! Falls es dazu in der Kirche zum heiligen Sankt Radeon einen adaequaten Aufschrei gegeben hat, muss ich den irgendwie verpasst haben.
 
Was ist das fuer eine "Fehlkonstruktion" und welche Treiberversion liefert (nennenswert) weniger Frames? Denn in den mir bekannten Tests zum Thema konnten keine signifikanten Unterschiede festgestellt werden - nur, dass die Karten jetzt weniger hoch boosten. Der von Nvidia angegebene Boost-Takt liegt btw bei 1.71 GHz, also weit von den 2 GHz and more entfernt, bei denen es ueberhaupt erst zum Problem kam.

Aber Ja, wenn Igor Schwallersack ins antigruene Horn stoesst und Schauergeschichten von fehldesignten Karten auftischt, verfaengt das bei einer ganz bestimmten Zielgruppe eben und laesst die sich auch vom Faktencheck nicht postmortal die Laune verhageln. Es ist gruen, es muss boese sein.

Fun Fact - in den Adrenalin-Treibern gibt es eine Vulnerability. Als "Fix" empfiehlt AMD, bei einem BSOD einfach den PC neuzustarten. Oh welch Geniestreich! Falls es dazu in der Kirche zum heiligen Sankt Radeon einen adaequaten Aufschrei gegeben hat, muss ich den irgendwie verpasst haben.

Fun Fact - mir hat der Support von Nvidia empfohlen meine Antivirus Software zu deinstallieren um den Treiber zu installieren, weil bei mir Treiber Updates nicht funktioniert haben... Aber hey, Grafikkarten Hersteller getauscht und schon keine Probleme mehr.

Für mich ist eine Fehlkonstruktion wenn ich was Baue und Plane es XY zu betreiben, wenn das nicht so funktioniert wie geplant ist es eine Fehlkonstruktion. Es muss nicht immer einen Fatalen Fehler oder Makel haben.
Eine Fehlkonstruktion erfüllt die nicht ursprünglich angedachten Spezifikationen, darunter eben Leistung, Verbrauch etc. Siehe Dieselgate.
 
Zuletzt bearbeitet:
Genau das ist unter anderem Bei Nvidia das Problem, alles was nicht für ihre Hardware maßgeschneidert wurde, scheint Einbußen/Probleme zu haben.

Wie kommst du denn auf diese Schlussfolgerung?
Es gibt und gab schon immer Titel, die mal bei Nvidia und mal bei AMD besser liefen. Bekanntlich gibt es bei AMD Einbußen bei der Nutzung von DX11, da dort das CPU-Limit eher einsetzt.


Dann wird einfach behauptet das ist dann für AMD ein "Cherrypick" usw.

Es wird als Cherrypick betitelt, da dieses Szenario eine Performance vermittelt, welche von dem realen Performancebild abweicht und deutlich über dem Mittel liegt, welches sich aus dem Vergleich mehrerer Titel ergibt. Über mehrere Titel gesehen ist eine 5700xt so gute 7% langsamer als eine 2070S. Nur bei Borderlands 3 ist diese auf einmal 13% schneller.


Fünf Fact mir hat der Support von Nvidia empfohlen meine Antivirus Software zu deinstallieren um den Treiber zu installieren, weil bei mir Treiber updates nicht funktioniert haben... Aber hey, Hersteller getauscht und schon keine Probleme mehr.

Der Lösungsvorschlag nicht einmal ganz abwegig. Stichwort: false positive Test...
Aber ist doch cool, wenn dir der Wechsel der Hersteller geholfen hat. Nur siehe das nicht allgemeingültige Lösung an, denn nicht jeder ist zu inkompetent Treiber richtig zu installieren bzw. zu updaten. :shot:
 
Der Lösungsvorschlag nicht einmal ganz abwegig. Stichwort: false positive Test...
Aber ist doch cool, wenn dir der Wechsel der Hersteller geholfen hat. Nur siehe das nicht allgemeingültige Lösung an, denn nicht jeder ist zu inkompetent Treiber richtig zu installieren bzw. zu updaten. :shot:

Ich muss dazu sagen es handelte sich um ein Notebook. Das hat nichts damit zu tun, der Support hat mir erklärt das sich Nvidiatreiber unheimlich tief ins System rooten und sie häufiger als Schadsoftware erkannt werden. Es ist keine Dauerlösung für mich im abgesicherten Modus mit deaktiviertem Antivirensystem Treiber zu installieren.
Beitrag automatisch zusammengeführt:


Wie viele Jahre muss man sich als Käufer selbst zu Ryzen Anfangszeiten anhören wie blöd man ist ein AMD Produkt zu kaufen etc. etc.
Wenn AMD die ersten Samples and die bekannten Geeks liefert und die getestet werden und alles bestanden haben. Was will ein verblendeter Intelfanboy noch für Argumente liefern? Außer das er seinen Ram mit 4,2 GHZ betreiben kann und das am Ende einfach nichts mehr bringt? Wettbewerb belebt das Geschäft, ich hab nichts gegen ein Nvidia Produkt, die sind ja nicht verkehrt ich mag nur nicht die Firmenpolitik im Zusammenhang mit dem geforderten Preis. Der Service (release) gemessen am Preis und der Umgang mit den Kunden ist halt nicht besonders gut. Ich finde es gut das ihnen ein andere Hersteller mal Paroli bietet einfach nur um endlich ein faires Gesamtpaket zu bekommen.
 
Zuletzt bearbeitet:
Ich habe nicht alles gelesen. Ich will nur meinen Senf dazugeben.

Selbst wenn Navi 21 paar Prozent langamer sein sollte, wenn

1. Leistungsaufnahme geringer ist als bei 3080,
2. 16GB VRAM am Start sind und
3. der Preis niedriger als bei 3080 ausfällt,

dann wird gekauft!!!!!
 
Ich habe nicht alles gelesen. Ich will nur meinen Senf dazugeben.

Selbst wenn Navi 21 paar Prozent langamer sein sollte, wenn

1. Leistungsaufnahme geringer ist als bei 3080,
2. 16GB VRAM am Start sind und
3. der Preis niedriger als bei 3080 ausfällt,

dann wird gekauft!!!!!

+1

4. Sie flächendeckend verfügbar ist
 
Wie wäre es denn wenn du auch mal deine Behauptungen mit Ergebnissen untermauern würdest.
Diesen Müll kann man ja so nicht stehenDeine gesamte Aussage basiert nur auf Vermutungen aus der Vergangenheit übertragen auf Karten die nicht Mal released sind und damit "errechnest" du dann dass die Leistung zwischen einer 3060 und 3070 liegen muss. Zur Krönung legst du das Teasern jetzt noch als schwäche aus :-D
AMDs 5700er hat 40 Shader Cluster. Die neue Gen wird mit maximal 80CU im Ausbau erwartet. Die 2080 ist laut der nicht unbedingt seriösen Seite UserBenchmark mit +26% zur 5700xt geranked.
Du behauptest also dass eine Big Navi mit sagen wir mal 72CU (um die Ausbeute noch hoch zu halten) also 80% mehr CU´s zur 5700xt gerade mal 26% mehr Leistung bringt?!
Manche Menschen hier laufen echt jeden Tag immer wieder gegen die grüne Wand. Anders kann ich mir diese Kommentare nicht mehr erklären...
Die grüne Brille erklärt alles :coolblue:
 
Wie konnte ich das nur vergessen, nachdem ich mit der 3080 FE so derbe auf die Nase gefallen bin. :wall:

Sollte AMD seine Produktion genau so grandios verkacken wie NVIDIA, lasse ich auch die 6900XT links liegen und warte auf irgendwelche Refreshes/TIs nächstes Jahr.
 
5. Ein guter DLSS Gegenpart vorhanden ist (nicht diese Fidelity FX Grütze!)
6. Hardware DXR ähnlich gut wie bei den Grünen läuft

DLSS ist egal, aber in den anderen Punkten stimme ich da zu. So eine Karte für 800 wäre schon sehr verlockend als langfristigere Lösung.
 
DLSS 2.0 sieht aber mega gut aus. Schau es dir bei Wolfenstein Youngblood an und du wirst deine Meinung mit Nativ ist das einzige Wahre mit sicherheit ändern da DLSS da besser aussieht.
DLSS ist eine Super Sache und Fidelity FX sieht auch top aus je nach Umsetzung
 
Hier wird gesagt, dass AMD der Presse klar gemacht habe, dass man absichtlich offen liese um welche Karte es sich von BN genau gehandelt hat:

Der Grund könnte vielleicht einfach sein, dass man bis zum 28.10 noch Optimierungen plant?
 
Hör auf mir hoffung zu machen das BIG N doch das Brett wird. :fresse2:

EDIT: Es wäre wirklich genial wenn Big N so ein brett wird wie der Ryzen 5000
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh