Radeon RX 6000: AMD zeigt erste 4K-Benchmarks

Also verschiedenen Quellen zu folge und einigen Games die schon gezeigt wurden, sieht das weniger schlecht aus wie man den Leuten glaubhaft machen möchte.

Ja ich weiß, aber wie viele CUs hat die PS 5 und wie viele Big Navi?
Außerdem ist es generell ein Vergleich von Äpfeln mit Birnen!
Nicht zu vergessen: Es gibt Leute die einfach keinen Bock auf Konsolen haben 🤷‍♂️
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gerüchten zu Folge entwickeln ja AMD und Sony FidelityFX, soll wohl ein Konkurrenz Produkt zu DLSS sein. Wenn das Projekt Früchte trägt könnte möglicherweise der Preview ohne Fidelity gewesen sein und diese Feature auf der Ankündigung gezeigt.
 
Deine Wahrheit hat jetzt was mit Radeon RX 6000 zutun?

und dafür registiert man sich :rofl:
Nein keine Sorge deswegen habe ich mich nicht registriert wie du an meinen Beiträgen sehen kannst das kam halt so ans Licht heute und es ist halt extrem Lächerlich.

Kein OT mehr versprochen viel spaß noch :)
 
Solange man keine wirklich einheitliche Basis hat redet man von Teasererten+-x, was x was aber keiner so genau. Hinzu kommen Sachen wie Treiberstand, verwendete CPU,.....
 
Selbst wenn man da noch nachlegen sollte, sind die 73FPS doch schon so deutlich unter einer schöden RTX 2080, dass ich befürchte, wieder keine Konkurrenz erwarten zu können, selbst wenn da noch 2 Modelle drüber auftauchen. AMD hat die letzten 10 Jahre über bei seinen Präsentationen nicht mit Zurückhaltung geglänzt, sondern eher im Gegenteil :cry:
Da haben die nvidia Raffgeier wohl ihre Preise umsonst "gesenkt".

Denke die Karte wird 20 % vor einer rtx 2080 ti liegen.
 
Das Auseinandernehmen der PS5 zeigt mir dass die Gerüchte aus dem einem Post, von 2,5 GHz boost clock die für Navi2 (40 CU), ziemlich unrealistisch sind.
Die Kühlung des SoC der PS5 ist bereits nicht ohne, und obendrein wird Flüssigmetall verwendet um die hohe Wärmeabgabe auf kleinstem Raum abzuleiten.

Die Gpu alleine genehmigt sich bei dem 350 W Netzteil (PS4Pro 310 W zertifiziert, real max. 150 - 180 W) wohl ähnlich viel wie bei der xbox SX, um die 150 - 180 W.
Würde zu den prognostizierten Verbrauchswerten passen: Desktop größter Navi21 ~ 300 W und cut-down 220 - 250 W.

Die gpu der PS5 soll nur unter Szenario x, wenn ähnliche Technik wie Smartshift greift und der Prozessor nicht stark ausgelastet ist, einen hohen Takt von max. 2,23 GHz erreichen.
Deshalb auch up to so und soundsoviel GHz.
Da wäre Navi22 150 - 200 W bei max. 2,5 GHz boost-clock viel zu heiß. :fire:
 
Völlig irrelevant wäre es, da jeder Benchmark, den man nicht selbst gefälscht hat prinzipiell wertlos ist und man deshalb bei einer Onlinediskussion pauschal immer von einer Vertrauensbasis ausgehen muss. Deine frühkindliche Naivität kann man so nicht stehen lassen..

Aber hier, für einfache Gemüter, die glauben was sie am Bildschirm sehen muss wahr sein:
Ich sagte nicht "ti"
Beitrag automatisch zusammengeführt:

Und mir völlig Wurst, was du dazu sagst, denn genau das Selbe könnte ich jedem deiner "Nachweise" auch unterstellen, es sei denn du zeigts mir das live vor Ort und persönlich..
Haha wie geil. Bin mal gespannt ob noch ein Kommentar kommt der noch dämlicher ist.

Ein Video von einem Channel mit dem Namen "4K HDR RTX Gaming & Benchmark Channel" mit 40 Views der ohne Settings im Video und in der Beschreibung ein Video veröffentlich ist natürlich besser als ein paar Testseiten.
Ich frag auch immer die Aluhutträger wer mich ausspäht und QAnon wen ich wählen soll. Die sind wenigstens definitiv nicht von der Regierung gekauft...
 
Wenn:
- die AND GPU ansatzweise auch nur an die RTX 3080 rankommt...
- wenn sie leise ist...
- und wenn sie käuflich ist im November...

... dann wird das meine neue Karte.

Eigentlich wollte ich mir eine 3070 in den PC stecken. Das schminke ich mir jedoch schonmal getrost ab.
 
Denke die Karte wird 20 % vor einer rtx 2080 ti liegen
Die Karte wird 2-4% hinter einer 3080 liegen. Es ist offensichtlich, dass Nvidia die 3080 mit Gewalt über die Ziellinie geprügelt hat. Sie hätten das Ding auch minimal langsamer mit vernünftigen Stromverbrauch verkaufen können, aber dann hätten sie ja gegen Amd verloren.

Das ist der einzige Grund wieso Ampere am Limit läuft und kaum verfügbar ist.
 
@Hyrasch Du darfst dabei nicht vergessen das die beiden Konsolen APUs enthalten die ganz nebenbei noch eine 8-Core CPU mit 3,5Ghz(-/+) mitkühlen "dürfen"!
Uuuund die APUs basieren auf RDNA2, es sind aber keine Big Navi Chips die vermutlich auch mehr Fläche haben, um die Hitze zu übertragen...
 
Die Karte wird 2-4% hinter einer 3080 liegen. Es ist offensichtlich, dass Nvidia die 3080 mit Gewalt über die Ziellinie geprügelt hat. Sie hätten das Ding auch minimal langsamer mit vernünftigen Stromverbrauch verkaufen können, aber dann hätten sie ja gegen Amd verloren.

Das ist der einzige Grund wieso Ampere am Limit läuft und kaum verfügbar ist.
Danke so sehe ich das auch. Nvidia hätte ohne Not niemals ihre Karten so hoch getrieben. Man hat ja in verschiedenen Tests gesehen, dass mit minimal weniger Takt und Spannung die Teile auch ordentlich gewesen wären. Die 3080 wäre wie die letzten Jahre immer noch schnell als die 2080ti und die 3090 würde wenigstens einen ordentlichen Mehrwert (neben dem VRam) on Top bedeuten.
Nun hat man die 3080 so sehr ans Limit getrieben um bloß einen gewissen Abstand zu Big Navi zu wahren bzw. zu gewinnen und dafür ein neues Fermi in Kauf genommen.
Die Gründe nicht auf den 7nm TSMC Prozess zu gehen lasse ich da mal aus.

Hätte Nvidia diese paar letzten Prozente nicht raus gequetscht würde AMD zu nahe ran kommen und damit dann doch als zur starker Konkurrent in der High End Liga wahrgenommen werden (die 3090 spielt in der Titan Liga). Man wird sich also damit versucht haben Richtung 10% Vorsprung zu verschaffen. Ob das wirklich am Ende raus kommt müssen wir im Detail noch sehen. Weit wird Big Navi aber nicht entfernt sein.
 
Habe ich schon; noch mal durchlesen ;)
150 - 180 W ist der realistisch schätzende Verbrauch der GPU + Vram der Konsolen SoCs.
Mit 30 - 40 W Prozessor, ssd etc. werden es diesmal deutlich über 200 W. Bis zu 250 W für das gesamte Packet sollten drin sein.

Die 40 CU Navi22 gpu + vram sollte ähnlich viel schlucken. Bisschen Verluste bei der Übertragung/Effizienz, hier und da, macht max. 200 W Boardpower.
Ist die übliche Produktabstufung über die vielen Jahre hinweg.
Da passen einfach keine 2,5 GHz boost rein.

Navi21 hat einen x2 so großen Chip für die Wärmeleitung. Da können es auch 300 W und max 2,2 GHz boost sein.
 
Die Karte wird 2-4% hinter einer 3080 liegen.
DX11? DX12? Vulkan? Mit den Pre-Release-Treibern?

Ich werde mir genüsslich die HUB/GN Reviews angucken und dann in aller Ruhe bewerten. (inkl. den OC-Resultaten)
 
DX11? DX12? Vulkan? Mit den Pre-Release-Treibern?

Ich werde mir genüsslich die HUB/GN Reviews angucken und dann in aller Ruhe bewerten. (inkl. den OC-Resultaten)
Im Schnitt über alles. Nvidia wollte die Krone nicht abgeben müssen und hat die Karte eben so weit geprügelt, dass es so gerade eben reicht.

Dafür ist sie jetzt halt kaum verfügbar, viel zu heiß und ohne jedes OC Potential.
 
Haha wie geil. Bin mal gespannt ob noch ein Kommentar kommt der noch dämlicher ist.

Ein Video von einem Channel mit dem Namen "4K HDR RTX Gaming & Benchmark Channel" mit 40 Views der ohne Settings im Video und in der Beschreibung ein Video veröffentlich ist natürlich besser als ein paar Testseiten.
Ich frag auch immer die Aluhutträger wer mich ausspäht und QAnon wen ich wählen soll. Die sind wenigstens definitiv nicht von der Regierung gekauft...
Ja, und Alle wo du's nicht merkst sind es sicher nicht, ne? Ich pushe hier nicht die Glaubhaftigkeit dubioser quellen - aber ich bestreite die Glaubhaftigkeit aller vermeintlich "anerkennbaren" Quellen. Die Masse liegt übrigens nachweislich so gut wie nie richtig..
99,99% aller Menschen sind hemmungslose Opportunisten und würden falls nötig ihre Mutter verkaufen. erkennt man schon offensichtlich an der allgemeinen Begeisterung für ein Wirtschaftssystem, innerhalb dessen die oberen 10% von der brutalen Folter und Ausbeutung der übrigen 90% leben.
Dämlich? Ich bin hier nicht der Leichtgläubige mit dem mangelhaften Blick für's Wesentliche. Für mich ist Alles hier hypotethisch und ich komme damit klar, ohne mich irgendwelchen lächerlichen Illusionen hinzugeben.. Realitätsverweigerung - das ist dämlich!
 
Zuletzt bearbeitet:
Was haben denn einige hier geraucht, dass sie die angezeigten Werte aus AMD's Folien unter einer 2080 verorten? Es ist alles nicht vergleichbar. Das sehe ich auch vorbehaltslos ein. Genausowenig kann ich einen AMD Benchmark mit zwei unterschiedlichen Websiten vergleichen. Aber ich erhalte eine grobe Vorstellung, wohin die Reise gehen wird.
Und das sieht vielversprechend aus:
COD MW 4k: BN: 88 FPS; RTX 3080: 82,2 FPS (Computerbase)
Borderlands 4k: BN 61 FPS; RTX 3080: 60 FPS (Computerbase)
GOW5 4k: BN 73 FPS; RTX 3080: 76 FPS (guru3D)

Was auch immer da gezeigt wurde, pendelt sich also irgendwo +/- bei einer 3080 ein. Und selbst wenn das schon die beste GPU war: Für mich ist das mehr als ausreichend und erfreulich dass sie in der Nähe der 3080 landen. Das reicht mir als Erkenntnisgewinn um mich auf den 28.10. zu freuen.
 
Mal eine frage an euch streitdackel. Was haltet wir davon wenn wir uns einen benchmark einer Radeon VII (weil gleich viel ram in 4K) bei den gezeigten spielen und settings ansehen und einfach hochrechnen? +/- 10% sollten wir da doch rankommen.
 
Wenn:
- die AND GPU ansatzweise auch nur an die RTX 3080 rankommt...
- wenn sie leise ist...
- und wenn sie käuflich ist im November...

... dann wird das meine neue Karte.

Eigentlich wollte ich mir eine 3070 in den PC stecken. Das schminke ich mir jedoch schonmal getrost ab.
Ich denke, wenn Sie sogar 7-9% hintendran ist, aber dafür 250-275W verbraucht und nur 579-599€ kostet ist es aufjedenfall Interessant, wobei eine 6800 oder 6700 preislich auch sehr Interessant sein sollten. Wenn die 6700 auf 2080 Ti Niveau ist (-+5%) für 399€ und die 6800 auf 3070 + 7-10% für 499€
 
Ja, und Alle wo du's nicht merkst sind es sicher nicht, ne? Ich pushe hier nicht die Glaubhaftigkeit dubioser quellen - aber ich bestreite die Glaubhaftigkeit aller vermeintlich "anerkennbaren" Quellen. Die Masse liegt übrigens nachweislich so gut wie nie richtig..
99,99% aller Menschen sind hemmungslose Opportunisten und würden falls nötig ihre Mutter verkaufen. erkennt man schon offensichtlich an der allgemeinen Begeisterung für ein Wirtschaftssystem, innerhalb dessen die oberen 10% von der brutalen Folter und Ausbeutung der übrigen 90% leben.
Dämlich? Ich bin hier nicht der Leichtgläubige mit dem mangelhaften Blick für's Wesentliche. Für mich ist Alles hier hypotethisch und ich komme damit klar, ohne mich irgendwelchen lächerlichen Illusionen hinzugeben.. Realitätsverweigerung - das ist dämlich!
Wo siehst du denn dass ich die Glaubhaftigkeit dubioser Quellen pushe?
Ich habe 5 verschieden Quellen angegeben und sogar bei UserBenchmark darauf hingewiesen dass ich sie nicht 100% repräsentativ halte da dort alles gemischt ohne Angabe ausgewertet und gemittelt wird.
Im Vergleich zu dir beziehe ich mich aber eben auf verschiedene Quellen die entweder eine höhere Reputation als dein Video haben und wesentlich mehr Angaben zum Test machen und mehrere Titel testen oder wenigstens eine größere Stichprobe (mit gewissen Fehlern) betrachten.

Gerade in unserem Fall hier ist es eben genau richtig die Masse an Ergebnissen zu nehmen. Dadurch werden eben genau die statistischen Fehler so weit es geht minimiert. Je größer die Datenbasis dabei ist umso genauer wird das Ergebnis weshalb ich obwohl ich UserBenchmark nicht unbedingt für perfekt halte, da es speziell bei CPUs einseitig bewertet, hier trotzdem anbringe. Willst du jetzt den ganzen Testseiten unterstellen das Sie absichtlich, obwohl häufig von Nvidia mit Material ausgestattet, positiver für AMD berichten?

Deine restliche Aussage zeigt einfach nur dass du an einer vernünftigen Diskussion die auf Fakten basierten Annahmen basiert nicht beteiligt sein möchtest.
Alles was hier betrachtet wird ist hypothetisch aber deshalb darf man doch nicht einfach jegliche Logik verlieren.
 
Alles was hier betrachtet wird ist hypothetisch aber deshalb darf man doch nicht einfach jegliche Logik verlieren.
Es gibt einen Unterschied zwischen "Best guess" und "Ich mach mir die Welt, wie sie mir gefällt". In dem einen Fall wird versucht mit Logik und bekannten Parametern zwischen zwei Werten zu schätzen um so nahe wie mögliche eine Aussage zu treffen, die dann in der Zukunft eintreten könnte. In dem anderen Fall dichtet man sich die Welt so zurecht, dass sie ins Weltbild paßt.

Da die Datenlage derzeit eher... schwammig ist und es eh nicht mehr lange dauert, bis wir echte Daten haben, bin ich für Folgendes: Tee trinken, Benches angucken. Mal ehrlich: Was bringt diese Spekulation? Leute zum Warten zu bewegen, wenn sie sich noch unschlüssig sind? Bullshit: Wer Nvidia will, hats eh schon bestellt und wartet zur Not bis zum Release der nächsten Gen. Alle anderen Leute haben erst gar nicht vorbestellt - weil gesunder Menschenverstand. Ez
 
[
Habe ich schon; noch mal durchlesen ;)
150 - 180 W ist der realistisch schätzende Verbrauch der GPU + Vram der Konsolen SoCs.
Mit 30 - 40 W Prozessor, ssd etc. werden es diesmal deutlich über 200 W. Bis zu 250 W für das gesamte Packet sollten drin sein.

Die 40 CU Navi22 gpu + vram sollte ähnlich viel schlucken. Bisschen Verluste bei der Übertragung/Effizienz, hier und da, macht max. 200 W Boardpower.
Ist die übliche Produktabstufung über die vielen Jahre hinweg.
Da passen einfach keine 2,5 GHz boost rein.

Navi21 hat einen x2 so großen Chip für die Wärmeleitung. Da können es auch 300 W und max 2,2 GHz boost sein.
Die Wette gehe ich ein - die 2.5GHZ sind noch nicht einmal das Maximum (ebenso wie die 2.2GHz bei der XTX, die heute nicht gezeigt wurde)
 
Es gibt einen Unterschied zwischen "Best guess" und "Ich mach mir die Welt, wie sie mir gefällt". In dem einen Fall wird versucht mit Logik und bekannten Parametern zwischen zwei Werten zu schätzen um so nahe wie mögliche eine Aussage zu treffen, die dann in der Zukunft eintreten könnte. In dem anderen Fall dichtet man sich die Welt so zurecht, dass sie ins Weltbild paßt.

Da die Datenlage derzeit eher... schwammig ist und es eh nicht mehr lange dauert, bis wir echte Daten haben, bin ich für Folgendes: Tee trinken, Benches angucken. Mal ehrlich: Was bringt diese Spekulation? Leute zum Warten zu bewegen, wenn sie sich noch unschlüssig sind? Bullshit: Wer Nvidia will, hats eh schon bestellt und wartet zur Not bis zum Release der nächsten Gen. Alle anderen Leute haben erst gar nicht vorbestellt - weil gesunder Menschenverstand. Ez

Hab ich was anderes gesagt?
 
2,2 GHz sind laut Amds Definition der max. boost clock. Also das was mit üblicher max. Übertaktung unter Luft drin ist.
Der eigentliche game clock im Spiel müsste sich so bei 2 - 2,1 GHz einpendeln.

Du fantasierst. Ich wette aber gern um 'nen Döner und eine Cola dass kein Navi22/23 Chip mit 40 CUs dauerhaft, unter Luft 2,4 GHz halten können wird, ohne das Stromlimit auf +50 % zu sprengen. :bigok:
2,2 GHz bin ich aber dabei.
 
Mir ist was bei den Formulierungen aufgefallen...

Bei den CPUs wurde klar gesagt, dass es die stärksten Gamer-CPUs auf dem Markt sind. Bei den GPUs hingegen wurde "nur" gesagt, dass das die schnellsten GPUs wären, die sie (AMD) jemals entwickelt hätten.

Bei so nem Event ist ja jeder Satz gescriptet. Ich glaub, das sagt schon was aus, dass sie sagen "die schnellste GPU die wir je entwickelt haben" und nicht "die schnellste GPU die je entwickelt wurde". Sprich, die formulieren es schon so, dass andere (na welche wohl) GPUs noch schneller sein könnten.

Genau darüber bin ich auch sofort gestolpert.
Das unterstreicht aber auch nur die Vermutungen, dass sie eben nicht die Krone holen können bei den GPUs.
Schade, aber nicht unerwartet.

Das Gesamtpaket wird aber entscheiden.
Und da zählt nicht nur die dickste GPU, oder reine Rasterleistung,... sondern eben auch Raytracing und Softwarestacks.
Weiterhin viel zu viele Unbekannte, um irgendeine definitive Aussage zu machen. Lediglich, dass sie nicht die Krone bekommen, würde ich mittlerweile als gesichert ansehen.
 
Was? Wandert der Hauptunternehmenssitz und die Belegschaft von den USA nach China aus?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh