AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nun, wir wissen jetzt nicht, ob die Werte schon von der dicksten Karte stammen. Falls aber ja wird man bei Nvidia nun erstmal tief durchatmen, man bliebe mit der 3080 leicht vorne.

Aber definitiv diesmal keine Pleite die Leistung!

Und die CPU ist eh gekauft! Hoffentlich sind die gut lieferbar.
Naja, immernoch zu viele Unbekannte um bei Nvidia durchatmen zu können.
Welche Big Navi Karte war es am Ende? (sehr wahrscheinlich der größte Chip aber who knows)
Wie viel verbraucht die Karte bei der Leistung, ist OC Potential vorhanden, wie ist die Raytracing Performance, wie viel kostet der Spass, was hat AMD DLSS entgegenzusetzen etc.
 
Die HWLuxx Benchmarks sind zum vergleichen nicht so toll, da nur mit hohen Settings getestet wurde während die meisten sonst mit ultra benchen.
 
Naja, immernoch zu viele Unbekannte um bei Nvidia durchatmen zu können.
Welche Big Navi Karte war es am Ende? (sehr wahrscheinlich der größte Chip aber who knows)
Wie viel verbraucht die Karte bei der Leistung, ist OC Potential vorhanden, wie ist die Raytracing Performance, wie viel kostet der Spass, was hat AMD DLSS entgegenzusetzen etc.
Und das wichtigste: Sind Treiber und Bios schon final?
 
Borderlands 3 in 1080p mit 200% Res-Scale (Badass) auf einer TUF 3090 OC:
Unbenannt.jpg


Ich bezweifel mal ganz stark, dass eine 3080 hier 70 FPS schaft.
 
Wer hier enttäuscht ist soll mal den Kopf frei machen und erst ein paar Rauchen gehen :fresse2:

Das Teil ist in Rasterausgabe ähnlich schnell wie eine rtx 3080. Hier werden auch FPS-Werte gezeigt, nicht Prozentangaben.
Selbst wenn es am Ende im Mittelwert von x Spielen, 5 % weniger sind. Who cares?
16 GB Vram und ordentlich Preise.

Einige wollten wohl wieder eine Spieleleistung wie mit Vega um das eigene masochistische Narrativ zu befriedigen?
Jung, Junge :haha:
 
Ist auch egal, die paar FPS merkt kein Mensch, die Preise und andere Dinge werden entscheidend sein.

3080 20GB vs Big Navi 16GB, mal sehen wer das Rennen bei mir macht. (obwohl ich keine Lust habe jetzt schon nen neuen Monitor zu kaufen, kack altes Gsync Modul :()
 
Ich hoffe das die AMD 6900XT genauso einschlägt wie der 5900X weil dann hat AMD alles richtig gemacht
 
Eben.
Wir haben wieder echte Konkurrenz.
Wären Jensen und co. bei Nvidia hier nicht unter Konkurrenzdruck des Mitbewerbers geraten und die Beschäftigten bei Amd hätten nicht geliefert, wär die rtx 3080 10 GB bei +1000 € und die 20 GB Version davon wohl wieder auf 1200 - 1400 € wie die rtx 2080 ti.
Oder womöglich gäbe es auch kein rtx 3080 20 GB Modell, sondern nur eine rtx 3080 ti 12 GB an 384-Bit mit 10 % weniger Hardwareeinheiten für +1200 €.
Rtx 3090 hätten sich die meisten dann abschminken können, da + 2k €.

Nun brav rdna2 kaufen damit es eine ordentliche Marktverteilung der Produkte gibt und in 2 Jahren wieder so gute Konkurrenz.
 
NV hat auch nicht einfach mal aus Spaß so hohe Verbräuche eingebaut. die wussten schon wo AMD hinkommt und haben eben alles herausgeholt was geht
 
NV hat auch nicht einfach mal aus Spaß so hohe Verbräuche eingebaut. die wussten schon wo AMD hinkommt und haben eben alles herausgeholt was geht
Doppelte Anzahl Cuda Cores säuft halt. Zumindest indirekt. Ist ja nicht so, dass das Teil nicht entsprechend einen Mehrwert liefert. Im richtigen Workload kommt das auch an. Games gehören nur halt nicht dazu. Was man NV hier klar ankreiden kann ist eher, dass sie das Powerlimit nicht feiner für Games abgestimmt haben. Der Leistungszuwachs in Blender Cycles ist aber schon ziemlich krass und da fragt man sich eher, woher kommt das, weil sooo viel mehr Verbrauch ist da halt nicht zu sehen. Zumindest steht das weit weniger im Gegensatz zur Mehrleistung als bei Games.

Soll heißen, ich würde die Leistungsaufnahme nicht als den Punkt in der Formel sehen. Mal davon ab, schau dir mal die Angaben zur GPU vs. den Rest an. Es ist nichtmal wirklich so viel mehr für die GPU ansich. Was den Spaß noch interessanter macht. Der Beikram scheint wie von Igor angekündigt, viel zu saufen. Aber auch irgendwo klar, wenn du doppelte FP32 Performance noch mit Bandbreite versorgen möchtest, sodass dir das nicht obenraus wegbricht.

Für mich riecht das aktuell klar so, dass AMD oben deutlich weniger FP32 Leistung absolut liefert - die Bandbreite damit viel kleiner ausfallen kann und sie dann dadurch auch gut vor NV (in Games) bei der Effizienz stehen werden. Für den Gamer der klar bessere Deal, wenn dem so kommt. ;)
 
Wer hier enttäuscht ist soll mal den Kopf frei machen und erst ein paar Rauchen gehen :fresse2:
...

Die Karte ist, so denn alles stimmt, ganz und gar nicht enttäuschend.

Heimlich, still und leise hatte ich für mich aber gehofft, dass AMD uns dermaßen einen Hammer präsentiert, dass sich glatt ein Umstieg von der 3080 direkt wieder lohnen würde.

War natürlich unrealistisch.
 
Vergleich ist schwer zur 3080, da nur gesagt wurde "6000'er Serie" wars das highest-end Teil, wars ne 6800XT - who knows? Badass auf 4k mit DX12 sollte mal jemand nachtesten. AMD sagte da auch nur "konstant 60FPS ohne Probleme" - obs nun 57FPS oder 63FPS sind... das ist dann wohl "Interpretationssache". Warte einfach die Benches ab.
 
ich hoffe nur das wenn Amd nun im Gaming gut performt, dann der Compute Bereich nicht wieder auf der Strecke bleibt, denn so froh ich für mich als Gamer bin, in dem Bereich liegt auch eines an Geld das es zu verdienen gibt...

am meisten freue ich mich jetzt aber mal auf Ryzewn 5000 das wird ein Brett und diesmal dürfte es wohl gleich der 12 Ender werden wenn die Preise bei uns auch bei 550 Euro bleiben...
 
Braucht es denn momentan so viel FP32?
Braucht es in den nächsten 2 Jahren so viel FP32?

Soweit ich es verstanden habe macht man dies bei nvidia nur da der hohe Wertebereich für Raytracing-Zeugs dienlich ist, und hohe Genauigkeit nicht relevant.
Effizienter und platzsparender als INT-Einheiten; insbesondere da Cuda und die eigene Software dies gut umsetzen kann.
Bei nvidia setzt man die Karten stark auf Raytracing, bei Amd so halbe-halbe.
 
Anhang anzeigen 537451


benchmarks pcgh:
borderlands 3, 3080 -> 50/60
call of duty mw, 3080 -> 72/82.2
ghost recon breakpoint, 3080 -> 39/44,5
gears of war 5, 2080ti -> 55,7

die frage ist, sind die amd benchmarks vergleichbar und ehrlich?
sieht sonst ja gar nicht so schlecht aus.

Bei Computerbase gibts auch Benchmarks zu Borderlands 3 und Call of Duty MW mit der 3080
3080 Boderlands 3 -> 67
3080 COD MW -> 88

Somit wird eine RX6000 nicht deutlich unter der 3080 liegen :)

Ich geh aber mal davon aus, dass dieser Leak auch als "Seitenhieb" an die 3080 gedacht ist.
 
Zuletzt bearbeitet:
@Erdy schau mal weiter oben den RTX3090 OC Bench von Borderlands 3. die RX6000 sollte schneller als die 3080 sein
 
https://www.pcworld.com/article/3585090/amd-radeon-rx-6000-big-navi-performance-tease-rtx-3080.html schrieb:
In a call before the Zen 3 event, Radeon chief Scott Herkelman told me that AMD decided to tease Big Navi’s performance due to community demand for more information. It certainly was an eye-opening reveal.
[...]
Most importantly, Herkelman stressed that AMD didn’t state which Radeon RX 6000 graphics card ran these benchmarks.




Keine ahnung wie Ihr das deutet.... Aber ich würde sagen....

BÄÄÄÄÄHHMMMM.... :shot:
 
Doppelte Anzahl Cuda Cores säuft halt. Zumindest indirekt. Ist ja nicht so, dass das Teil nicht entsprechend einen Mehrwert liefert. Im richtigen Workload kommt das auch an. Games gehören nur halt nicht dazu. Was man NV hier klar ankreiden kann ist eher, dass sie das Powerlimit nicht feiner für Games abgestimmt haben. Der Leistungszuwachs in Blender Cycles ist aber schon ziemlich krass und da fragt man sich eher, woher kommt das, weil sooo viel mehr Verbrauch ist da halt nicht zu sehen. Zumindest steht das weit weniger im Gegensatz zur Mehrleistung als bei Games.

Soll heißen, ich würde die Leistungsaufnahme nicht als den Punkt in der Formel sehen. Mal davon ab, schau dir mal die Angaben zur GPU vs. den Rest an. Es ist nichtmal wirklich so viel mehr für die GPU ansich. Was den Spaß noch interessanter macht. Der Beikram scheint wie von Igor angekündigt, viel zu saufen. Aber auch irgendwo klar, wenn du doppelte FP32 Performance noch mit Bandbreite versorgen möchtest, sodass dir das nicht obenraus wegbricht.

Für mich riecht das aktuell klar so, dass AMD oben deutlich weniger FP32 Leistung absolut liefert - die Bandbreite damit viel kleiner ausfallen kann und sie dann dadurch auch gut vor NV (in Games) bei der Effizienz stehen werden. Für den Gamer der klar bessere Deal, wenn dem so kommt. ;)
Liegt halt daran, dass Ampere primär eine Workstation/Server Archtitektur ist, brauch ich aber dir nicht erzählen :P
Seit Turing scheint es keine extra Architektur für Gaming mehr zu geben... GCN lässt grüßen, ob sich das noch rächen wird werden wir sehen.
 
Lol wie da einer im Techpowerup Forum einfach mal meint die 3080 würde mit Big Navi den Boden aufwischen und dann Benchmarks anführt die höchstwahrscheinlich mit DLSS aufgenommen wurden (Über 100 FPS bei COD:MW in 4K ist klar...) :stupid:

Edit: Sogar noch besser: Im verlinkten Video werden die FPS einfach eingeblendet statt mit Afterburner oder so die Live FPS anzeigen zu lassen..
 
Zuletzt bearbeitet:
Liegt halt daran, dass Ampere primär eine Workstation/Server Archtitektur ist, brauch ich aber dir nicht erzählen :P
Seit Turing scheint es keine extra Architektur für Gaming mehr zu geben... GCN lässt grüßen, ob sich das noch rächen wird werden wir sehen.
da habe ich mich eh mit fdsonne schon mal zu unterhalten in den letzten Tagen und Wochen, schon witzig wie nun Nvidia scheinbar den Weg von Amd geht mit derselben Base für Compute und Gaming und Amd nun den Weg von Nvida mit den so erfolgreichen Maxwell und Pascal mit der eher unterschiedlichen Basis für Compute und Gaming geht ...
 
Das ist der größte rdna2 Ausbau; also Navi21 und auch kein cut-down davon.
Die drei Lüfter des Modells deuten auf Navi21 hin.
Alles andere ist Fantasie und macht auch, insbesondere Marketingtechnisch, keinen Sinn.

Das einzige was es noch darüber geben könnte (vermutlich wird), ist der rtx3090 Gegenspieler mit Hbm2e Speicher (16/32 GB).
Vllt. gibt es in irgendeinem 4k uhd Szenario halt 5 % mehr Leistung.

Nicht dass hier der Hypetrain wieder den Mount Everest besteigt :d
 
GRID 2019 wäre so ein Titel wo die AMD 6900XT dann die 3090 schlägt
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh