Radeon RX 6000: AMD zeigt erste 4K-Benchmarks

Das wäre die total Vernichtung der 3090 :d
Noch hab ich meine Strixx nicht bekommen ich hab es auch geahnt das die kommenden Tage mich vor eine Probe stellen werden !
Man ist das fies:confused:
Das die launches auch soweit auseinander liegen müssen das man nicht vergleichen kann :mad:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine etwas OT Frage: Beim Streamen von Gameplay über Twitch mit OBS oä ist in der aktuellen Gen der Encoder NVENC von Nvidia dem Encoder AMF von AMD qualitativ doch stark überlegen. Ich habe im Netz leider nichts dazu gefunden ob AMD hier mit der 6000 hier stark aufholen will. Weiß wer näheres?
 
Eine etwas OT Frage: Beim Streamen von Gameplay über Twitch mit OBS oä ist in der aktuellen Gen der Encoder NVENC von Nvidia dem Encoder AMF von AMD qualitativ doch stark überlegen. Ich habe im Netz leider nichts dazu gefunden ob AMD hier mit der 6000 hier stark aufholen will. Weiß wer näheres?
Keiner hat irgendwas dazu gehört. Es soll AV1 decoding geben, nützen aber nix wenn da nicht auch der encoder mit drauf ist. Abseits von NVENC kannste halt über H.264/265 gehen und die CPU Kerne damit betreten. Epos Vox hat dazu ein paar tutorials gemacht, wie die qualität nahezu identisch gebastelt werden kann.

Aber ja, wird Zeit, dass AMD da mal was erfindet.
 
Zen 2 war schon nicht schlecht, aber Zen 3 wird mutmaßlich die erste Generation sein die in absolut allen Belangen Intel überlegen ist (auch im Preis). Intel wird es dann sehr schwierig haben, denn 7 nm haben die wohl noch immer nicht und sollten sie es mal haben wird AMD wohl bereits auf 5 nm produziert.

Was genau soll besser sein bei NVENC gegenüber AMD? Geht es um die Bildqualität?
 
Zen 2 war schon nicht schlecht, aber Zen 3 wird mutmaßlich die erste Generation sein die in absolut allen Belangen Intel überlegen ist (auch im Preis). Intel wird es dann sehr schwierig haben, denn 7 nm haben die wohl noch immer nicht und sollten sie es mal haben wird AMD wohl bereits auf 5 nm produziert.

Was genau soll besser sein bei NVENC gegenüber AMD? Geht es um die Bildqualität?


und was sagen uns die 5 bzw 7nm?
genau nichts.
nur weil amd bereits im 5er sein wird, kann man daraus nicht schliessen, dass dieser dem intel 7er irgendwie überlegen wein wird.
 
Zuletzt bearbeitet:
Eben doch, Intel ist meines Wissens immer noch auf 14 nm unterwegs. Zwar ist das auch Marketing, es reicht aber sich die Tests anzuschauen um zu sehen wer den Fertigungsvorteil im Moment hat. Auch die Energieeffizienz beachten. Intel mag zwar in Spielen noch minimal schneller sein, das liegt aber nur daran dass sie jetzt mit der Brechstange arbeiten.

cpus.JPG

Kleine Merkhilfe: Der 3990X ist eine 64C/128T-CPU!!! Die Temperaturen von Intel sind auch heftig, was aber eben an diesem "Brechstangen-OC" liegt. AMD hat meines Wissens auch mittlerweile die bessere IPC, schafft bislang nur keine 5+ GHz, brauchen sie auch nicht weil mit Zen 3 vermutlich bereits ein Vorsprung von 20 - 25 % rein an IPC bestehen wird und dazu werden diese CPUs auch näher an 5 GHz takten. Ich gönne es ihnen ja. Ryzen war / ist echt eine geile Sache, Leistung endlich mal bezahlbar.
 
@Niftu Cal
Was zeigt uns deine Grafik denn? Ich würde auf Verbrauch tippen?
 
@Niftu Cal

Es macht aber nicht wirklich Sinn bei der Betrachtung von Perf/Watt, den Verbrauch von einer Anwendung zu nehmen und diesen in Verbindung mit der Leistung von einer anderen Anwendung zu setzen. Z.B. wird man in Spielen nie den gleichen Verbrauch erzielen, wie bei einer Anwendung wie Prime95.
 
Grade in Spielen ist der Intel sogar sparsamer als die AMD Ryzen 3000

also schneller und besser beim Verbrauch und da bin ich gespannt wie es beim 5000er sein wird.
 
Mag sein, aber das gilt ja dann für beide gleichermaßen. Mein Ryzen zieht 100 W unter Volllast, in Spielen sind es meist um die 50 - 60. Und das ist ein 1st Gen... Zen 2 oder 3 im Sweet Spot dürfte extremst effizient sein, bei dem Intel müsste man ja schon abwägen ob man den nicht undervoltet da er selbst mit Wasserkühlung noch auf über 70° geht.
 
Wo werden die CPU`s denn so warm?
Primen und Cinebenchen hier alle den ganzen Tag?
Im Gaming geht selbst mein 9800X auf Sockel 2066 unter einer AIO nichtmal über 60° mit 165W TDP
 
Wo werden die CPU`s denn so warm?
Primen und Cinebenchen hier alle den ganzen Tag?
Im Gaming geht selbst mein 9800X auf Sockel 2066 unter einer AIO nichtmal über 60° mit 165W TDP

Die Aussage bezog sich spezifisch auf den 10900K in dem Test. Ist aber auch egal.
 
.......wie heißt der Thread-Titel hier?
 
und trotzdem ist das alles off topic und nicht goldwaage... also zurück zum thema bitte.
 
Eben doch, Intel ist meines Wissens immer noch auf 14 nm unterwegs. Zwar ist das auch Marketing, es reicht aber sich die Tests anzuschauen um zu sehen wer den Fertigungsvorteil im Moment hat.

und nein, die nm-angaben der einzenlnen prozesse sagen nichts über deren qualität aus. höchstens über den stand der entwicklung innerhalb des selben herstellers.
also dürfte z.b. 14nm von tsmc "schlechter" bein als 5nm von tsmc. aber mit den prozessen von intel oder samsung lässt sich da genau nichts vergleichen.
der bauer hat dazu ein gutes video gemacht. die prozesse könnten genauso gut hansi, klausi und peter heissen.
leider meinen immernoch viele es handle sich bei den nm-namen um irgendwelche spezifischen grössenangaben, so wie cm3 bei motoren. das ist aber eben leider nicht so.

darum kann man 8nm samsung nicht mit 7nm amd vergleichen.

aber ganz egal welche karte nun besser ist oder eben nicht, am meisten staune ich ja, dass in dieser gen nicht mehr leaks kommen. selbst nv konnte die leistung bis zum ende hin verbergen.
 
Zuletzt bearbeitet:
Meine persönliche Vermutung ist das Nvidia Probleme mit der Chip Ausbeute hat und die Nachfrage einer 3080Ti nie hätte befriedigen können. So hat man eine 3090 mit absurder Speicherbestückung und Preis gemacht um das geringe Angebot mit der Nachfrage in Einklang zu bringen. Und da AMD Leistungstechnisch eventuell die 3080, ihr Consumerflagschiff angreifen könnte hat man die 3080 ans Limit getrieben.

Aus AMD Sicht glaube ich nicht das ihnen die 3090 sorgen macht was die Performancekrone betrifft sondern ehe der gefühlte Kampfpreis der 3070. Wenn Samsung bedeutend billiger als TMCs 7nm ist könnte das zusammen mit dme Speicher im Low/Mid Segment AMD wirklich das leben schwer machen.
 
Zuletzt bearbeitet:
Das ist doch von NV alles nur eine Masche, die 3070 wird es als FE auch nicht geben, zumindest bekommt wieder nur ein Bruchteil der Leute eine Karte und dann werden die anderen Karten wieder für 700 € angeboten.
 
Ja, das ist gut möglich. 24 GB sind nett, aber sehr teuer und auch gar nicht nötig. 16 GB wären besser gewesen, an 384-Bit sind die allerdings schwer zu realisieren. Darum bin ich auch mal gespannt was AMD vor hat. Die 3080 ist wohl schon eine Art Ti, denn dieses mal basiert sie auf dem Big Chip und vermutlich hat man es auch bewusst so gemacht da die Mehrleistung sonst zu gering gewesen wäre. Und darum verbraucht die 3080 auch so viel, es ist eine kleine 3090, inzwischen gehe ich eigentlich nicht mehr davon aus dass noch eine Ti kommt, zumindest nicht im Sinne von mehr Shadern - Eher mit 20 GB oder mehr Speicherinterface. Die 3080 gleich mit 352-Bit und 11 GB anzubieten wäre vielleicht sogar eleganter gewesen.

Die 3070 muss erst einmal zeigen was sie kann. Sie wird nur 8 GB haben und das 16 GB-Modell wird man sich entsprechend bezahlen lassen. Je nachdem in welche Preisregionen es dann geht muss man hier auch wieder abwägen ob 16 GB oder der Aufpreis zur 3080 10 GB so gering ist dass man die Mehrleistung lieber nimmt. Und die 3080 ist kaum schneller als eine 2080 Ti, ich gehe nicht davon aus dass die 3070 sie einholt, vielleicht ganz knapp eine 2080 Ti FE - Aber auch nicht zwangsweise in jedem Titel, wie üblich wird dann wohl wieder Cherrypicking betrieben damit die Präsentationsfolien nach viel aussehen. Das konnte NVIDIA schon immer gut, hier muss ich sogar AMD mal loben, da die so ehrlich sind zuzugeben dass der Zen 3 minimal langsamer ist als die Konkurrenz (in einem Spiel...). Alles andere ist Blenderei, was mich an den Maxwell-Launch erinnert, damals gab es ein paar Folien mit "50 % Mehrleistung*" (*in ausgewähltem VR-Benchmark).

Und richtig, die 3070 8 GB wird rund 550 - 650 € kosten je nach Modell, markiert meine Worte. Ein paar FEs wird man verkaufen, so wie jetzt ein paar die 3080er für 699 bekommen haben, der Großteil zahlt aber mindestens 200 € mehr. Wenn AMD es richtig macht und die Leistung auch stimmt können sie gerade in dem Bereich viel reinholen, denn im High-End tummeln sich viele Käufer denen der Preis sowieso egal ist und die nur das Beste wollen - Also die 3090, die sicherlich noch eine ganze Weile absolut konkurrenzlos bleiben wird.

Ich persönlich bete schon fast dass die gezeigten Benchmarks von AMD nicht vom Topmodell kamen, das wäre ein Fest. Und die Verfügbarkeit sollte stimmen. Wenn die Karten nicht verfügbar sind wird sich das was aktuell abläuft mit AMD wiederholen. Aber darauf habe ich mich bereits geistig eingestimmt, notfalls sitze ich 2020 mit der 2080 Ti aus, eine XTX mit 16 GB könnte aber trotzdem stark jucken, vor allem wenn sie dann unter 1000 € kostet. 40 - 50 % Mehrleistung zur 2080 Ti (OC vs OC) und ~16 GB, das klingt absolut perfekt. Mehr Mehrleistung ist immer gut, aber denke ich dass wir solche Sprünge wie zu Maxwell- und Pascalzeiten nicht mehr sehen werden. Zumindest nicht bis die ersten MCM-Grafikkarten an den Markt kommen. Dann wären auch 100 % Sprünge bei niedrigeren Preisen denkbar, denn das ist der Grund wieso die dicken Karten so teuer sind: Die Chips sind gewaltig und aus einem Stück gefertigt, die Yields sind vermutlich winzig.
 
NV wird ein paar Chips zur Seite legen, daher die knappe Verfügbarkeit. Wer will dann ne 3080 10GB wenn AMD ne Serie mit 16GB rausballert?
Also wird Lederjacke jetzt Chips sammeln, dann mit 20GB kombieren um zu AMD nen Gegenangebot legen zu können. :o
 
Buschfunk meint, dass die 300+W Variante von AMD ne WaKü Variante ähnlich wie bei der Vega sein wird. Die 3-Lüfter Variante wird also maximal ne XT Version sein und dann gehts bereits runter mit den CUs.

Also mal kurz Navi 21 zusammengefasse (mMn)
Navi21 XTX: 2200MHz+ / 300W+/80CU --> 3090 Gefilde (AMD exclusiv mit AIO druff)
Navi21 XT: ~2000MHz /250-275W/80CU --> 3080 Gefilde (Wird wohl das Standardmodell für den Anfang sein und AiBs werden diese Version dann als custom rausbringen)
Navi21 XL: ~1900-2000MHz/225-250W/72CU --> marginal unter 3080 (Hier fängt AMD an, teildefekte Chips aufs PCB zu packen - sollte wohl was high-Performance und Preis angeht der P/L Kracher werden)

Sowohl bei XT und XL könnte ich mir jeweils 2 Versionen vorstellen, die XTX wirds aber nur in einer geben und AiBs werden auch beim Release keinen Zugriff drauf haben - das wird ne Sonderedition von AMD.
 
Naja die 3090 wäre als 3080Ti mit 12GB wahrscheinlich interessanter und hätte gleiche UVP wie die alte 2080Ti gehabt.
Selbst wenn die 6000er Reihe die 3080RTX Leistungstechnisch überholen würde Stünde noch die 3080Ti im Weg zur Leistungskrone.
Die 3090 draus zu machen als Pseudo Workstation Karte mit Extra Ram nimmt sie dagegen eher aus dem Spiel.
Wie dem auch sein wird. Der Fertigungsprozess gehört TMC und nicht AMD, anders als Intel wird nvidia keine Hemmungen haben sich dort einzukaufen.
Wenn also TMC Prozess nochmal 20% rausholt könnte es nächstes Jahr ein Nvidia Fertigugnstechnisches Refresh geben auf das AMD nicht reagieren kann.

@Shevchen
Kann ich mir nicht vorstellen., das sind 3 Grafikkarten mit innerhalb +-10% Leistungsdifferenz.
 
Zuletzt bearbeitet:
Buschfunk meint, dass die 300+W Variante von AMD ne WaKü Variante ähnlich wie bei der Vega sein wird. Die 3-Lüfter Variante wird also maximal ne XT Version sein und dann gehts bereits runter mit den CUs.

Also mal kurz Navi 21 zusammengefasse (mMn)
Navi21 XTX: 2200MHz+ / 300W+/80CU --> 3090 Gefilde (AMD exclusiv mit AIO druff)
Navi21 XT: ~2000MHz /250-275W/80CU --> 3080 Gefilde (Wird wohl das Standardmodell für den Anfang sein und AiBs werden diese Version dann als custom rausbringen)
Navi21 XL: ~1900-2000MHz/225-250W/72CU --> marginal unter 3080 (Hier fängt AMD an, teildefekte Chips aufs PCB zu packen - sollte wohl was high-Performance und Preis angeht der P/L Kracher werden)

Sowohl bei XT und XL könnte ich mir jeweils 2 Versionen vorstellen, die XTX wirds aber nur in einer geben und AiBs werden auch beim Release keinen Zugriff drauf haben - das wird ne Sonderedition von AMD.
hoffe schwer. dass du mit der AiO falsch liegst. die sollen mit dem schwachsinn aufhören und lieber mal die topkarte komplett ohne kühler bringen, damit man seinen eigenen wakü montieren kann und nicht immer noch die lukü mitzahlen muss.

leistungstechniscj wird wohl trotzdem aktuellen hypetrain die 3080er region das maximum werden.

das einzige was ich mir noch vorstellen könnte, ist wieder mal oc-potenzial zu haben. falls die kleinere version wirklich so hoch taktet, könnte das für den vollausbau interessant werden.
 
Naja die 3090 wäre als 3080Ti mit 12GB wahrscheinlich interessanter und hätte gleiche UVP wie die alte 2080Ti gehabt.
Selbst wenn die 6000er Reihe die 3080RTX Leistungstechnisch überholen würde Stünde noch die 3080Ti im Weg zur Leistungskrone.
Die 3090 draus zu machen als Pseudo Workstation Karte mit Extra Ram nimmt sie dagegen eher aus dem Spiel.
Wie dem auch sein wird. Der Fertigungsprozess gehört TMC und nicht AMD, anders als Intel wird nvidia keine Hemmungen haben sich dort einzukaufen.
Wenn also TMC Prozess nochmal 20% rausholt könnte es nächstes Jahr ein Nvidia Fertigugnstechnisches Refresh geben auf das AMD nicht reagieren kann.

Ganz so einfach ist das auch nicht, die Architektur muss schon auch für die entsprechende Fertigung optimiert sein. Dann kennt man auch nicht die Fertigungs Qualität. Nvidia Karten haben viele co Prozessoren. Die Karten von Nvidia mögen Leistung bringen und relativ guten Strom Verbrauch haben, aber sie sind möglicherweise nicht effizient in der Herstellung das erklärt zumindest teilweise den hohen Preis, wenn ich 15-20% Marge anpeile.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh