AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Das kann nur schief gehen.
Wenn man hier die Topics alle mal quer liest, dann sind da ein paar Leute, die jeden noch so kleinen Strohhalm ergreifen und einen riesen Vorteil für BN daraus basteln.
Der Hype hat hier definitiv schon problematische Bereiche erreicht und kann so einfach nicht aufgehen. Wenn man sich den Spaß erlaubt und die Extremwerte alle mal kombiniert, dann wird BN ca. so aussehen:

* maximal 225 Watt, unter 200 mit UV, trotz OC
* 16GB VRAM, evtl. mehr beim großen Modell
* Preis bei 499
* Leistung mit OC "leicht" über der 3090 und vernichtend über der 3080
* Die Features der GPU leiten eine neue Zeit des gamings ein wegen,... irgend nem Patent oder so (hab ich nur überflogen, irgendwas Magisches halt).

In Summe sollte jedem klar sein, dass das so niemals kommen kann.
Selbst wenn nur zwei der Ansagen stimmen würden, wäre ich schon sehr überrascht.

Ich erwarte da eher zwei Modelle, wobei das kleinere für 700 Euro knapp unter der 3080 sein wird, dafür mit 16 GB. Das größere wird deutlich teurer sein, evtl. knapp unter 4 stellig und die 3080 knapp schlagen, die 3090 aber nicht. Beide werden in Raytracing bei ca. 50-65% der Ampereleistung liegen und zwischen 280 und 350 Watt fressen.
Das wäre immer noch eine Position in der AMD ein gutes Produkt hat und mithalten kann, aber nicht ganz realitätsfremd.

Dass sie nicht direkt zum Ampere Launch gezeigt haben, wie viel besser sie sind, belegt für mich, dass sie es nicht sind. Marketingtechnisch können sie so dämlich nicht sein.
Aber ich bin auch nicht unglücklich, wenn sie mich positiv überraschen. Solange sie im Raytracing mithalten und sonst keine gravierenden Schnitzer haben, ist BN ne valide Option für mich,... Ampere wird eh nicht geliefert aktuell. ;-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Etwa bei 9xx0, X8x0, HD4xx0, HD5xx0 und ggf. HD7xx0. Aber da war kein Hype notwendig, weil man es gewohnt war dass AMD liefert bzw. liefern kann.
Das ist schon ne Weile her!
Ich glaub hier würden sich alle freuen wen AMD liefert nur ist halt die Skepsis nicht unbegründet!

Es ist nun mal auch so das wir jetzt auch Raytracing haben und auch da muss AMD überzeugen !
Hoffe AMD zeigt da Metro und Control RTX in gegenüber Stellung mit der 3080 .
Das Produkt muss auf ganzer Linie als Moderne Grafikkarte überzeugen und nicht nur Cherry Pickt!
6GB mehr und hoher Takt allein heißt noch nicht alles!
 
Zuletzt bearbeitet:
RT Leitung ist für mich ein weicher Faktor, darauf würde ich gar nicht so anspringen bei der Bewertung und was den Verbrauch angeht bin ich auch gelassen, weil dort hat Nvidia mächtig zugelegt.
 
Wie oft hat das bei AMD Grafikkarten geklappt?
n020.gif

Hmmm 9800 Pro?
X800 Serie? ...
Okay in letzter Zeit gar nicht mal so oft...
k035.gif
 
Grade jetzt wo die neuen Konsolen RT unterstüzen ist RT nicht mehr so wichtig? jetzt geht es doch erst richtig los. Davor war RT eher unwichtig

@Tonmann
Naja die 9800Pro war der Burner aber auch ATI und die X800 war das nicht auch noch alles ATI
 
Ja doch RT ist okay und hat seine Berechtiung, muss aber auch nicht überwertet werden.

Wie auch immer es ausgehen wird, nach dem launch ist vor dem launch, bleib spannend! ;)
 
Ich erwarte da eher zwei Modelle, wobei das kleinere für 700 Euro knapp unter der 3080 sein wird, dafür mit 16 GB. Das größere wird deutlich teurer sein, evtl. knapp unter 4 stellig und die 3080 knapp schlagen, die 3090 aber nicht. Beide werden in Raytracing bei ca. 50-65% der Ampereleistung liegen und zwischen 280 und 350 Watt fressen.
Das wäre immer noch eine Position in der AMD ein gutes Produkt hat und mithalten kann, aber nicht ganz realitätsfremd.

So ungefähr dürfte es aussehen und alles darüber wäre schon eine Überraschung (wenn auch eine willkommene).
 
und AMD eben zu Navi 10 nicht soviel mehr gemacht hat außer eben den Takt voll hochgezogen hat.
Da kann ich dir schon mal was zu schreiben:
RDNA war ein Zwischenschritt mit dem Ziel RDNA 2 für die Konsolen und den High End Markt!
Ob sie die 50% bessere Performance pro Watt hinbekommen haben wird sich noch im finalen Produkt zeigen müssen, aber RDNA 2 ist angeblich ein größerer Schritt gegenüber RDNA (1)...
 
Ja doch RT ist okay und hat seine Berechtiung, muss aber auch nicht überwertet werden.

Wie auch immer es ausgehen wird, nach dem launch ist vor dem launch, bleib spannend! ;)
Warum nicht ich möchte sehr gerne Raytracing mit einer AMD bei Cyberpunk in 4K und HDR +Freesync genießen können.
Und das fliest dann auch in die Beurteilung mit rein wen die Karte getestet wird!
AMD wird sich da von der Weltpresse daran messen lassen müssen!
Wenn nicht wird die Karte nur über den Preis Anklang finden!
Das Produkt muss rund werden!
 
Zuletzt bearbeitet:
@Tonmann
Ja das stimmt schon das RDNA2 angeblich ein großer schritt ist und wenn das teil 2,3Ghz+ macht ist das heftig keine frage aber die müssen das auch beweisen weil Ampere jetzt auch erstmal ordentlich vorgelegt hat. die doppelte FP32 leistung die Ampere nun hat ist nunmal ein fakt und wenn darauf hin optimiert wird sollte da ordentlich was gehen.

EDIT: was man letztens auch lesen konnte war das nun die Spiele wohl so optimiert werden das die 10Gb der RTX3080 in 4K reichen werden.
Habe da was gelesen das Ubisoft wohl für Watchdogs die Texturen anpasst und das finde ich auch voll fürn Arsch.
 
@Tonmann
Naja die 9800Pro war der Burner aber auch ATI und die X800 war das nicht auch noch alles ATI
Na gut, hast mich erwischt :d

Ich oute mich als ATI Fanboy...
a054.gif

Gut das mir das heute keiner mehr Nachtragen kann :fresse:

Aber man kann ja mal hoffen das AMD von ATI gelernt hat und im GPU Markt einfach mal wieder Fakten liefert statt heißer Luft!
Navi war schon ein Schritt in die richtige Richtung :)
 
Navi war für mich ein Hoffnungsschimmer aber es hatte nur eine 384Bit 3840shader Navi 10 gefehlt wie ich finde
 
Ich befürchte auch das NV noch vor release der AMD karten nen Treiber bringt der erstmal 15-20% rausholt weil die FP32 einheit besser ausgelastet werden
Und nach Ampere zurückgestellt wird ^^
 
Was Raytracing angeht, wie laufen die Ampere Karten eigentlich mit Microsofts RT Lösung?
Ich lese immer nur RTX, aber das ist Nvidia only oder?
Die Konsolen und RDNA 2 dürften ja auf DX optimiert sein.... :unsure:
Sorry wenn die Frage doof klingt, aber ich habe mich mit Raytracing noch nicht so sehr beschäftigt 🤷‍♂️

Edit: Ah okay hab es schon gefunden...
 
Zuletzt bearbeitet:

Angeblich soll das automatisch erkannt werden und auf der Hardware laufen aber in wie weit da was angepasst werden muss weiß ich nicht.
man wird ja sehen ob AMD benchmarks mit RT bei Metro, BF5 usw zeigen wird vs 3080 weil wenn nicht weiß man sofort das da die Leistung nicht passt
 
Was Raytracing angeht, wie laufen die Ampere Karten eigentlich mit Microsofts RT Lösung?
Ich lese immer nur RTX, aber das ist Nvidia only oder?
Die Konsolen und RDNA 2 dürften ja auf DX optimiert sein.... :unsure:
Sorry wenn die Frage doof klingt, aber ich habe mich mit Raytracing noch nicht so sehr beschäftigt 🤷‍♂️

Angesichts das die Konsolen es supporten und hier ein RDNA2 drinsteckt, gehe ich davon aus das es zumindest die Navi21 ebenso supportet. Bestätigt ist hier aber glaube ich bisher nichts. Mir als 2080Ti Nutzer mit 4k OLED geht`s auch so, dass bei mir RTX Standartmäßig OFF ist und ich mir es schon mal angesehen, aber nicht aktiv genutzt habe. Mir ist der Kosten-Nutzen-Faktor der Geschichte einfach zu schlecht.
 

Angeblich soll das automatisch erkannt werden und auf der Hardware laufen aber in wie weit da was angepasst werden muss weiß ich nicht.
man wird ja sehen ob AMD benchmarks mit RT bei Metro, BF5 usw zeigen wird vs 3080 weil wenn nicht weiß man sofort das da die Leistung nicht passt
Was ich irgendwie Merkwürdig finde: AMD schreibt sie haben bei DX12 Ultimate eng mit Microsoft zusammengearbeitet und Nvidia schreibt das RTX kompatibel zu DX 12 Ultimate ist.
Ich verstehe dann nur nicht warum manche behaupten das RTX Spiele nicht auf RDNA 2 laufen sollen... :hmm:

Ach war klar das Sony trotz gleicher Hardware wieder ein eigenes Süppchen kocht... :stupid:
 
Ja RTX ohne DLSS kannste fast vergessen und daher wird das bei AMD schon schwierig wenn man kein FidelityFX CAS dabei hat.
Doom Eternal wird ja auch noch RT bekommen und da bin ich mal gespannt weil es schon bei Youngblood mega gut war

@Tonmann Bei Sony laufen die Spiele angeblich in OpenGL und Vulkan was ja auch nicht verkehrt ist oder sogar Ressourcen schont
 
Etwa bei 9xx0, X8x0, HD4xx0, HD5xx0 und ggf. HD7xx0. Aber da war kein Hype notwendig, weil man es gewohnt war dass AMD liefert bzw. liefern kann.
Das waren wohl auch die letzten guten Karten, die 290 würde ich noch dazuzählen. Die war langfristig auch besser als NVIDIA, hatte nur die AMD-typischen Startprobleme. Navi lässt mich hoffen, dann RDNA ist mal ein echtes Ergebnis statt nur Gehype. Pro-Shader ähnlich effizient wie Turing, da erwarte ich bei RDNA2 doch mindestens dass sie mithalten kann.

Eine 3840-Shader RDNA1 hätte ich mir auch gewünscht. Ich war echt schockiert wie gut die mit ihren 2560 Shadern gegen die alte 1080 Ti bestand. Die Leistung war etwa 10 % dahinter.

RTX habe ich in BFV an, weil es gerade so noch läuft. Allerdings eben nur mit 60 Hz, mehr macht der Monitor auch nicht. Würde ich mehr FPS auf den Bildschirm bringen können wäre es vermutlich aus. Dann schafft auch die 2080 Ti weit über 60 FPS in dem Spiel. Bei einer Big Navi hätte ich dasselbe Problem, sollte es ernsthaft Richtung 3090 gehen in der Leistung würde ich mir eine kaufen und nächstes Jahr auf einen 120 Hz TV sparen. Aber ohne die Leistung dafür zu haben lohnt sich das nicht. Ich habe damals schon den Fehler gemacht viel zu früh auf die 4K-Auflösung zu gehen. Es wäre sicher grausam, 144 Hz auf dem Desktop und in alten Spielen zu erleben, dann aber nur ~60 zu haben wenn man neuere Titel spielt.

Ja RTX ohne DLSS kannste fast vergessen und daher wird das bei AMD schon schwierig wenn man kein FidelityFX CAS dabei hat.
Doom Eternal wird ja auch noch RT bekommen und da bin ich mal gespannt weil es schon bei Youngblood mega gut war
RTX muss aber auch nicht auf Maximum gestellt werden. Ich dachte immer es gäbe nur eine Einstellung, auf "Ultra" macht eine 2080 Ti dann eben ihre 40 FPS in BFV. Auf "Mittel" habe ich sehr selten Drops in die 50er wenn sehr viel getracted wird im Bild. Also meistens absolut weich mit perfekten Frametimes. Das muss man NVIDIA lassen, auch diverse alte Spiele laufen damit weicher, in diversen DX9-Titeln hatte ich ja das Problem mit der 5700 XT. Witcher 2 war auf AMD fast unspielbar, mir half dort letztlich nur ein Vulkan-Patch (DXVK).
 
Witcher 2 Vulkan patch damit es läuft o_O
 
Man kann aber auf jeden fall sagen das AMD glück hat das NV keine 7nm Fertigung abbekommen hat für die Gaming karten weil sonst wäre es sicherlich recht düster geworden
 
Man kann aber auf jeden fall sagen das AMD glück hat das NV keine 7nm Fertigung abbekommen hat für die Gaming karten weil sonst wäre es sicherlich recht düster geworden
In wie fern?
Es ist halt die Frage ob TSMCs 7nm Prozess wirklich so viel besser ist als Samsungs 8nm?

Und noch wissen wir ja nicht wie die Performance pro Watt bei Big Navi aussehen wird...
Wenn die versprochene Steigerung von 50% Gegenüber RDNA stimmt sehe ich eher ziemlich düster für Nvidia wenn die TGP Angaben von Igor, bzw. Patrick Schur, stimmen...
Beitrag automatisch zusammengeführt:

Das schlimme ist ja das der November echt teuer werden könnte...
CPUs, GPUs.... die Tickets für die Freundin damit sie nicht mitbekommt wie ich mal wieder die PCs umbaue...
d014.gif
a070.gif

Manchmal denke ich eine vorrübergehende räumliche Trennung tut so einer Beziehung ganz gut, besonders in so Monaten wo viel Hardware auf einmal erscheint!
Das gesparte Geld für den Urlaub könnte man wieder re-investieren...
a014.gif
 
Zuletzt bearbeitet:
Das kann nur schief gehen.
Wenn man hier die Topics alle mal quer liest, dann sind da ein paar Leute, die jeden noch so kleinen Strohhalm ergreifen und einen riesen Vorteil für BN daraus basteln.
Der Hype hat hier definitiv schon problematische Bereiche erreicht und kann so einfach nicht aufgehen. Wenn man sich den Spaß erlaubt und die Extremwerte alle mal kombiniert, dann wird BN ca. so aussehen:

* maximal 225 Watt, unter 200 mit UV, trotz OC
* 16GB VRAM, evtl. mehr beim großen Modell
* Preis bei 499
* Leistung mit OC "leicht" über der 3090 und vernichtend über der 3080
* Die Features der GPU leiten eine neue Zeit des gamings ein wegen,... irgend nem Patent oder so (hab ich nur überflogen, irgendwas Magisches halt).

In Summe sollte jedem klar sein, dass das so niemals kommen kann.
Selbst wenn nur zwei der Ansagen stimmen würden, wäre ich schon sehr überrascht.

Ich erwarte da eher zwei Modelle, wobei das kleinere für 700 Euro knapp unter der 3080 sein wird, dafür mit 16 GB. Das größere wird deutlich teurer sein, evtl. knapp unter 4 stellig und die 3080 knapp schlagen, die 3090 aber nicht. Beide werden in Raytracing bei ca. 50-65% der Ampereleistung liegen und zwischen 280 und 350 Watt fressen.
Das wäre immer noch eine Position in der AMD ein gutes Produkt hat und mithalten kann, aber nicht ganz realitätsfremd.

Dass sie nicht direkt zum Ampere Launch gezeigt haben, wie viel besser sie sind, belegt für mich, dass sie es nicht sind. Marketingtechnisch können sie so dämlich nicht sein.
Aber ich bin auch nicht unglücklich, wenn sie mich positiv überraschen. Solange sie im Raytracing mithalten und sonst keine gravierenden Schnitzer haben, ist BN ne valide Option für mich,... Ampere wird eh nicht geliefert aktuell. ;-)
Ähm... wer behauptet das?

- Stromverbrauch wird bei der Top-Karte (XTX) wohl ebenfalls um die 320W liegen - wie Igor es bereits gut geschätzt hat. Hat auch keiner ein Problem mit, denn Nvidia machts ja auch so.
- 16GB VRAM ist in Stein gemeißelt - wer hat da "mehr" behauptet?
- Preis wurde gesagt ~3080 Niveau, evtl. 50 Öcken weniger
- Leistung wurde mehrfach gesagt ist absolut unbekannt - Schätzungen gehen auf ~3080 mit Stock und evtl. reicht es mit Tuning über die 3090 zu hüpfen mit der XTX Variante

Mehrfach wurde gesagt:
- Es wird wohl starke Unterschiede zwischen den titeln geben (aka DX11 vs DX12)
- Preis wird an Nvidias Grakas anhängen
- AMD selbst hat gesagt, dass die an einem DLSS Derivat basteln, aber mit offenen Methoden (Also Microsofts Implementierung)
- Raytracing wird genauso laufen - an die API geflanscht und mit entsprechenden Vor- und Nachteilen (Man erinnere sich an den ~20CU für Raytracing Post)
- Es wird kein Blower
- Treiber sollen zum Launch nicht ganz so katastrophal sein
- Linux Treiber deuten darauf hin, dass nicht alle erweiterten Features direkt zum Launch laufen werden, aber in der experimentellen Umsetzung verfügbar sind (also mal eben 2 Wochen drauf bis das Ding wirklich zündeln darf - wie immer)
- Zen 3 hat gezeigt, dass auf der gleichen Node allein durch Re-Design noch so einiges möglich ist, warum also nicht auch auf RDNA 2? Gibts da Roadblocker von denen du gehört hast?
- Jeder Mensch mit gesundem Verstand sagt: "Warte die Benches ab!"
- Wenn die Benches dann da sind, vergleiche bitte Äpfel mit Äpfel - denn genauso wie es ne rote Brille gibt, gibt es eine grüne
- Nvidia hat die 20GB VRAM Versionen gestrichen - warum wohl? Ignorieren wir das? Hier gibts nix zu sehen?

Tee trinken, Benches abwarten, Beißreflex runterschlucken.

PS: Die Krux bei den Reviews wird wohl wie immer das AMD-Treiber Desaster zum Launch sein und 2 Wochen später, wenn alles so halbwegs stabil läuft wird keine Sau mehr auf die Verbesserung gucken. Gut für mich, denn ich kann 2 Wochen warten und genieße dann die volle Rasterperformance für "etwas günstiger". Wer die 2 Wochen nicht aushalten kann: Es gibt zu mindest in Deutschland die Möglichkeit zur professionellen Beratung, um diese psychischen Ausartungen zu behandeln.
 
Zuletzt bearbeitet:
- Nvidia hat die 20GB VRAM Versionen gestrichen - warum wohl? Ignorieren wir das? Hier gibts nix zu sehen?
Eine schöne Erklärung die ich für Einleuchtend halte:
Eine 20 GB 3080 würde deutlich teurer werden und es Nvidia erschweren über den Preis mit AMD zu konkurrieren, sollte(!!) Big Navi auf das selbe Leistungsniveau kommen!
Ich glaube eine ~ 900€ 3080 mit 20GB Speicher würde sich schwer vermitteln lassen wenn AMD eine 16 GB Karte mit einer ähnlichen Leistung zum Preis der 3080 10GB Variante raushaut!
 
vielleicht hat man die 20Gb 3080 auch gestrichen weil sie die 3090 obsolet macht?
der Unterschied ist ja von der 3080 zu 3090 nicht wirklich der den die Einheiten vermuten lassen.

edit: vielleicht wird es ja per Treiber noch so das die 3090 mehr absetzen kann wenn die shader besser ausgenutzt werden?
takt skaliert halt besser als Einheiten daher ist der schritt von AMD mit RDNA 2 und hohe taktraten natürlich schon nicht schlecht auch wenn takt na klar ordentlich die Effizienz zerstört wenn man über den sweetspot geht. Ich schätze eine RDNA 2 gpu mit den taktraten von Ampere wäre sicherlich super sparsam
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh