AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich versuche grad mich mal so richtig einzugrooven ins Rote :d

von dem her bin ich ab jetzt überzeugt davon das die 6900XTX mit ihren 80CUs, 5120 Shadern und 16 GB HBM2 bei 300 Watt der 3090 so richtig derbe den Arsch versohlen wird :bigok:

ps: ich behalte mir das Recht vor in 4 Wochen meine Meinung komplett zu ändern und dann einfach das Gegenteil zu behaupten 8-)
 
Zuletzt bearbeitet:
ja realistisch gesehen muß man froh sein wenn Amd gut mit der 3080 mitkommt, dazu dann 16 GB Vram und auch Preis so bei 800 Euro, das wäre schonmal ein guter Anfang, und alles andere wäre ne schöne Draufgabe, gerne genommen wenn es so kommt aber ansonsten auch kein Beinbruch.

wirklich enttäuscht wäre ich eigentlich nur wenn man trotz etwas besserer Fertigung so gar nicht an die 3080 rankommen könnte, oder wenn die Karten womöglich wirklich erst knapp vor Weihnachten bzw gar erst im neuen Jahr zu kaufen wären...
 
Da gebe ich dir vollkommen Recht.

Aber, ich sehe das so(auf 2K bezogen):
3080 hat echt gut Leistung, abgesehen vom Speicher, eine Topkarte für 2K. Sogar etwas op für 2K. Und ich denke eine 3070 mit 16GB wäre absolut perfekt für 2K.
Eine AMD die zwischen 3070 und 3080 liegt und 16GB Speicher bietet? Why not^^ völlig ausreichend und wäre verfügbar sofort gekauft.

4K sollte man eh auf eine 3080 (tisuperduperwieauchimmer) warten oder direkt eine 3090 nehmen.
 
@Nosferatu666 du übersiehst absichtlich, dass es etliche Leute gibt (inklusive mir + Freunde und Verwandte), die Amd Karten wie Polaris, Vega und Navi vollkommen ohne übermäßige Probleme einsetzen. Klar alle paar Monate crashed mal ein Spiel, aber Bugs gibt es überall.

Es handelt sich also offensichtlich nicht um generelle Hardwareprobleme oder generelle Treiberprobleme, sonst hätte die ja jeder.
Es sieht eher danach aus, dass bestimmte Boardpartner es komplett vermasselt haben (wie jetzt Zotac bei der 3080) und viele die Karten mit schlechten Netzteilen betreiben oder Daisy Chaining machen statt getrennte Stromversorgungen zu nutzen.

Probleme in dem Umfang und der Allgemeingültigkeit wie du es behauptest existieren schlicht nicht.

BN wird ein brauchbares Konkurrenzprodukt zur 3080, sonst wäre die 3080 nicht so idiotisch auf Kante genäht.
RT wird dabei sein, aber nicht übermäßig gut. Das ist es bei Nvidia allerdings auch nicht. Um die ganze Raytracing Technik wirklich voll auszunutzen werden wir sowohl bei Nvidia als auch bei Amd noch ein paar Generationen brauchen.

AMDs DLSS Konkurrent wird besser werden verglichen zur letzten Generation, aber letztlich kommt es da auf die Unterstützung durch die einzelnen Spiele an. Vermutlich werden sich Amd und Nvidia da irgendwann auf einen offenen Standard einigen .... Läuft zumindest meistens so. Diese "ich koch und ess nur mein eigenes Süppchen" ist letztlich das was ich bei Nvidia unsympathisch finde und jeder bei Verstand sollte es unsympathisch finden, denn es schadet uns Nutzern nur.

Die Effizienz und OC Potential Krone wird dieses Mal an Amd gehen. Nvidia behält die Krone bei Streaming und Cuda.

Zitiere mich ruhig beim Release, falls ich falsch liege. Ich mache mir da aber wenig Sorgen.
 
ich versuche grad mich mal so richtig einzugrooven ins Rote :d

von dem her bin ich ab jetzt überzeugt davon das die 6900XTX mit ihren 80CUs, 5120 Shadern und 16 GB HBM2 bei 300 Watt der 3090 so richtig derbe den Arsch versohlen wird :bigok:

ps: ich behalte mir das Recht vor in 4 Wochen meine Meinung komplett zu ändern und dann einfach das Gegenteil zu behaupten 8-)
Ist das dann die Holzmann‘sche Taktik ?
 
etwas aufgeräumt, bitte wieder mehr ruhe ab jetzt
 
Angeblich war bei Newegg kurzzeitig (aktuell werden die Karten nicht mehr erwaehnt) ein Blogeintrag mit BN online; lt. dem haette das Topmodell eine TDP von 300W und einen Basistakt von 1.5 GHz.

EDIT: Seltsam. In meiner Erinnerung war man mal knapp, mal deutlicher unterhalb der 1080 Ti unterwegs. Ich wuerde da nun nicht von einem Klassenunterschied sprechen - aber uebertroffen wurde da mal nix. Oder meintest Du die Lautstaerke?

Leider hast du recht. Die VII war höchstens gleichwertig in Sachen Leistung, verbrauchte dafür enorm viel und war extrem laut. Selbst die 5700 XT übertraf die eigene Karte später in all diesen Punkten bis auf in Sachen Leistung, wobei sie im Mittel nur 10 % langsamer als eine 1080 Ti ist.

ich versuche grad mich mal so richtig einzugrooven ins Rote :d

von dem her bin ich ab jetzt überzeugt davon das die 6900XTX mit ihren 80CUs, 5120 Shadern und 16 GB HBM2 bei 300 Watt der 3090 so richtig derbe den Arsch versohlen wird :bigok:

ps: ich behalte mir das Recht vor in 4 Wochen meine Meinung komplett zu ändern und dann einfach das Gegenteil zu behaupten 8-)

Das würde ich zu gerne auch. Aber aktuell ist es reines Hoffen. Hast du etwas Handfestes dass die XTX mit HBM2 kommen wird? Damit hätte sie auf jeden Fall ausreichend Bandbreite, die Frage ist nur was das Ganze dann am Ende kosten soll.
 
900€ sind reserviert für eine neue Grafikkarte.
Nvidia scheint das Geld ja nicht zu wollen.
Also hoffe ich dass die Leistung stimmt und freue mich auf very big Navi.

Zumindest, wenn der Leistungssprung von der 1080ti spürbar und nicht nur messbar ist.
Irgendwie habe ich da etwas Bammel wegen der Speicheranbindung...
 
Das würde ich zu gerne auch. Aber aktuell ist es reines Hoffen. Hast du etwas Handfestes dass die XTX mit HBM2 kommen wird? Damit hätte sie auf jeden Fall ausreichend Bandbreite, die Frage ist nur was das Ganze dann am Ende kosten soll.
natürlich nicht, das war rein aus den Fingern gesaugt :d weil eben die Rumors behaupten Big Navi könnte sowohl mit GDDR als auch mit HBM als Speicher umgehen und weil ich einfach hoffe das die 256bit mit den 512 GB/s fürs Speicherinterface nicht stimmen, denn das wäre ein massiver Rückschritt und ginge schon wieder in Richtung Murks oder gar Speicherkrüppel...

wenn man 3080 Leistung erreicht oder womöglich je nach Game sogar sich zwischen 3080 und 3090 quetschen könnte und das ganze mit 16GB Vram, dann dürfte man bei den aktuellen Preisen von Nvidia wohl auch mit Fug und Recht 1000 Euro verlangen, dann wäre das eventuell auch mit HBM2 machbar um damit trotzdem kein Verlustgeschäft zu machen.

naja mal schauen. Mir wäre beides recht (also GDDR und HBM2) solange man 12-16GB Vram hat und min 3080 Leistung und das zwischen 800 und 1000 Euro.
 
Zuletzt bearbeitet:
natürlich nicht, das war rein aus den Fingern gesaugt :d weil eben die Rumors behaupten Big Navi könnte sowohl mit GDDR als auch mit HBM als Speicher umgehen und weil ich einfach hoffe das die 256bit mit den 512 GB/s fürs Speicherinterface nicht stimmen, denn das wäre ein massiver Rückschritt und ginge schon wieder in Richtung Murks oder gar Speicherkrüppel...
Wieso sollte dem Murks oder Speicherkrüppel sein?
Ihr wisst doch nichtmal, was die Architektur an Bandbreite notwendig hat bzw. wie AMD das ganze löst?
Klar kann man immer mit Bandbreite drauf kloppen, aber irgendwo oben steigt der Energiebedarf und der Mittelaufwand überproportional zur erzielten Mehrleistung. Es kommt am Ende wahrscheinlich primär darauf an, was AMD mit dem Teil vor hat bzw. für welche Märkte die Chips genutzt werden sollen. CDNA und RDNA sind neuerdings zwei verschiedene Architekturen für verschiedene Ansätze. AMD folgt also ein Stück weit dem NV Weg und fängt da an zu trennen. ABER, anders als NV (zumindest nach bisherigen Gerüchten) wird die FP32 Leistung bei RDNA2 in BigN nicht um Faktor 2 pro Einheit erhöht. Für Gaming wird eine BigN sicher nicht wirklich 700, 800, 900GB/sec an Bandbreite wirklich brauchen. Vllt lässt man hier und da bisschen Performance liegen, geschenkt. Im Compute schaut das anders aus. GA102 mit 10k FP32 ALUs dreht Kreise bei reinem Compute Workload um die alte Turing Technik. Und das will halt auch mit Bandbreite versorgt werden. Wenn AMD den gleichen Schritt nicht auch geht, dann wird BigN in Software abseits Gaming nicht mithalten können. Bspw. belegt ein Blender Renderjob, dass die Leistung wirklich da drin ist - in Games wird sie aber nicht ausgefahren. Wahrscheinlich auch deswegen nicht, weil andere Teile vorher limitieren. Am Powerbudget liegt das auch nicht wirklich, wie man in den ersten OC Versuchen mit Shuntmod oder Modbios sieht. Poplige 10-15% oder so aus 50% und mehr an mehr Verbrauch - das steht in keiner Relation. An der Bandbreite scheitert es wohl auch nicht. Insofern wäre eher die Frage, wo will AMD damit hin? Quasi reinrassig auf Gaming bzw. Graphics-Workload getrimmt, kann man wohl entgegen NV schon ganz paar Sachen weg lassen. Spart Enerige und spart vor allem Fläche. Die Ampere Shader sind riesig mit ihren FP32 + FP32/INT Einheiten.

Kurzum - ein Speicherkrüppel bemisst sich nicht daran, was die Konkurenz bringt, sondern daran, was das Produkt notwendig hat. Es gab in der Vergangenheit genug Beispiele, wo ein Einkürzen des SI keine negativen Folgen hatte, eher im Gegenteil. Auch bei AMD nicht. Bei GCN wäre da bspw. Tonga vs. Tahiti zu nennen. Tonga tut das schlicht keinen Abbruch 1/3tel vom SI eingebüßt zu haben. Oder ne Radeon VII vs. Navi 10 mit Winzling SI.
Wichtiger ist, dass die Speichermenge stimmt. 8GB für den TopDog sind zu wenig. 16GB aber mMn definitiv ausreichend. Wenn es aber ein 384Bit SI beim großen RDNA2 Navi wird, wirds schon "sportlicher" - weil 12GB ist ausreichend und OK. Über jeden Zweifel erhaben wäre aber auch eher 24GB. Den Mittelweg gibts dann dort nicht.
 
Es macht eben kaum Sinn da 256-Bit zu verbauen außer es handelt sich um das mittlere Modell. Die XT hatte schon 256-Bit, da die Karte auf jeden Fall etwas mehr Rohleistung haben wird warum sollte man dann auf 192-Bit gehen und die Bandbreite reduzieren?

12 GB sind durchaus möglich bei 384-Bit. Das wäre etwas schade, sollte man aber nur auf die 3080 abzielen ist es dennoch realistisch. Dann sollte aber der Preis stimmen, in dem Fall wäre es auch fraglich ob ich für 1 GB VRAM und ein paar Prozent Mehrleistung nochmal wechsele. Die 3090 könnte man, sofern möglich, mit einer riesigen HBM-Karte im Profisegment angreifen. So eine Karte für 1 K wäre sehr fair und würde von mir sehr wahrscheinlich direkt gekauft. Wobei hier auch wieder die Verfügbarkeit reinspielt. Ich habe gerade nochmal aus Spaß gekauft, ~14 Seiten 2080 Ti-Gesuche bei denen "350 € sehr fair" sein sollen :lol: :bigok: - Die 3080er gehen ab ~1100 € los, alles andere nur Gesuche. Wenn AMD nicht genügend Karten liefert wird es dann noch schlimmer werden.
 
Wieso sollte dem Murks oder Speicherkrüppel sein?
Ihr wisst doch nichtmal, was die Architektur an Bandbreite notwendig hat bzw. wie AMD das ganze löst?
mir ist schon klar das ein kleineres Speicherinterface für zb den Energiebedarf auch sein Vorteile hat, aber ein 256Bit Speicherinterface würde doch irgendwie den Vorteil von viel Vram wieder egalisieren ?

sprich was nützen mir 16GB Vram wenn ich sie dann mit "nur" 512 MB/s beschreiben kann ? klar man braucht vielleicht keine 1GB/s aber nur die Hälfte ist halt schon etwas dürftig auch wenns "nur" für den Gaming Bereich ist - laut Amds Aussagen oder hab ich das falsch im Kopf (also das nun wieder mehr Unterschiede geben wir in den einzelnen Ansätzen Gaming und Compute?)

finde ich btw auch irgendwie witzig, bis jetzt war es eigentlich immer so das Amd bei Compute und Gaming eine sehr ähnliche Grundlage hatte, nun will Amd weg davon und Nvidia wendet sich diesem Ansatz immer mehr zu, oder täuscht mich das ?
 
Leider hast du recht. Die VII war höchstens gleichwertig in Sachen Leistung, verbrauchte dafür enorm viel und war extrem laut. Selbst die 5700 XT übertraf die eigene Karte später in all diesen Punkten bis auf in Sachen Leistung, wobei sie im Mittel nur 10 % langsamer als eine 1080 Ti ist.



Das würde ich zu gerne auch. Aber aktuell ist es reines Hoffen. Hast du etwas Handfestes dass die XTX mit HBM2 kommen wird? Damit hätte sie auf jeden Fall ausreichend Bandbreite, die Frage ist nur was das Ganze dann am Ende kosten soll.


Eine 5700 XT war doch nicht langsamer als eine 1080 Ti 🤔

Edit:
Hätte mal nicht nur auf meine 2 Games, sondern auf den Durchschnitt gucken sollen und hier liegt die 1080 Ti tatsächlich etwas vor der 5700 XT.

Edit2 & btt:
Ich bin inzwischen immer optimistischer, dass es AMDc mit einem besseren Gesamtpaket, mit der 3080 aufnehmen kann. Wäre echt cool. Muss ich nur hoffen, dass es auch gescheite 2 Slot Karten geben wird, sonst bringt mir das alles nichts 😂
 
Zuletzt bearbeitet:
doch eine 5700XT ist bis auf wenige Aussnahmen (RDR2 zb) doch immer noch langsamer als ne 1080ti - ich hab beide hier kann es also recht gut vergleichen.

die 5700xt sapphire nitro ist im schnitt ca 10-15% langsamer als meine 1080ti lightning beide sind moderat übertaktet und undervoltet (wenn ich beide ans Limit Treibe sind es sogar bis zu 20% zugunsten der TI)

man kann aber sagen die 1080ti altert immer schneller, sprich je neuer das Spiel umso größer die Chance das die 5700XT knapp drann oder manchmal sogar schneller ist...
 
Eine 5700 XT war doch nicht langsamer als eine 1080 Ti

Leistung ist vergleichbar, mal ist die eine vorne mal die andere:

 
Ich hatte mir nur Battlefield 5 und Horizon Zero Dawn angeschaut (da das die 2 leistungshungrigen Spiele sind, die ich so spiele) und in beiden Spielen liegt die 5700 XT vor der 1080 Ti. Aber egal, gehört hier nicht her. Scheint auch eher die Ausnahme als die Regel zu sein.

Mich interessiert er ob und wie viel die BigN vor der 2080 Ti liegen 😁😁😎
 
Zuletzt bearbeitet:
Leistung ist vergleichbar, mal ist die eine vorne mal die andere:


Ne, eine 1080ti ist gute 10% schneller als eine 5700XT. Nutzt doch mal richtige Benches und nicht solch unseriösen Bullshit.

 
Wenn AMD die Leistung auf die Straße bekommen sollte, dann könnte uns ein heißer Herbst erwarten. Bezüglich DLSS hat NVIDIA anscheinend einen Vorteil in Sachen Qualität. Die Methode soll aber sehr aufwändig sein. AMD hat angeblich eine Upsampling-Technologie, die zwar nicht an die Qualität von Nvidia rankommt, aber mit allen Spielen kompatibel sein soll. Dabei ist ausdrücklich nicht die Rede vom derzeitigen Upscaling.
 
Eine 5700 XT war doch nicht langsamer als eine 1080 Ti 🤔

Doch, aber nur minimal. Ich hatte sogar zwei 5700 XT und eine 1080 Ti FTW3. Am Ende merkte man aber kaum was, ob da nun 3 FPS fehlen oder nicht, was die XT nicht flüssig bewältigt macht die Ti auch nicht flüssiger.

DLSS juckt mich nicht groß, ich werde es demnächst mal antesten, nativ ist aber immer noch am Besten und funktioniert zudem in jedem Spiel. Das Raytracing ist auch mehr eine Dreingabe. Sieht nett aus, merkt man beim Spielen aber meistens überhaupt nicht und der Leistungshunger ist enorm. Für mich als 60 Hz-Zocker noch vertretbar, hätte ich 144 Hz wäre es wieder ein ewiger Kampf zwischen Qualität und Framerate, den am Ende die Framerate gewinnen würde würde ich sie auf den Bildschirm bringen können.

Was mir auch aufgefallen ist ist dass die 1080 Ti in neueren Spielen hinter die 2070 gerückt ist. Selbst die XT liegt oft minimal davor. Die Treiber lassen nach. Deshalb würde ich eher eine neue oder gebrauchte 5700 XT nehmen, wer mehr als 8 GB braucht wird demnächst so oder so wieder wechseln wollen. Als Übergangskarte ist die XT durchaus zu gebrauchen.

Es wäre schön wenn es mindestens 25 % und mehr VRAM wären bei der Navi zu einem guten Preis, das heißt um die 800 € und lieferbar. Die Ti bringt dann hoffentlich noch gut Kohle, am Besten natürlich mehr als ich bezahlt habe oder gleich viel, was bei den aktuellen Preisen durchaus realistisch wäre. Für 200 € könnte man dann ein kleines Zukunftsicherheits-Upgrade machen. Die Ti wird nämlich dasselbe Schicksal ereilen.
 

  • Radeon RX 6700 XT (Navi 23): 2.560 Shader, 6 GiB GDDR6 mit 384 Bit, 150 Watt TDP
  • Radeon RX 6800 XT (Navi 22): 3.840 Shader, 12 GiB GDDR6 mit 384 Bit, 200 Watt TDP
  • Radeon RX 6900 XT (Navi 21): 5.120 Shader, 16 GiB GDDR6 mit 512 Bit, 300 Watt TDP
Nein das ist keine Wunschtabelle, ist von PCGH!
Also wenn die 6900 XT so kommt :fresse2: 😋 dann ist die sowas von gekauft und wird bestimmt über der 3080 liegen:coolblue: :bigok:
 
Zuletzt bearbeitet:
Ich verlinke dazu mal die richtige Quelle:
 
Ich verlinke dazu mal die richtige Quelle:
Ach ja mal 256 Bit mal 512 Bit :rolleyes2: Ich hoffe die 512 Bit kommen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh