RDNA 2: Big Navi soll in drei Chipgrößen kommen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
amd-navi.jpg
Aus asiatischer Quelle stammen neue Informationen zu den GPUs auf Basis der Navi-2-Architektur, die als Big Navi Ende 2020 erwartet werden. Die Informationen stammen aus dem asiatischen Posting-Netzwerk ptt.cc und dort vom Nutzer AquariusZi, der schon in der Vergangenheit für korrekte Leaks sorgte.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Navi-23-GPU bedient die Mittelklasse, die Navi-22-GPU die gehobene Mittelklasse und die Navi-23-GPU bildet als Speerspitze das High-End-Segment ab.

Müsste die Mittelklasse nicht die Navi-21 bedienen ?.
Ne anders rum, die 21 müsste die Speerspitze sein, bin verwirrt :ROFLMAO:.

Ist ja auch egal, irgendwas stimmt in dem Satz auf jeden Fall nicht.
 
Weil? Größere Zahlen = Besser? :d

Edit: @DARK ALIEN trink deinen Kaffee mal aus und komm nochmal rein :fresse2:
 
Ich sage RDNA2 soll nicht in drei Größen kommen.
Bekomme ich auch jetzt eine News?
 
Mit 2x5700xt Leistung bin ich aber zuversichtlich, dass man auch im Highend gegen Nvidia zukünftig aufgestellt ist.
 
Aber Nvidia rendert ja jetzt auf 360p mit upskaling auf 8k mit 500 trillionen FPS und es sieht noch schärfer aus als das Original! Gut - funktioniert nur auf trainierten Titeln und nur so lange es sich um eine klare Szene ohne Effekte handelt, aber das sind Details - kaufe,n kaufen, kaufen!
 
Aber Nvidia rendert ja jetzt auf 360p mit upskaling auf 8k mit 500 trillionen FPS und es sieht noch schärfer aus als das Original! Gut - funktioniert nur auf trainierten Titeln und nur so lange es sich um eine klare Szene ohne Effekte handelt, aber das sind Details - kaufe,n kaufen, kaufen!
Ganze 360p? :shot:
 
Doppelte Leistung der 5700xt würde ich gerne nehmen, solange es bezahlbar ist.
Meine 1080ti will endlich in Rente, auch wenn sie noch länger Garantie hat...

Bisher gab es aber schlicht nichts,vwas einen Wechsel rechtfertigen würde.
 
Wird nicht immer darüber diskutiert, das größere Chips = mehr Silizium = höhere Kosten? Dann sehe ich aber schwarz, wenn der Chip doppelt so groß wird.
 
Da
Wird nicht immer darüber diskutiert, das größere Chips = mehr Silizium = höhere Kosten? Dann sehe ich aber schwarz, wenn der Chip doppelt so groß wird.
Fliessen mehrere faktoren ein. Die yield fliesst ein, wie weit vorangeschritten (und damit abbezahlt der prozess und die investitiond darin) ist.

Grossabnahmepreise...
 
Was ist eigentlich aus dem Chiplet-design bei den GPUs geworden?
 
Aber Nvidia rendert ja jetzt auf 360p mit upskaling auf 8k mit 500 trillionen FPS und es sieht noch schärfer aus als das Original! Gut - funktioniert nur auf trainierten Titeln und nur so lange es sich um eine klare Szene ohne Effekte handelt, aber das sind Details - kaufe,n kaufen, kaufen!
Ich denke nicht das man als AMD Consumer Witze über Treiber-Features anderer Hersteller machen sollte :o. Gute AI Scaler, die du noch nie verwendet hast, sind die Zukunft auch dort hat AMD komplett verschlafen ähnlich wie beim Echtzeit Hardware-Encoding vor geraumer Zeit.

Wird nicht immer darüber diskutiert, das größere Chips = mehr Silizium = höhere Kosten? Dann sehe ich aber schwarz, wenn der Chip doppelt so groß wird.
Im Gegensatz zu dem Käse den Deckstein erzählt ja, immer. Ist aber noch ok die Chipgröße, und ohne Hände keine Kekse, man muss schon etwas reinpacken in den Chip um ansatzweise gegen Ampere zu konkurrieren. Muss aber nicht zwingend ein Vermögen kosten, Nvidia wird aber sehr wahrscheinlich auch preiswerter wieder werden.

Was ist eigentlich aus dem Chiplet-design bei den GPUs geworden?
Das kommt bei Nvidia mit Hopper, und wahrscheinlich erstmal für den HPC Bereich von Intel in Form der XE bzw. Ponte Vecchio. AMD keine Ahnung, könnte mir vorstellen mit dem Infinity Fabric und das man vermehrt auf HBM gesetzt hat man schlicht keine Notwendigkeit sieht für Multi-GPUs, das wird eh noch ne sehr harte Nuss geben die es zu knacken gilt für Echtzeitanwendungen.

Mit 2x5700xt Leistung bin ich aber zuversichtlich, dass man auch im Highend gegen Nvidia zukünftig aufgestellt ist.
Wie kommst du auf 200% Mehrleistung bei grob geschätzten 50% mehr Effizienz ?
 
100% schneller als eine 5700xt, so wird es vermutet.
 
Ich bin gespannt wie ein Flitze Bub, wenn die Tests vorliegen und welche Preise auserkoren werden. Selbst 50 % Mehrleistung gegenüber 5700 XT wäre ja eigentlich nicht schlecht. Zu einem vernünftigen Preis 😜
 
Im endeffekt wiw damals von der hd 4870 zur hd 5870.
Rechnet mal bei doppelter leistung zur 5700xt im vollausbau.

@Infi88 Nix käse. Kann locker sein dass 300mm² im 14nm prozess fünstiger sind als 300mm² im 7nm prozess. Und das selbe gilt für 7nm und 7nm+
 
100% schneller als eine 5700xt, so wird es vermutet.
100% mehr von 100% also x2 wie du geschrieben hast, sind 200%. Erwähnt wurden nur die 50% Energieeffzienz hier, die wohl auch noch einfach mit nimmst richtig :unsure:? Wohlgemerkt wahrscheinlich selber Fertigungsprozess vllt. auch ohne EUV, RT Pipeline muss auch noch rein.

Ampere gehen die verrücktesten Spekulationen bei FP32 bei etwa 40-60% mehr Leistung und evlt. noch etwas übrig gebliebener Energieersparnis aus.


Im endeffekt wiw damals von der hd 4870 zur hd 5870.
Rechnet mal bei doppelter leistung zur 5700xt im vollausbau.

@Infi88 Nix käse. Kann locker sein dass 300mm² im 14nm prozess fünstiger sind als 300mm² im 7nm prozess. Und das selbe gilt für 7nm und 7nm+
Die 5870 ist auch noch eine Top-Karte gewesen von vor dem Übernahme Debakel, völliger Non-Sens zu meinen aus heiterem Himmel übernimmt man die Führung im discrete market weil man in Nostalgie schwelgt.

Und du weißt doch gar nicht was AMD für Kosten hat, es ging um die Chipfläche nicht dein 14nm vs 7nm Gefasel.
Davon ab das die Unkosten für schlechten Yield TSMC höchstwahrscheinlich tragen wird, sind große Chips teils dramatisch teurer in der Masse, gilt für jede Node bei jedem Hersteller, erzähl doch keinen Wunschdenken-Käse.
Wobei zu betonen ist das es sich noch in "Grenzen" hält, auch wenn 505 mm² für 7nm Chips doch relativ groß ist und das wird logischerweise seinen Preis haben.
 
Werden die Treiberprobleme dann noch krasser? Ich sehe es schon kommen :fresse2:
 
Welche Treiberprobleme?
 
meine Herren, mir gehen diese häppchenweisen Spekulationen und Ankündigungen und Verschiebungen schon dermassen auf den Senkel - ich will endlich neue Grafik - HARDWARE sehen und kaufen können - scheixx Amd, Nvidia und Corona :motz:

ich würde so gerne mal ne Runde RDR2 in 4K drehen aber mit der 1080ti machts keinen Spass und jetzt schaff ich es einfach nicht mehr Nvidia das Geld für ne 2080ti in den Rachen zu hauen (aber wer konnte zum 2080ti Release schon damit rechnen das es sooooo lange dauern würde bis es was besseres gibt, mittlerweile wäre ich froh wenn ich mir zum Release doch ne 2080TI gekäuft hätte :fresse2: )
 
100% mehr von 100% also x2 wie du geschrieben hast, sind 200%. Erwähnt wurden nur die 50% Energieeffzienz hier, die wohl auch noch einfach mit nimmst richtig :unsure:? Wohlgemerkt wahrscheinlich selber Fertigungsprozess vllt. auch ohne EUV, RT Pipeline muss auch noch rein.

Ampere gehen die verrücktesten Spekulationen bei FP32 bei etwa 40-60% mehr Leistung und evlt. noch etwas übrig gebliebener Energieersparnis aus.


Die 5870 ist auch noch eine Top-Karte gewesen von vor dem Übernahme Debakel, völliger Non-Sens zu meinen aus heiterem Himmel übernimmt man die Führung im discrete market weil man in Nostalgie schwelgt.

Und du weißt doch gar nicht was AMD für Kosten hat, es ging um die Chipfläche nicht dein 14nm vs 7nm Gefasel.
Davon ab das die Unkosten für schlechten Yield TSMC höchstwahrscheinlich tragen wird, sind große Chips teils dramatisch teurer in der Masse, gilt für jede Node bei jedem Hersteller, erzähl doch keinen Wunschdenken-Käse.
Wobei zu betonen ist das es sich noch in "Grenzen" hält, auch wenn 505 mm² für 7nm Chips doch relativ groß ist und das wird logischerweise seinen Preis haben.
Übernahme debakel?
 
Und du weißt doch gar nicht was AMD für Kosten hat, es ging um die Chipfläche nicht dein 14nm vs 7nm Gefasel.
Davon ab das die Unkosten für schlechten Yield TSMC höchstwahrscheinlich tragen wird, sind große Chips teils dramatisch teurer in der Masse, gilt für jede Node bei jedem Hersteller, erzähl doch keinen Wunschdenken-Käse.
Wobei zu betonen ist das es sich noch in "Grenzen" hält, auch wenn 505 mm² für 7nm Chips doch relativ groß ist und das wird logischerweise seinen Preis haben.

AMD sagte einmal, dass der yielded mm² bei 7nm bei ca. dem doppelten von der 12/16nm Geschichte liegt/lag.
Das geht auch einhand mit der Preisanpassung der 7nm Produkte, die dann eben trotz vermeindlich geringer Chipfläche dennoch hohe Preise aufrufen und (laut den Quartalszahlen) dennoch hohe Gewinne/Margen ausbleiben. (OK, das ist äußerst schwammig, weil nicht einzeln ausgeführt - aber es reicht um zu sehen, dass da wirklich viel Luft nicht zu sein scheint bei den mickrigen Beträgen, die über bleiben vom Umsatz.)

Btw. wieso sollte TSMC niedrige Yields selbst tragen? Das macht eine Intel, die für sich selbst fertigen, weil ihnen nix anderes über bleibt wenn das dennoch gefertigt werden soll. Aber ein Auftragsfertiger kalkuliert die Yields in den Preis -> niedrigere Yields = höhere Preise. Auf den Kosten wird eine TSMC ganz sicher nicht sitzen bleiben. Das zahlt ziemlich sicher AMD selbst... Von Fehlern bei der Produktion mal abgesehen, dafür dürfte es Versicherungen oder sonder Klauseln im Vertrag geben.

Welche Treiberprobleme?
Und wieder stellst du dich absichtlich doof. Als ob du nicht wüsstest, was mit Treiberproblemen gemeint ist, wo du höchstselbst im hiesigen Thread um genau dieses Thema anwesend bist und alle Nase lang deinen Senf dazu abgibst. Inkl. Aussagen, dass du durch sonstwede Verrenkungen (Windows 7, niedrige Auflösungen und was weis ich noch alles) die Probleme minimieren konntest, zumindest in der Zwischenzeit... :stupid:

Ernsthaft, was soll dieser Kindergarten? Kannst du nicht einfach mal was konstruktives beitragen? Anstatt dieses selten dämliche dummgestelle um irgendwelche Aussagen von Leuten, die da nicht drüber nachdenken zu triggern - die dann wieder die Fans der Lager auf den Plan rufen? Muss das sein?

ich würde so gerne mal ne Runde RDR2 in 4K drehen aber mit der 1080ti machts keinen Spass...
Details runter ist keine Option?
Sooo viel schneller ist die 2080TI jetzt auch nicht. Klar ist das ne Menge, in Relation gesehen, aber die 2080TI erreicht auch keine 60+ FPS mit sinnvollen höchst-BQ Settings (abseits unnötiger AA Orgien) in UHD. Sprich der Vergelich wäre auch nur zwischen, läuft scheiße und läuft immernoch scheiße, wenn auch bisschen weniger, gewesen.
Und wenn man eh auf BQ verzichten muss um die Auflösung zu erreichen - dann kann man das direkt auch so hindrehen, dass es für einen passt??


Ansonsten musst du wohl eh noch warten. Egal wie man es dreht, ich würde nicht davon ausgehen, dass die große der Navi GPUs, die da kommt, sonst wie viel schneller als die 2080TI ist. Für RDR2@4k bedeutet das, dass du bestimmt nicht wirklich glücklich sein wirst. Wie schauts mit MGPU Support aus? Hab kein RDR2 - daher kann ichs nicht testen... GTA V hat ja ganz brauchenbaren SLI Support bzw. skaliert zumindest ganz gut, abseits CPU Limit in so manchen Regionen.
Wäre zumindest ein Ansatz, wenn das tut, dann können 2x 2080TIs mit OC in die Region 60 FPS kommen...
 
Die blackscreen Sachen von Navi haben was mit BN zu tun?
Außerdem ist nicht klar, ob die blackscreens bei xt5700 ein Treiberproblem ist, das muss man mal ganz klar so sagen, glaube sogar eher an ein Problem in Hardware, aber ist hier nicht das Thema.

Immer alles auf den Treiber zu schieben ist einfach unfair.
 
Übernahme debakel?
Eine Anspielung auf den AMD übernimmt ATI - Deal aus 2006 -> die Anteile von AMD an der RV870 GPU dürften nicht sooo groß gewesen sein, sprich das stammt in großen Teilen noch aus der ATI Feder ohne nennenswerten Einfluss von AMD selbst. Wenn man das so sagen kann.
Und Debakel - ja, je nach Sichtweise. Man sagtem dem Deal ja nach, dass es viel zu teuer für AMD war auf "Krampf" ATI zu schlucken. Ob sie das kurz- bis mittelfristig voran gebracht hat, darf mMn definitiv bezweifelt werden. Aber langfristig war es ein Vorteil. Ohne ATI keine Konsolen Deals in der Form. Und ohne ATI keine APUs in der Form.
Es gibt gar Überlegungen bzw. Hochrechnungen, dass AMD womöglich bis heute nicht genug Einnahmen generiert hat aus dem GPU Geschäft, um unter den Deal eine +-0 zu schreiben - ob das stimmt, kein Plan... Die Details sind ja nicht public, also welchen Anteil die GPUs mittlerweile haben. Viel wirds aber nicht sein, da die Gewinne aktuell eher Ryzen zuzuschreiben wären, denke ich.

Immer alles auf den Treiber zu schieben ist einfach unfair.
Deswegen ging es vor gewissen Treiber Versionen und nach gewissen Treiber Versionen auffallend besser? Jaja, bau dir deine Welt wie sie dir gefällt...
 
Das ist mir alles klar, aber das als debakel darzustellen halte ich für sehr mutig.

Geisterte nicht eine zahl von 5 milliarden herum?
Und damals war intel schon der grösste gpu lieferant(office kisten mit integrierter gpu) amd hat einfach gesehen dass man da eine nachfrage hat, die bedient werden will.
 
Details runter ist keine Option?
sorry für noch ein bisschen OT - aber selbst mit ordentlich Details runter macht es mit der 1080ti einfach nicht wirklich Laune da selbst hier noch oft Drops unter 30fps sind und dann Sync auch nicht mehr klappt und es dann schon merklich ruckelt und das einfach das Feeling stört - Pascal performt in RDR2 einfach schlecht - da ist meist sogar ne 5700XT ein bisschen schneller. Mit ner 2080ti könnte man mit ein bisschen spielen an den Details (ohne das es wirklich an der Grafik weh tut schon so 45-50Fps als absolutes Minimum halten und damit würde Sync funtkionieren und ich hätte keine Ruckler.

Und ich denke mal so 50 Ffps sollte Big Navi wenn nichz alles daneben geht, doch auch schaffen und damit wäre ich im Grunde schon zufrieden - mehr ist natürlich immer besser und sollte gar vor oder kurz nach Big Navi - Nvidia mit ner 3080ti kommen die vielleicht durchgehend sogar die 60FPS in RDR2 4K schafft - dann wäre sowieso alles klar.

Nur hatte ich mit beiden Optionen so bis Sommer 2020 gerechnet und nun ist damit essig - so aber thats life und nun wieder btt :angel:
 
Deswegen ging es vor gewissen Treiber Versionen und nach gewissen Treiber Versionen auffallend besser? Jaja, bau dir deine Welt wie sie dir gefällt...

Zeig uns doch mal bitte einen Quelle, wo AMD sagt, dass Navi ein Treiberproblem hat.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh