AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

GDDR6 soll mir recht sein wenn dadurch bessere Preise erzielt werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gerüchte. Ich glaube nur die, die mir passen :banana:
 
Viel erschreckender finde ich dass aktuell spekuliert wird dass Nvidia NICHT liefert :eek:
(schlechtere Effizienz als bei Turing :hmm:)
Wenn dem so sein sollte, kann dies nur zwei Gründe haben -> entweder NV hat das mit TSMC wirklich komplett verkackt und muss jetzt auf den Prozess gehen, der von Samsung angeboten wird und der dann offenbar weit weniger gut ist als bisher angenommen. Oder NV knallt mit Takt auf den Haufen drauf um die Leistung auf Biegen und Brechen zu steigern. (oder beides)

So recht möchte ich das aber bisher nicht glauben. Das was dort aktuell spekuliert wird, scheint mir eher das zu sein, was seinerzeit Turing mal hätte sein sollen!? Es war schon vor Turing Release im Gespräch, dass da 10nm Samsung Fertigung im Raum stand. Mal gucken was bei rum kommt...

Was die News von CB zu BigN angeht - ich teile irgendwie die Ansicht da nicht so recht, was ihre NV Spekulation angeht. Sie sagen, bei Ampere wäre vieles bekannt -> effektiv wissen wir nichts. Weder die Leistung noch die Leistungsaufnahme noch wann da was wie kommt. Keinen Shaderaufbau, keine Größen, wir wissen nichtmal ob Ampere auf GA100 gleich dem Ampere auf GA102 wird oder nicht. GV100 und Pascal waren auch nicht gleich. Und GV100 und Turing auch nicht, wenn auch ähnlicher.

Dagegen wirken die AMD BigN Gerüchte schon fast langweilig, weil die 50% Effizienzverbesserung mit der eh seit Monaten im Raum stehenden Navi10 x2 Ausbaustufe relativ gut abschätzen lässt, wo das in etwa hin gehen wird. Bei NV hingegen kann das alles und nix sein. Von 50-70% und mehr über 2080TI bis hin zu nur 20-30%, alles möglich. Manches spricht für letzteres, anderes wiederum nicht.
 
Wenn dem so sein sollte, kann dies nur zwei Gründe haben -> entweder NV hat das mit TSMC wirklich komplett verkackt und muss jetzt auf den Prozess gehen, der von Samsung angeboten wird und der dann offenbar weit weniger gut ist als bisher angenommen. Oder NV knallt mit Takt auf den Haufen drauf um die Leistung auf Biegen und Brechen zu steigern. (oder beides)

So recht möchte ich das aber bisher nicht glauben. Das was dort aktuell spekuliert wird, scheint mir eher das zu sein, was seinerzeit Turing mal hätte sein sollen!? Es war schon vor Turing Release im Gespräch, dass da 10nm Samsung Fertigung im Raum stand. Mal gucken was bei rum kommt...

Was die News von CB zu BigN angeht - ich teile irgendwie die Ansicht da nicht so recht, was ihre NV Spekulation angeht. Sie sagen, bei Ampere wäre vieles bekannt -> effektiv wissen wir nichts. Weder die Leistung noch die Leistungsaufnahme noch wann da was wie kommt. Keinen Shaderaufbau, keine Größen, wir wissen nichtmal ob Ampere auf GA100 gleich dem Ampere auf GA102 wird oder nicht. GV100 und Pascal waren auch nicht gleich. Und GV100 und Turing auch nicht, wenn auch ähnlicher.

Dagegen wirken die AMD BigN Gerüchte schon fast langweilig, weil die 50% Effizienzverbesserung mit der eh seit Monaten im Raum stehenden Navi10 x2 Ausbaustufe relativ gut abschätzen lässt, wo das in etwa hin gehen wird. Bei NV hingegen kann das alles und nix sein. Von 50-70% und mehr über 2080TI bis hin zu nur 20-30%, alles möglich. Manches spricht für letzteres, anderes wiederum nicht.

Aber hab es denn jemals einen Sprung von 50 bis 70% mehr Leistung von einer Generation zur Nächsten? Halte ich für übelst unrealistisch.
Oder ist damit nur gemeint, dass das Topmodell bis zu 70% mehr Leistung als das jetzige Topmodel (5700XT) hat? Denn das wäre ja gut möglich, da die 5700XT ja „nur“ im oberen Mittelfeld angesiedelt ist und AMD mit BigNavi ja auch den oberen Bereich gescheit abgedecken will.
Das die BigNavi 400€ Karte dann aber 50 bis 70% mehr Leistung als eine 5700XT hat, ist wohl garantiert nicht drin. Daher ist solch Gerücht halt immer Auslegungssache und da würde ich immer den passiven Weg trauen und das wäre, dass das BigNavi Flagschiff 50 bis 70% mehr Leistung als eine 5700XT hat und das wäre gut möglich. Wird ja schließlich auch 100% mehr kosten.
 
Zuletzt bearbeitet:
Aber hab es denn jemals einen Sprung von 50 bis 70% mehr Leistung von einer Generation zur Nächsten? Halte ich für übelst unrealistisch.
Das war bezogen auf die Aussage von Computerbase im verlinkten Artikel zu den 5120 ALUs für BigN -> da gab es einen Hinweis, dass bei NV so viel schon bekannt wäre...

TopDog GPU vs. TopDog GPU -> da gabs einige. GF110 auf GK110, GK110 auf GM200, GM200 auf GP102 waren die letzten. Von Maxwell auf Pascal waren es 70-80%. Von Kepler auf Maxwell immernoch 50-55%. Fermi auf Kepler über Faktor 2 sogar.
Einzig Turing ist halt bisschen mager mit um die. 30-35% auf die 1080TI.

Von AMD wissen wir, dass die 50% Effizienzsteigerung (lass es real vllt 40-60% sein, wenn es mal was mehr, mal was weniger stark eintritt), irgendwo bedeuten, dass sie mit ~270-280W bei Navi10 x2 rauskommen dürften. +- Taktspielereien und schlussendlicher Platzieren. Wir wissen auch, dass die Packdichte bei Navi10 relativ gering ist ggü. der Packdichte bei GA100. Für GA102 kann da nur spekuliert werden. Dem Samsung Prozess sagt man nach, in die Region von 60 Mio Transistoren pro mm² zu kommen. Navi10 und die Ryzen CPUs bei AMD liegen bei um die 40. GA100 bei größer 60. Irgendwo habe ich jüngst gelesen, dass rechnerisch die Effizienz irgendwo um ~40-50% gestiegen ist, wenn die Karte ihre Taktraten halten kann.
Das wäre ein kleinerer Sprung als den, den AMD für BigN angekündigt hat. Und es ist immernoch nicht klar was das für die Gamer Amperes bedeutet.

Irgend einen Pferdefuß hat die ganze Spekulation nach wie vor. Irgendwo ist noch der Wurm drin. Das ließt sich aktuell irgendwie alles wie ein Volltreffer für AMD und ne Nullnummer für NV. Von Faktor 2 Leistungsvorteil und deutlichem Effizienzvorteil im Herbst 2016 bis dann heute bzw. morgen komplett egalisiert -> das glaub ich erst, wenn ich das sehe ;)

Einzig valide Erklärung dafür wäre, dass NV nicht damit gerechnet hat, dass AMD mit Navi10 und 21 derartige Fortschritte macht und ihre spekulierte Fehlentscheidung, nicht bei TSMC einzukaufen bzw. nicht wie AMD, vor zeitig auf 7nm zu gehen, aufgrund des schlechteren Samsung Prozesses sich nun recht -> dann ballert man Takt drauf ohne Ende für wenigstens bisschen Mehrleistung und verspielt komplett den Effizienzvorteil. Quasi analog zu Intel im CPU Bereich -> die ihren 10nm Prozess nicht fertig bekommen und im schlechteren alt Prozess mit Takt und schlechter Last-Effzienz versuchen zu holen was noch geht... Der Unterschied ist nur - Intel kann nicht, NV hätte gekonnt.


Btw. natürlich nur reinste Spekulation meinerseits, also nicht zuuuu viel rein interpretieren...
 
Ok, dass da von GPU Generation 1 auf Generation 2 in der Vergangenheit bis zu 100% mehr Leistung kam, hatte ich so nicht aufm Schirm. Bin da aber historisch auch so im Detail nicht drin. Mein Bauchgefühl hätte mir hier definitiv etwas anderes gesagt.

Und ja, bisher liest sich das alles sehr gut bei AMD. Aber das war in der Vergangenheit auch schon das ein oder andere Mal der Fall und am Ende ist leider nicht so viel bei rausgekommen. Wo war das doch gleich? War das Polaris? Da gab es ja auch einen echten Hype und am Ende war es nicht so pralle ...
 
Was Polaris hatte doch voll ins Schwarze getroffen, böse Zungen behaupten das aber über Vega. ;)
 
Was Polaris hatte doch voll ins Schwarze getroffen, böse Zungen behaupten das aber über Vega. ;)

War lange "raus", daher kann ich mich mit Polaris auch irren. Aber es war glaube ich länger her als Vega. Und da wurde die Generation auch übelst gehypt und am Ende war nicht viel, lediglich Durchschnittssteigerung.
 
Könnte dann Fury gewesen sein ;)

Leider geht hier der link zum Artikel nicht mehr: /:
 
Könnte dann Fury gewesen sein ;)

Leider geht hier der link zum Artikel nicht mehr: /:
Das war bei beiden Gens.
 
Was Polaris hatte doch voll ins Schwarze getroffen, böse Zungen behaupten das aber über Vega. ;)
Unsinn. AMD hat im Jan. 2016 noch auf irgendwelchen Messen irgendwas von "Durchbruch in Sachen Energieeffizienz bei Radeon GPUs" in die Kameras erzählt. Such mal danach - es gibt da einen Artikel auf Heise, die das zitieren ;)
In den Foren wurde sich regelrecht über NV lustig gemacht von den AMD Anhängern, wie weit AMD doch schon mit 16nm ist, und da komme was richtig dickes usw. usf. weil da gibts ja schon Infos und bei NV gab es gar nix. Die haben also noch nix. Die können nix haben... So oder so ähnlich war der Tenor.
Dann kam GP100 auf den HPC Karten und es wurde seeehr viel ruhiger und dann wenig später dann Polaris und die 1080 und keiner hat mehr was über die ach so tolle Effizienz verloren.
Das gleiche wurde damals btw. auch über HBM behauptet - das könne NV ja nicht, weil die haben ja keine Erfahrung und AMD mit Fiji hätte das -> GP100 hat schlicht auch damit das Gegenteil bewiesen.


Was ich damit sagen will - es ist nicht erst einmal vorgekommen, dass NV es schafft die Infos fast bis zum Release komplett geheim zu halten. Niemand wusste bspw. das GA100 8k ALUs breit wird. Das wurde meine ich nichtmal spekuliert in der Größenordnung? Niemand wusste auch, dass sie mit Turing so bauen, wie sie gebaut haben. Pascal wie schon erwähnt war ne komplette Überraschung. Fermi hingegen war eher "bescheiden". Da gabs vor Release schon Gerüchte, dass da was nicht stimmt. Allen voran auch die Holz Attrappe. Allerdings ist NV immer für ne Überraschung gut. Und AMD hat häufig schon Sachen gesagt und musste dann das eins ums andere mal gucken, dass der Spaß überhaupt so tut. Overclockers Dream, die Shadergeschichte bei Vega, die Effizienz von Polaris usw.
Die Lederjacke würde ich noch nicht abschreiben - auch wenn es wirklich aktuell eher mau ausschaut.
 
Holzis Alzheimer halt, kann man ihm nicht böse sein :d
 
Gefunden:
 
Kann mir das nun noch jemand übersetzen? :fresse2:
 
Das stimmt wohl, ich weiß noch wo man spekuliert hat ob Polaris endlich mit der 1080 gleichzieht. Was daraus geworden ist wissen wir ja nun... Letztlich war Polaris eine tolle Karte, als der bescheuerte Miningwahn noch nicht begonnen hatte. Letztlich ist das Marketing bei NVIDIA auch oft fragwürdig, wenn ich da an diese Folien mit dreifacher Leistung zur Vorgängergeneration* denke.

*in ausgewählten VR-Anwendungen
 
Das Marketing ist natürlich Käse... Wobei die Aussage ja entstanden ist, wo AMD schon die 1080 kannte. Das Interview was ich oben meinte entstand im Jan. 2016 - also grob ein halbes Jahr vor 1080 Release.
AMD hat halt kurzerhand einfach Polaris im Doppelpack gegen gestellt. Coole Idee, dummerweise funktionierte Crossfire noch bescheidener als SLI. Und das funktionierte schon schlecht.
 
OK wobei ich mit 2x RX480 richtig Spass hatte zb in PCARS damals :)
 
Das Marketing ist natürlich Käse... Wobei die Aussage ja entstanden ist, wo AMD schon die 1080 kannte. Das Interview was ich oben meinte entstand im Jan. 2016 - also grob ein halbes Jahr vor 1080 Release.
AMD hat halt kurzerhand einfach Polaris im Doppelpack gegen gestellt. Coole Idee, dummerweise funktionierte Crossfire noch bescheidener als SLI. Und das funktionierte schon schlecht.
Aha, DirectX 12 AFR war bestimmt auch dabei?
Läuft Bombe, fast 90% Skalierung gegenüber einer GPU, mit Frame Pacing!
 
Aha, DirectX 12 AFR war bestimmt auch dabei?
Läuft Bombe, fast 90% Skalierung gegenüber einer GPU, mit Frame Pacing!
In einer Hand voll Spiele, sicherlich... Im Rest? Kannste das knicken ;) Crossfire ist tod. SLI genau so... Da bringt auch Frame Pacing oder Frame Metering nichts. Overall ist MGPU Support sogut wie nirgends mehr gegeben. Ein paar Titel die ich aktuell spiele -> Anno1800 kein MGPU, AC:Origings kein MGPU, Factorio kein MGPU (OK, das brauchts auch nicht), ARK kein MGPU usw.
Die Liste kann man noch weiter fortführen.


OK wobei ich mit 2x RX480 richtig Spass hatte zb in PCARS damals :)
Ausnahmen bestätigen die Regel. GTA V läuft auch gut im SLI - SotTR ebenso zumindest in DX12. Aber das sind Ausnahmen...
 
In einer Hand voll Spiele, sicherlich... Im Rest? Kannste das knicken ;) Crossfire ist tod. SLI genau so... Da bringt auch Frame Pacing oder Frame Metering nichts. Overall ist MGPU Support sogut wie nirgends mehr gegeben. Ein paar Titel die ich aktuell spiele -> Anno1800 kein MGPU, AC:Origings kein MGPU, Factorio kein MGPU (OK, das brauchts auch nicht), ARK kein MGPU usw.
Die Liste kann man noch weiter fortführen.



Ausnahmen bestätigen die Regel. GTA V läuft auch gut im SLI - SotTR ebenso zumindest in DX12. Aber das sind Ausnahmen...
Naja, was meinst du nun mit Ausnahmen?
Ray-Tracing wäre auch eine Ausnahmen, oder VR oder 8K oder überhaupt und sowieso?

Auf ewig lebe directx 11...?
Nö!
 
Ausnahmen meint dass die Masse aller Spiele nichts mit MGPU anfangen kann. Auch nicht in DX12. Mit Raytracing, VR oder 8k hat das nichts zu tun.
 
Ausnahmen meint dass die Masse aller Spiele nichts mit MGPU anfangen kann. Auch nicht in DX12. Mit Raytracing, VR oder 8k hat das nichts zu tun.
Wenn ihr das meint, ich werde mich hüten dir zu wiedersprechen.

Allerdings geht dich mein System auch nichts an, darfst gerne bei deinem bleiben! :)
 
@Phantomias88

Es hat auch Niemand von deinem System gesprochen!? Keine Ahnung worauf du hinaus willst... Dass MGPU allgemein in 2020 nicht sonderlich gut funktioniert, weil sogut wie kein Spiel damit Skaliert, ist nachweislich ein Fakt. Das war früher nicht anders. Es gibt reihenweise Tests dazu...

Aber hey, alles gut, wenn du mit deinem System glücklich bist, ist das alles in Butter!?
Immerhin kannst du dir genug Geld sparen und brauchst keine x-hundert Euro in eine neue HighEnd GPU investieren und kompensierst das mit MGPU. Vllt mal Tripple oder Quad CF probieren? Es gibt Boards, da passen 7x GPUs drauf... ;)
 
Kann mir das nun noch jemand übersetzen? :fresse2:

Ja klar:


Das ist wohl das gesuchte Video, was zeigt was Phase war :)
 
Zuletzt bearbeitet:
@Phantomias88

Es hat auch Niemand von deinem System gesprochen!? Keine Ahnung worauf du hinaus willst... Dass MGPU allgemein in 2020 nicht sonderlich gut funktioniert, weil sogut wie kein Spiel damit Skaliert, ist nachweislich ein Fakt. Das war früher nicht anders. Es gibt reihenweise Tests dazu...

Aber hey, alles gut, wenn du mit deinem System glücklich bist, ist das alles in Butter!?
Immerhin kannst du dir genug Geld sparen und brauchst keine x-hundert Euro in eine neue HighEnd GPU investieren und kompensierst das mit MGPU. Vllt mal Tripple oder Quad CF probieren? Es gibt Boards, da passen 7x GPUs drauf... ;)
Jetzt Übertreibe es doch nicht gleich wieder....
Alles zur seiner Zeit, kommt Patent A raus, folgt Patent B und C.
Ob ihr wirklich richtig steht, seht ihr wenn das Licht angeht. :)

Deine CPU Krücke will auch keiner :fresse2:
Ja nein, ist klar.
Aber ECC braucht keiner, das ist alte Technik aus dem Weltall! :unsure:
 
Ob ihr wirklich richtig steht, seht ihr wenn das Licht angeht. :)
Komm, lass bitte gut sein. Willst du erneut diesen Käse fabrizieren?
MGPU ist einfach in 2020 nicht mehr sinnvoll abseits Rendering oder anderen Belastungen, die mit den weiteren GPUs auch was anfangen können... Spiele gehören dazu im Schnitt aber nunmal nicht. Und hier geht es gerade im Spiele.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh