Viele Gerüchte um Big Navi und nächste GeForce-Generation

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.950
turing-gpu.jpg
Über die vergangenen Tage gab es zahlreiche Gerüchte zu den zukünftigen GPU-Generationen von AMD und NVIDIA. Es gibt einige wenige Fakten, vor allem aber zahlreiche Gerüchte, die noch mit Vorsicht zu genießen sind.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ding sollte dann doppelt so schnell wie meine radeon 7 sein. 10% mehr leistung durch architekturoptimierung, der rest durch doppelte shader gegenüber rx 5700x.
 
ich denke Nvidia wird auf Big Navi warten und dann ggf. "anpassungen" vornehmen. Spannend wie seit langem nicht mehr.
 
Ich sage, abwarten was uns die beiden Hersteller im Sommer präsentieren.
Jeder Spekulatius ist bei derzeitiger Faktenlage ein verschwendeter Gedanken der nur wieder Fankriege anzettelt.
 
Und das von Holzi, der mindestens schon 30 Spekulatius Beiträge von sich gegeben hat^^
 
Zuletzt bearbeitet:
Ich sage, abwarten was uns die beiden Hersteller im Sommer präsentieren.
Jeder Spekulatius ist bei derzeitiger Faktenlage ein verschwendeter Gedanken der nur wieder Fankriege anzettelt.
Ich will doch krieg. Öl in die flammen bis selbst ich verschlungen wurde.
 
Du hast recht, ich hätte nicht eröffnet schreiben sollen, vermutlich waren es teilweise die 1. Posts nach dem Bot, tut aber auch nix zur Sache. Dennoch wirst du selbst auch gut genug wissen, dass du auch dazu neigst, Spekulationen in deinen Beiträgen Inhalt zu verschaffen, ist auch nicht "bös" gemeint, aber jetzt auf vernünftig zu machen, wirkt einfach etwas unbeständig^^

alles gut :)
 
Beide Daten sehen irgendwie sehr ausgedacht aus.

Dass Big Navi ein doppelter Navi 10 wird, ist jetzt nicht total abwegig, das war bei beiden Herstellern lange der Normalfall, dass die GPUs und allen Ausführungseinheiten immer halbiert werden und dann eben nochmal und nochmal.
Davon sind wir´aber nun seit geraumer Zeit weg. Polaris und Vega standen nicht so in einem Verhältnis zueinander (36CU zu 64CU), ebensowenig Polaris und Buffin (36CU zu 16CU) oder Buffin zu Lexa (16CU zu 10CU). Schon lange vorher war das oft so, aber bei der letzten Generation gab es eben überhaupt keine "halbierten" GPUs mehr. Bei NV war das noch bei Pascal der Fall, jetzt bei Turing herscht da auch ein recht sauberes Verhältnis, zumindest vom TU116 aufwärts geht es immer in 12-Streaming-Multiprocessor-Schritten, vom TU104 zum TU102 dann halt 24.
Beim GA104 (hatten wir nicht schon andere Bezeichnungen für Ampere?) würde es sich also um eine mit dem TU104 identische Konfiguration handeln, wenn die SMX nicht anders aufgeteilt sind. Das kann nicht sein, da 7nm ja wohl für deutlich mehr Einheiten genutzt wird.
Der GA103 als exakt mittiger Zwischenschritt zwischen TU104 und TU102 klingt absolut unglaubwürdig. Viel zu nah an einem gut getakteten 104er, dafür mach NV keinen extra-Chip.
 
Zuletzt bearbeitet:
Wir hatten es damas bei der hd 5000 serie, da war die HD 5870 im endeffekt eine HD 4870x2 auf einem die, in etwa die selbe performance, bei besserem verbauch, also abwegig ist das nicht.

Rdna hat grzeigt wie stromeffizient man sein kann, der prozess wurde verbessert und architektonisch wurde auch einiges getan. Da sind 60% mehrleistung zu einer 5700xt durchaus drinnen
 
Es gibt sogar Gerüchte von einer geheimen Ultra-Version mit 96CUs und HBM-Speicher - dem ultimativen Nvidia-Killer! Lisa persönlich binnt diese Chips und signiert sie mit ihrem weißen Handabdruck. Sie wird als RX5990XTX Uruk-Hai Edition auf den Markt kommen!!1einself1
 
Korrekt, wird auch mal Zeit für eine Navi CEO-Edition :d
 
@DeckStein : Und das ist jetzt wie lange her und seitdem hat AMD das wie oft anders gemacht? Zuletzt war Fiji in Sachen Shader ein verdoppelter Tahiti/Tonga und Cape Verde ein halber Tahiti, aber schon Pitcairn und Bonaire passten wieder überhaupt nicht ins Schema.

Außerdem möchte ich mal dran erinnern, dass bei AMD die großen GPUs seit langem keinen proportionalen Nutzen aus den vielen Shadern ziehen konnten und der Leistungsunterschied bei R9 290(X)/390(X), Fur und Fury X sowie Vega 56 und 64 immer deutlich kleiner war, als die Anzahl der Shader hätte bewirken müssen. Gut, genau dass wollte man mit RDNA ja angehen.
Nicht, dass ich mir ein schwaches Big Navi wünsche, ich bin da nur desillusioniert. AMD selbst hat vor über einem Jahr die Erwartungen gedämpgt und ich befürchte, man kann froh sein, wenn die Karte gegen Ampere konkurrenzfähig bleibt und nicht RTX 3080-Leistung zu 3080Ti-Verbrauch und Preis liefert.
 
"RTX 3080-Leistung" wäre doch schon mal was. AMD hat halt lange gebraucht um wieder vorwärts zu kommen. Und hoffentlich weiter darauf aufbauen.

Wird sich zeigen ob dieses Jahr grün oder rot ins System kommt.
 
...man kann froh sein, wenn die Karte gegen Ampere konkurrenzfähig bleibt und nicht RTX 3080-Leistung zu 3080Ti-Verbrauch und Preis liefert.
Also, bei den "Leaks" wurde gesagt, dass Nvidia die RT-Cores aufgebohrt hat und die Rasterengine durch größere Zahnräder ersetzt hat. Das hab ich bisher aber nicht als wirklichen Flaschenhals bei Nvidia angesehen, weshalb ich vermute, dass das eher ne Art Support Optimierung fürs Ray-Tracing ist, damit die Verluste reduziert werden.

Es könnte sein, dass die "IPC" von Ampere praktisch gleichauf mit Pascal ist, nur dass eben der Takt und das Speicherinterface etwas nach oben gehen. Evtl. nutzt Nvidia die kleinere Fertigung, um ein paar mehr Transistoren auf den Chip zu bügeln, aber generell erwarte ich keine "50% Mehrleistung" einer 3080Ti zur 2080Ti.

Den Gerüchten zu Folge (großer Salzlöffel) soll big Navi die 2080Ti zu ~35% schlagen - was dann auch im Ballpark einer 3080Ti wäre. Bleibt halt die Frage, wie gut die RT-Kerne bei AMD umgesetzt sind. Da AMD die Shadereinheiten direkt nutzt (die bisher kaum ausgelastet waren und im Flaschenhals ganz unten standen), könnte da eine Überraschung auf uns warten.

Eine Sache sollte aber klar sein: Dat widd deuer.
 
Und deshalb auch für mich eher uninteressant. Das ist halt das Problem, dass AMD seit GCN nur mehr einzelne Segmente im Wechsel modernisiert. Wenn RDNA2 dann tolle Features ggü. RDNA1 bietet und mehr IPC, aber nur auf Oberklassekarten zu haben ist, macht das die 5700XT nicht eben attraktiver für mich. Und wenn dann mit Ampere letzterer die Konkurrenz enteilt, so wie es jetzt mit Turing mit Vega und Polaris passiert ist, dann modernisiert AMD hoffentlich Navi 10 besser als den zweimal aufgekochten Polaris, sonst darf Navi 30 irgendwann gegen die RTX 4050Ti antreten.
Aktuell machen für mich die Features die 5700XT schon unattraktiver als eine 2070 (nonSuper), das wird mit der Zeit nicht besser. Ich gebe Navi 10 ernsthaft nurnoch Zeit, bis eine 3060 auf dem Markt ist, ab da geht der Preisverfall los.
Allerdings finde ich die Strategie von Nvidia v.a. in den letzten Jahren auch nicht besser. Es war immer schon so, dass bei AMD die Highend- und Midrange-Karten älterer Generationen noch eine Zeit lang die mittleren bis unteren Preissegmente bedient haben, ggf. auch als Rebrand, wenn die Nachfolgechips noch auf sich warten ließen, wärend Nvidia nahezu nie einen Highend-Chip billiger vermarktet hat (G92 vielleicht als Ausnahme, war aber kein richtiges Highend). Alles oberhalb der x600er/x060er-Karten verschwindet nach Erscheinen der Nachfolger vom Markt, ohne günstiger zu werden.
Das war kein Problem, solange ein G94 schneller als ein G71 ist, ein GK106 schneller als ein GT200 usw., aber wenn der neue Midrangechip zu weit nach unten geht, wird es problematisch. Der GM206 war besonders schlecht imho, weil direkt 128Bit statt 256Bit und anfangs auch eher 2GB als 4GB VRAM. Seit der GTX 1060 ist es dann das gleiche Problem, man beharrt jenseits der x070 (ok, x060S) auf 6GB VRAM und 192Bit, was ich für die 3060 auch wieder befürchte.
Also Kriegt eben ein Käufer einer RTX 2060 keine günstigere GTX 1080, weil der Speicher und dessen Anbindung schneller limitiert.
Wenn Nvidia da in die vollen ginge und statt 6GB 9-12GB und statt 14GHz GDDR6 16GHz+ draufschnallt, dann ist dieses Problem minimiert. Man könnte sogar einer RTX 3070 trotzdem nur 14GHz gönnen, die kann es ja spielend ausgleichen. Aber das macht man nicht oder nur sehr begrenzt (GTX 1060 9Gbps immernoch eine ganz andere Liga als 1070), wer unterhalb von x070 kauft, soll es spüren, egal ob diese Karten mittlerweile soviel kosten wie früher die Topmodelle.

Übrigens kann ich das garnicht oft genug sagen, wie abartig ich die Preise finde. Da ich schon lange in diesem Markt dabei bin, seit etwa 2000, kann ich sagen, dass Grafikkarten bis vor ein paar Jahren nicht stetig teurer geworden ist, sondern je nach Marktsituation und Konkurrenzdruck mal günstiger, mal teurer. Ich erinnere mich noch an die Zeiten von G92 bis Kepler, als AMD so richtig schön Konkurrenz geboten hat, da waren die Preise nach meinem Geschmack. Eine 2060 dürfte imho nicht mehr als 250€ kosten und die 2070 müsste dann bei ~300€ anfangen.
 
Zuletzt bearbeitet:
Ich denke AMD hat mit Navi 10 einen ordentlichen und deutlichen Sprung nach vorne gemacht. Die Reviewer waren überrascht von der Performance und wie viel man durch OC da noch rauskitzeln konnte. Während man bei Vega undervolten musste um mehr Leistung rauszubekommen, konntest du bei Navi tatsächlich wieder übertakten - auch wenns beim Referenzdesign mal wieder ein paar Gesichtspalmierungen wegen dem Blower-Kühler gab.
 
Ja wobei man Vega II auch schon sehr gut übertakten kann. ;)
 
Richtig interessant wird es doch eh erst gegen 2H 2021.
Leaks die soweit im Voraus plakativ so platziert werden (unabhängig von wem) haben bisher immer ein Geschmäckle gehabt - man mag sich auch irren, aufgrund neuer Führung - aber ich warte erstmal ab, was RDNA 2 abliefert.
Wenn sich dann dort die Aussichten ähnlich gut prognostizieren lassen, wie bei jedem Zen > Zen+ > Zen2 - dann kann man sich über jedes fetzen an Infos kloppen, da die so rar sind. Hier aber sind mir die Infos schon zu früh platziert, als das dahinter ein Klopper steckt, den sich einige wenige bereits ausmalen - was nebenbei immer in die Hose ging :d
 
@Tigerfox ich erinnere mich noch an meine HD 4870 von palit für 209 taler, das war damals recht viel aber allgemein gesehen gunstig. Wie haben die gtx 260 käufer geschimpft, da war die radeon im schnitt 5% vorne für deutlich weniger kohle. Der hensen hat den gt 200b chip nachgeschoben aber da war es zu spät, dann kam die 4890 mit 1ghz takt wenn ich nicht irre.
 
Ja, und die Situation war garnicht so anders als heute. ATI/AMDs R600/HD2900 war ein Totalausfall und musste verramscht und schnell ersetzt werden, dagegen war Vega erfolgreich. Der RV670/HD3800 konnte über den Preis einigermaßen mithalten, aber die Leistungskrone hat AMD damals bis zur HD5870 verloren. Der RV770/HD4800 war ebenfalls nur über den Preis konkurrenzfähig, die GTX 280/285 waren jeweils deutlich überlegen?
Was hat uns das gebracht? Karten auf Basis des jeweils größten Chips für ~250€ (HD4850 bzw. GTX 260), später gute Refreshs und Shrinks von NV (GTX 260 erst 216 Shader, dann 55nm, GTX 275 und 285) als Konter, AMDs Topkarte HD4890 hat glaub ich auch unter 400€ gekostet.
Mag damals etwas ruinös für die beiden gewesen, aber ich würde mir wieder wünschen, dass AMD Nvidias Produkten bis hinauf zur RTX x080 so richtig Dampf macht über den Preis. Die x080TI kann mir sowieso gestohlen bleiben.
Die RX 5700XT hat da ja eigentlich einen guten Punkt getroffen, mann kriegt für 400-450€ mehr Leistung als bei Nvidia, wenn mal eine RTX 2060S günstiger ist, dann ist auch schon wieder eine fast so schnelle RX5700 in der Nähe, die 2070S ist viel zu teuer, um dagegen zu halten. Irgendwie scheint das nur nicht genug Druck zu machen, RTX 2060S und 2070 sind seit einem halben Jahr kaum im Preis gefallen.
 
Der Druck kommt vom Kaufverhalten der Kunden. Wenn die tatsächlich nach P/L kaufen würden, wäre der Konkurrenzkampf wesentlich härter und die Preise humaner. Aber so lange halt einfach stumpf grün gekauft wird - egal was AMD anbietet - gibts für Team grün halt massig Geld zum melken und für Team rot irgendwelche Reste um grad mal die Mittelklasse bedienen zu können. Wir wollten es ja so, also haben wir es bekommen. Bitteschön: Neue GPU für 1.3k

btw - du kannst die 5700 mit 5700XT BIOS flashen und hast dann für 300 Flocken ne 400'er Performance. Das geht so langsam in Richtung "human" - auch wenns gecheatet ist.
 
Ist halt abhängig davon, was die Leute kaufen. Ich habe die letzten 9 Jahre auch nur Nvidia verbaut, aber meine nächste Karte(demnächst) wird eine 5700XT. Mal sehen, wie zufrieden ich damit bin.
 
Nur leider sind sehr viele Spiele, die ich zocke, NV-freundlich (Anno 1800, Kingdom Come, Witcher 3)
@Shevchen : Naja, was ich so gelesen habe ist man selbst mit einer geflashten 5700 @maxpwr @OC noch knapp unter einer 5700XT @Stock. Das ist halt der übliche Gewinn von ~10% durch OCing, den man aktuell bei vielen Karten so ungefähr hat, auch bei der 5700XT. Die nonXT ist halt ab Werk extrem eingeschränkt durch maximal 180W PT statt 270W.
Ich liebe es sowieso immer, wenn leute meinen, sie hätten z.B. eine 2070S@2080, als ob die 2080 nicht die gleichen oder eher noch höhere Taktraten mitmachen würde oder eben die gleiche Geschwindigkeit mit weniger Abwärme und Energieverbrauch liefert.
Damit will ich die 5700 mit XT-BIOS nicht schlecht machen, das wertet die Karte schon enorm auf, aber eine 2060 kann ich halt auch OCen. Funktioniert das denn überhaupt mit allen Karten? Soweit ich weiss, braucht man ein Bios einer XT-Karte mit identischem PCB bzw. zumindest gleichem Speicher.
 
Zuletzt bearbeitet:
Ja, der Speicher ist der Knackpunkt. Wenn du Glück hast, schaltest du dann aber zusätzlicher Shader frei (wie beim V56 zu V64 BIOS) - nur klappt das diesmal in 90% der Fälle. Ist natürlich trotzdem mit etwas Glück verbunden.
Nachteil ist halt der höhere Stromverbrauch, weil das Binning der 5700 auf Chip basieren, die mehr Leakage haben. Aber sobald du das gekühlt bekommst, haste praktisch ne 5700XT.

Abseits davon: Es gab mal Zeiten, wo AMD konkurrenzfähig war und trotzdem wurde grün gekauft. Dank der querfinanzierung der CPU Sparte zur GPU Sparte kann AMD jetzt wieder halbwegs was entgegensetzen - aber ohne diese gäbe es jetzt nur noch Nvidia - und die Preise könnt ihr euch dann selbst ausmalen.
 
Ich glaube dieses Jahr gibt es eine Neuauflage der Rudi Carrell Show „ Lass dich überraschen“ mit 4 Hauptdarstellern. AMD, Nvidia, Intel und der BER. Mal sehen wer die größte Überraschung im Gepäck hat.
 
Der Druck kommt vom Kaufverhalten der Kunden. Wenn die tatsächlich nach P/L kaufen würden, wäre der Konkurrenzkampf wesentlich härter und die Preise humaner. Aber so lange halt einfach stumpf grün gekauft wird - egal was AMD anbietet - gibts für Team grün halt massig Geld zum melken und für Team rot irgendwelche Reste um grad mal die Mittelklasse bedienen zu können. Wir wollten es ja so, also haben wir es bekommen. Bitteschön: Neue GPU für 1.3k

Klar, der Kunde ist natürlich Schuld. Dass AMD "einfach" liefert was die Kunden wünschen (performante und effiziente Hardware) wäre wohl zu einfach. Wenn es ein Unternehmen nicht gebacken bekommt sind laut AMD Fans erstmal die Kunden schuld :shot:

Vermutlich sind auch die Kunden Schuld dass Nokia vor die Hunde gegangen ist.... kann natürlich gar nicht an dem Produkt gelegen haben :hust:
 
Klar, der Kunde ist natürlich Schuld. Dass AMD "einfach" liefert was die Kunden wünschen (performante und effiziente Hardware) wäre wohl zu einfach. Wenn es ein Unternehmen nicht gebacken bekommt sind laut AMD Fans erstmal die Kunden schuld :shot:

Vermutlich sind auch die Kunden Schuld dass Nokia vor die Hunde gegangen ist.... kann natürlich gar nicht an dem Produkt gelegen haben :hust:
Wenn bei gleichwertiger Hardware das Kaufverhalten nicht gleichwertig ist, dann hat der Kunde halt n Bias. (Hervorgerufen durch Sachen wie Marketing) Das kann man Nvidia sogar anrechnen, denn das Geld bei Hardware sitzt eigentlich gar nicht so locker. Wenn die Leute dann aber trotzdem 100€ mehr ausgeben, nur weil Nvidia drauf steht, hat deren Marketing-Team einiges richtig gemacht.

Sich dann aber über die Preise aufzuregen ist etwas... seltsam in diesem Zusammenhang.
 

AMD bringt eine Karte die kein totaler Reinfall ist und sie wird plötzlich gekauft, muss laut Shevchen wohl reiner Zufall sein?

Nicht alles was hier in der Vergangenheit von AMD Fans als konkurrenzfähig oder gleichwertig eingestuft wurde war es auch, jedenfalls scheint der Markt es etwas nüchterner zu betrachten als man es hier gern durch die rosarote Brille tut.
 
Zuletzt bearbeitet:
"RTX 3080-Leistung" wäre doch schon mal was. AMD hat halt lange gebraucht um wieder vorwärts zu kommen. Und hoffentlich weiter darauf aufbauen.

Wird sich zeigen ob dieses Jahr grün oder rot ins System kommt.


na, mal sehen was da kommt:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh