Analyse: So viel GeForce steckt in der Ampere-Architektur

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
nvidia-a100.jpg
Im Rahmen der Vorstellung der Tensor-Core-GPU A100 gab NVIDIA ein paar Details zur Ampere-Architektur bekannt. Nun jedoch hat man den Vorhang vollständig fallen lassen, so dass unsere ursprüngliche Analyse um einige Details ergänzt werden kann. Anstatt eines Updates wollen wir das Thema Ampere-Architektur und GA100 aber vollständig neu aufrollen, auch um eventuellen Fehlern, die wir im ursprünglichen Artikel aufgrund der fehlenden Angaben gemacht haben, vorzubeugen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schöne Analyse. Bleibt abzuwarten ob Nvidia den Aufbau der Shadercluster so beibehält und wie viel letztlich auf der GeForce und Quadro und Titan dann landet. Leider kein Wort zu RT oder in wie Fern Samsung in Zukunft involviert ist ;(, sieht aber schon ziemlich stark aus.
 
Aber so gar keine Infos zu Hopper ist schon komisch, scheinbar möchte Nvidia AMD Big Navi abwarten, anders kann ich mir das nicht erklären. :unsure:
 
Aber so gar keine Infos zu Hopper ist schon komisch, scheinbar möchte Nvidia AMD Big Navi abwarten, anders kann ich mir das nicht erklären. :unsure:
Naja, das design sollte ja schon sehr weit sein, ich denke nicht dass nVidia hergeht und sagt "ohje amd hat soviel vorgelegt, schmeissen wir die letzten 12 monate über bord und tragen dicker auf".

Ausser ich sehe hier etwas offensichtliches nicht.
Ich bezweifele stark dass AMD zu sehr zulegen wird, ich gehe von +60% zu der xt 5700x aus.
 
Aber so gar keine Infos zu Hopper ist schon komisch, scheinbar möchte Nvidia AMD Big Navi abwarten, anders kann ich mir das nicht erklären. :unsure:
???
Was für Infos zu Hopper hätten sie denn gern?
Die Aussage ist in etwa wie du du sagst, "schade AMD, so gar keine Infos zum BigN Nachfolger, scheinbar möchten irgend ne NV Karte abwarten, anders kann ich mir das nicht erklären"...

Hopper wird nach bisherigen Infos der 5nm Ampere Nachfolger. Da gibt es jetzt (bei NV schon gleich gar nicht - es ist nichtmal konkret was zu Ampere bekannt) ganz sicher nichts verwertbares von offizieller Seite...
 
Achso, ich dachte die nächste Generation nach Turing soll den Architekturnamen Hopper tragen?
 
Ich wünsche mir 2080ti Leistung und mind. 11GB für 500 Euro ^^
 
Und ich dass carolina ramirez meine freundin wird, aber beides wird uns ein gewinnorientiertes unternehmen nicht erfüllen, leider.
Und woher willst du das wissen, deine Erfahrung beschränkt sich eher auf Radeon Bluescreens und Trolling ?
Die 2080ti wird eingestellt, Big Navi kackt gewohnt ab und landet bei der 2080ti bzw. etwas mehr, Ampere(GeForce) erscheint im deutlich ausgereifterem FinFET mit 2 Anbietern und kleinerer Chipfläche. Zählt man Titan und "3080Ti" mit wird selbst wenn es schlecht läuft die reine FP32 Leistung einer 2080ti die Mittelklasse bilden, sprich 500€ sind ziemlich realistisch.
 
Und woher willst du das wissen, deine Erfahrung beschränkt sich eher auf Radeon Bluescreens und Trolling ?
Die 2080ti wird eingestellt, Big Navi kackt gewohnt ab und landet bei der 2080ti bzw. etwas mehr, Ampere(GeForce) erscheint im deutlich ausgereifterem FinFET mit 2 Anbietern und kleinerer Chipfläche. Zählt man Titan und "3080Ti" mit wird selbst wenn es schlecht läuft die reine FP32 Leistung einer 2080ti die Mittelklasse bilden, sprich 500€ sind ziemlich realistisch.
Weil die preise immer raufgehen. Früher hat mittelklasseleistung 200 gekostet
 
Eine in 7 nm gefertigte GPU mit mehr als 800 mm² und mit HBM2 wäre im GeForce-Segment zudem schlichtweg zu teuer.

So pauschal würde ich das nicht sagen. HBM2 mit nem 7nm-Chip auf ner Consumer-Karte hat AMD schon Anfang 2019 mit der Radeon VII gehabt, nur halt nicht in der Größe. Preislich machbar wäre es daher m.E. wohl, aber es hat sich ja gezeigt, daß HBM auf Consumer-Karten keinen spürbaren Vorteil gegenüber GDDR5/6 bringt, darum wird Nvidia sich das wohl auch für die kommende Geforce-Generation sparen. Ich rechne aber schon damit, daß der Chip einer 3080 Ti eine ähnlich große Fläche hat wie der GA100 - bei Volta/Turing war es ja bereits so (815 zu 754 mm²). Im Gegenzug halte ich es aber auch für möglich, daß die 3080 Ti erst nächstes Jahr kommt - und an die 1500 Euro kostet.
 
Vllt. der Gleiche Ansatz wie die TF32 Tensor-Kerne?
Anstatt wie bei Turing die Rechenergebnisse der beiden 4 x 4 FP16 Matrizen mit der anderen FP16/FP32 zu addieren, macht man es wie bei hpc-Ampere.
TF16, gleich langer Wertebereich wie FP32, aber nur die Genauigkeit nach dem Komma wie FP16.

Das sind übrigens ~ 66 Mill. Transistoren/mm².
Das sind mit 7 nm duv dennoch 50 % mehr als bei rdna.
 
So pauschal würde ich das nicht sagen. HBM2 mit nem 7nm-Chip auf ner Consumer-Karte hat AMD schon Anfang 2019 mit der Radeon VII gehabt, nur halt nicht in der Größe. Preislich machbar wäre es daher m.E. wohl, aber es hat sich ja gezeigt, daß HBM auf Consumer-Karten keinen spürbaren Vorteil gegenüber GDDR5/6 bringt, darum wird Nvidia sich das wohl auch für die kommende Geforce-Generation sparen.
800mm² und mehr sind aber schon die Grenze des theoretisch aktuell irgendwo machbaren. Das ist halt teuer, war schon immer so, dass es am oberen Ende teuer ist. Schau dir einfach mal an, für was ein Vollausbau GV100 verkauft wird - oder sagen wir anders, was man da für Preise für aufrufen kann und der Spaß wird dennoch gekauft. Ich denke nur die aller wenigsten Gamer würden 5k und mehr für ne Gamer Karte ausgeben. Am Ende wäre das aber die Konsequenz.

Es gibt da btw. so schöne Wafer Kalkulatoren im Netz. Bei der Chipgröße mit den Verhältnissen von Länge und Breite des DIEs gehen grob 60 DIEs auf einen 300mm Wafer. So ein Wafer kostet keine Ahnung, 10k? 15k? Dollar? Irgendwo sowas. 60x bei 10k$ macht 166$ pro Stück. 250$ pro Stück bei 15k für den Wafer. Naktes Silizium ohne alles. Unbearbeitet, nicht auf dem Träger, kein PCB, ohne Bauteile, kein Speicher usw. im Einkauf - und da ist auch noch kein einziger Operator bezahlt... Ich denke unterschätzt einfach extrem, was es bedeutet in solchen Größenordnungen Chips zu fertigen ;)

Ich rechne aber schon damit, daß der Chip einer 3080 Ti eine ähnlich große Fläche hat wie der GA100 - bei Volta/Turing war es ja bereits so (815 zu 754 mm²). Im Gegenzug halte ich es aber auch für möglich, daß die 3080 Ti erst nächstes Jahr kommt - und an die 1500 Euro kostet.
Der Vergleich mit Volta/Turing hinkt da mMn - NV konnte diesen Schritt gehen, weil der alt Prozess recht ausgereift war im Vergleich. Ebenso war es ohne weiteres nicht möglich überhaupt nen anderen Prozess zu nutzen. Es gab 2017 nämlich zum GV100 Release nix. Turing hat das "adaptiert" - AMD sprach mal davon, dass der yielded mm² 7nm bei TSMC ca. doppelt so teuer ist wie im Vorgängerprozess. Rechne das mal hoch. Das wäre mehr als doppelter Einkaufspreis auf die Fläche gerechnet, weil von 12nm auf 7nm dennoch mehr als die halbe Fläche benötigt werden würde. In wie weit das damals einen Vorteil hätte geben, lässt sich nur spekulieren. Sie haben das bei NV aber sicher nicht gemacht, weil es schön ist 700mm²+ GPUs zu bringen ;) Es gibt auch keinen Gamer TU102 Vollausbau, weil man irgendwo anfangen muss die Kosten zu drücken -> und der Spaß war eh schon arsch teuer.

Heute kostet 7nm TSMC ggf. 12nm TSMC sicher nicht mehr das doppelte pro mm²... Aber sooo extrem viel weniger wirds halt auch nicht sein. Die Yields sind besser als damals, das stimmt wohl. Ich würde aber mal behaupten, NV will eher wieder etwas runter von der riesigen DIE Size. Sie haben mal eben die DIE Size um Faktor 1,6x und mehr erhöht von Pascal auf Turing - je GPU-Klasse. Und die Leistung ist bei weitem nicht um das gleiche Maß gestiegen.
 
800mm² und mehr sind aber schon die Grenze des theoretisch aktuell irgendwo machbaren. Das ist halt teuer, war schon immer so, dass es am oberen Ende teuer ist. Schau dir einfach mal an, für was ein Vollausbau GV100 verkauft wird - oder sagen wir anders, was man da für Preise für aufrufen kann und der Spaß wird dennoch gekauft. Ich denke nur die aller wenigsten Gamer würden 5k und mehr für ne Gamer Karte ausgeben. Am Ende wäre das aber die Konsequenz.

Es gibt da btw. so schöne Wafer Kalkulatoren im Netz. Bei der Chipgröße mit den Verhältnissen von Länge und Breite des DIEs gehen grob 60 DIEs auf einen 300mm Wafer. So ein Wafer kostet keine Ahnung, 10k? 15k? Dollar? Irgendwo sowas. 60x bei 10k$ macht 166$ pro Stück. 250$ pro Stück bei 15k für den Wafer. Naktes Silizium ohne alles. Unbearbeitet, nicht auf dem Träger, kein PCB, ohne Bauteile, kein Speicher usw. im Einkauf - und da ist auch noch kein einziger Operator bezahlt... Ich denke unterschätzt einfach extrem, was es bedeutet in solchen Größenordnungen Chips zu fertigen ;)


Der Vergleich mit Volta/Turing hinkt da mMn - NV konnte diesen Schritt gehen, weil der alt Prozess recht ausgereift war im Vergleich. Ebenso war es ohne weiteres nicht möglich überhaupt nen anderen Prozess zu nutzen. Es gab 2017 nämlich zum GV100 Release nix. Turing hat das "adaptiert" - AMD sprach mal davon, dass der yielded mm² 7nm bei TSMC ca. doppelt so teuer ist wie im Vorgängerprozess. Rechne das mal hoch. Das wäre mehr als doppelter Einkaufspreis auf die Fläche gerechnet, weil von 12nm auf 7nm dennoch mehr als die halbe Fläche benötigt werden würde. In wie weit das damals einen Vorteil hätte geben, lässt sich nur spekulieren. Sie haben das bei NV aber sicher nicht gemacht, weil es schön ist 700mm²+ GPUs zu bringen ;) Es gibt auch keinen Gamer TU102 Vollausbau, weil man irgendwo anfangen muss die Kosten zu drücken -> und der Spaß war eh schon arsch teuer.

Heute kostet 7nm TSMC ggf. 12nm TSMC sicher nicht mehr das doppelte pro mm²... Aber sooo extrem viel weniger wirds halt auch nicht sein. Die Yields sind besser als damals, das stimmt wohl. Ich würde aber mal behaupten, NV will eher wieder etwas runter von der riesigen DIE Size. Sie haben mal eben die DIE Size um Faktor 1,6x und mehr erhöht von Pascal auf Turing - je GPU-Klasse. Und die Leistung ist bei weitem nicht um das gleiche Maß gestiegen.
Ja schon, aber die frage ist warum nVidia das dann macht.
 
Was macht?
Den GA100 mit 826mm² zu bringen? -> wohl einfach, weil für so einen Chip, auch wenn er arsch teuer ist, ein Markt existiert. Oder das mit Turing? -> da waren sie wohl einfach alternativlos. 7nm ging nicht oder war nicht fertig oder noch zu teuer. Und nix bringen ist auch eine Option, vor allem nicht, wenn man sich selbst der stärkste Konkurrent ist. Kein Pascal Besitzer wechselt freiwillig auf dei gleiche Karte nochmal 2-3 Jahre nach seinem Kauf... Aber auch eine NV muss auf Dauer Hardware verkaufen. Es braucht also zyklisch neue Produkte, die Kaufanreize setzen
 
Die rtx 3080 ti dann mit 5 oder 6 GPCs?
5 klingt irgendwie zu wenig, vor allem wenn nicht ein Vollausbau. 6, leicht gekürzt wohl eher.
Ist ein 384-bit Speicherinterface mit 24 GB Vram realistisch, oder ist gddr6 16 Gbps noch zu teuer um die Menge in eine 1k € consumer Karte zu packen?
 
Was macht?
Den GA100 mit 826mm² zu bringen? -> wohl einfach, weil für so einen Chip, auch wenn er arsch teuer ist, ein Markt existiert. Oder das mit Turing? -> da waren sie wohl einfach alternativlos. 7nm ging nicht oder war nicht fertig oder noch zu teuer. Und nix bringen ist auch eine Option, vor allem nicht, wenn man sich selbst der stärkste Konkurrent ist. Kein Pascal Besitzer wechselt freiwillig auf dei gleiche Karte nochmal 2-3 Jahre nach seinem Kauf... Aber auch eine NV muss auf Dauer Hardware verkaufen. Es braucht also zyklisch neue Produkte, die Kaufanreize setzen
Das meinte ich nicht, aber egal.
 
Bitte verzeih, ich will nicht wie gestern nur probleme haben. Tuhen wir so als ob ich nichts gesagt habe, ja?
 
Ich würde aber mal behaupten, NV will eher wieder etwas runter von der riesigen DIE Size.

Wirklich runter kommt man da nicht mehr, denn die Leistung muß ja in jeder Generation gesteigert werden, damit sich das Produkt verkauft. Aber die Spreizung erhöht sich weiter. Neben den Monster-Chips gibts dann auch noch große, mittelgroße, kleine und winzige.
 
Würde auch denken das der 7nm Big GeForce/Quadro GA102 Chip bei eher 'üblicheren' ~650mm^2 rauskommen wird. In Sachen Speicher sitzt man allerdings in der Zwickmühle. Irgendwie muss es mal weiter nach oben gehen, also bleibt da nur bis 384Bit sehr teure bis 24GB zu hängen, oder man geht den Schritt zum 512Bit SI und hängt dort passende 16GB GeForce und 32GB Quadro dran. Den GA104 dann bis 384Bit 12GB. Diesen Zwischenschritt halte ich für gangbar, bevor die nächste Generation wieder zum üblichen Speicherinterface samt doppelter Speichermenge zurückkehrt (angenommen GH102 384Bit 24GB, GH104 256Bit 16GB), dann sollten die GDDR6 Speicherpreise nach langer Fertigungszeit signifikant gesunken sein um das preisakzeptabel realisieren zu können.
 
Oder wie aus der Gerüchteküche für die rtx 3080 ti: 384-bit SI samt 12 GB vram samt neuer Speicherkompression basiernd auf Tensor-Kernen.
Also irgendeine der drei Möglichkeiten.
Vermute mal man schlägt den Weg ein wo man am meisten sparen und dem Kunden teuer verkaufen kann^^
Halt nvida-typisch am Vram knausern.
 
Der nächste Shitstorm wäre vorprogrammiert. Ich denke schon das die bei nVidia sich auch selbst vorstellen können, gerade nach den Turing RT Speicherdiskussionen, das man die deutlich steigende Ampere (RT) Leistung mit mehr VRAM paaren muss. Der Schritt zu 12 und 16GB wäre auch nicht so teuer wie eine Speicherverdoppelung, zumal wenn man dies mit eher üblicheren Chipgrößen etwas kompensiert.
 
Ich würde da nicht zu viel Hoffnung rein stecken... Aktuell reichen 11GB mehr als aus. Lass es vllt 12 werden beim TopDog.
Ich sehe weniger den Sinn die VRAM Größe krampfhaft zu erhöhen, nur weil das gerade fancy ist... Brach liegender VRAM bringt auch nicht sonderlich punkte. Btw. würde ich eher davon ausgehen, dass die Konsolentitel, die dann so langsam irgendwann mal Richtung PS5 und neue Xbox gehen, beim der Art und Weise noch viel mehr Richtung Streaming agieren.

Nur mal einfach so ins Blaue überlegt - auf den Konsolen sprechen wir über irgendwo 3-7GB/sec Durchsatz von der NVMe. Der PCIe 16x 3.0 Slot lässt grob 16GB/sec durch - mit 4.0 sinds um die 32GB/sec. Das ist weit weit weit unter dem, was der VRAM an Bandbreite liefert - mit einer intelligenten Methode aber lässt sich das für sowas wie Texturstreaming durchaus "kompensieren". Die Konsolen scheinen ja zumindest mittel- bis längerfristig klar in diese Richtung zu gehen OHNE mit dem VRAM deutlich zuzulegen.
Auf den PC adaptiert -> was spricht dagegen die gleichen Mechanismen zu verwenden? Kommen die Daten halt aus dem RAM - recht viel RAM ist heute nach wie vor recht "günstig". 32-64GB liegt klar im Rahmen des bezahlbaren. Man benötigt sicher nicht hunderte GB an Daten für die eine gerade darzustellende Szene - mit einer Art Preload bekommt man das abgefedert.

Mechanismen zur Kompression bringen auch nochmal klar Punkte. Daten die komprimiert übertragen werden können ohne Zeitaufwendige Verfahren zum kompromieren und dekomprimieren belegen am Ende nicht nur weniger Platz, sondern steigern auch noch den Durchsatz im gleichen Maße. Wenn etwas unkomprimiert 1GB groß ist, komprimiert aber nur angenommen die Hälfe - dann überträgt es sich auch in der halben Zeit. Oder andersrum, man bekommt die quasi doppelte Menge an Daten in der gleichen Zeit übertragen sowie gespeichert.
 
XBox 360 512MB RAM shared
PS3 256MB GDDR3
8800 GT 512MB - also das doppelte

Xbox One 8GB shared und 32MB
PS4 8GB shared
780TI 3GB

XBOX One X 12GB shared
PS4 Pro 8GB shared
980Ti 6GB

Immer ungefähr zur gleichen Zeit. Bin selber überrascht wie nahe beieinander die sind.
 
Vielleicht mal was mehr als nen Einzeiler ohne Inhalt - das macht ne Unterhaltung einfacher... Was meinst du denn?
LMAO. Wie kann man auch die ganze Zeit mit diesen Trollen schreiben. Texturestreaming und Komperession ist nice, zieht die GeForce auch schon seit geraumer Zeit immer mehr Vorteile, bin allerdings gespannt wie das VRAM Layout aussieht, klassisches 4K Gaming könnte mit der nächsten Generation dann komplett in den Mainstream rücken.
 
Jemand eine Idee warum die Packdichte beim GA100 rund 60% höher liegt als bei vergleichbaren AMD-GPUs in 7nm? Es scheint sich ja hier um den gleichen 7nm DUV-Prozess ohne EUV zu handeln. Woher also dieser doch deutliche Unterschied?
 
rund 60% höher liegt als bei vergleichbaren AMD-GPUs in 7nm
Wissen tue ich nix aber evt hat der A100 deutlich mehr Cache den man dicht packen kann? Und die AMD GPUs nutzen evt den ersten N7 Prozess und NV den zweiten 'N7P' ?
 
Beim Cache hat der GA100 zumindest schon gut zugelegt, klingt insofern plausibel. Aber kann das wirklich alles sein?

So weit ich das mitbekommen habe wird auch überall nur von N7 gesprochen. Das interessante dabei ist, das es ein gewisses Potential aufzeigt, was dann automatisch auch die Frage aufwirft, ob AMD das mit RDNA2 auch realisieren kann.
 
@fdsonne
Hab diesen Artikel hier vor kurzem gelesen .


Scheint schon der PC Technik etwas voraus zu sein was die Nutzung der m.2 Festplatten angeht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh