HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.954
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Selbst diese 2x80% sind nur der Idealfall, der voraussetzt, dass es keine neuen Limitierungen wie z.B. beim Interconnect gibt.Wenn AMD bei den Monoliths sagen wir nur 80% der Rohleistung auf die Straße bringt ... was bringt dir dann 2x80%?
Das kann zumindest anfangs nur ein Testballon wie Fiji werden.
Selbst diese 2x80% sind nur der Idealfall, der voraussetzt, dass es keine neuen Limitierungen wie z.B. beim Interconnect gibt.
Das Thema ist sehr komplex und die möglichen Probleme löst man nicht mal eben nebenbei. Das kann zumindest anfangs nur ein Testballon wie Fiji werden.
Das mit der Skalierung und dem Interconnect sind die entscheidenden Punkte. Laut einer Studie von NVIDIA ist es derzeit nicht möglich einen Interconnect zu fertigen, der den Anforderungen gerecht wird. Außerdem können laut NVIDIA keine "normalen" GPUs für ein solches MCM-Design zum Einsatz kommen, sondern nur sogenannte GPU-Module (GPM), die speziell dafür ausgelegt sind – unter anderem um die Interconnect-Bandbreite zu sparen. Das würde dann aber wiederum nicht dazu passen, dass AMD einfach eine Mittelklasse-Navi-GPU mehrfach nimmt.
Was spielen diese 3 Dinge im Text für eine Rolle?- Vega hat schon infintiy fabric, die ersten Schritte sind damit schon einmal getan. Dazu die Erfahrungen mit Epics MCM.
- dazu noch HBCC, mit dem man auf die Daten der anderen DIEs zugreifen könnte
- Die Bandbreite zwischen den GPUs muss gar nicht so groß sein. SLI/Crossfire haben doch über die Jahre gezeigt, dass PCIe2.0 8x (4GB/s) schon ausreicht um gute FPS und keine/kaum Mikroruckler zu erhalten.
Halte ich für den falschen Ansatz - MCM bei GPUs wird dort interessant, wo man Hardware ohne notwendige Softwareanpassungen verschalten kann.Letzten Endes dürfte das Ganze auf technischer Ebene gar nicht so kompliziert werden. Die Technik dazu gibt es seit mehreren Jahren. Problematisch wird da eher die Software/Treiber und wie diese die die GPU ansprechen. Wobei wir hier auch schon seit Jahren mit SLI/Crossfire theoretisch nicht anderes machen. Oder DX12 Multi-GPU mit "doppeltem VRAM" (das würde man für eine MCM GPU benötigen, in jedem Spiel und die Sache wäre geritzt). So weit zumindest die Theorie.
Warum denn nicht? Was ist denn der unterschied zwischen einem GPM und einer GPU? das GPM muss keine Displays ansteuern.
Das mit der Bandbreite einsparen, was Nvidia anspricht mag ja schön und gut sein, aber nicht zwingend Notwendig für ein MCM design. Und Schaden kann es wohl auch nicht, diese Bandbreiten sparmechaniken einfach zu deaktivieren, wenn man bei einer Single-Chip Lösung keinen interconnect braucht.
Wenn AMD wieder von Software und Treibern abhängig sein sollte, dann hätten sie bereits jetzt verloren. Aus der Vergangenheit sollte man auch mal lernen und nicht immer wieder in dasselbe Messer rennen.Letzten Endes dürfte das Ganze auf technischer Ebene gar nicht so kompliziert werden. Die Technik dazu gibt es seit mehreren Jahren. Problematisch wird da eher die Software/Treiber und wie diese die die GPU ansprechen. Wobei wir hier auch schon seit Jahren mit SLI/Crossfire theoretisch nicht anderes machen. Oder DX12 Multi-GPU mit "doppeltem VRAM" (das würde man für eine MCM GPU benötigen, in jedem Spiel und die Sache wäre geritzt). So weit zumindest die Theorie.
Hört sich für mich an, als wenn AMD extrem verzweifelt ist.
Wenn AMD wieder von Software und Treibern abhängig sein sollte, dann hätten sie bereits jetzt verloren. Aus der Vergangenheit sollte man auch mal lernen und nicht immer wieder in dasselbe Messer rennen.
Für den Kunden zählt nur eins: was am Ende rauskommt bzw. auf dem Bildschirm ankommt.
HBM kommuniziert nicht - das tut der Grafikchip mit seinem Speichercontroller (welcher auf HBM Speicher zugreift).Dennoch zeigt HBM mMn dass es möglich ist eine hohe BAndbreite zwischen verschiedenen Chips zu realisieren.
Das wäre deutlich zu langsam. GPU <-> CPU ist mit PCI-E 16 und seinen ~16GBs ist im vergleich zu einer HBM-Speicheranbindung vom 400-500 GBs doch recht dürftig.Und ich denke dass somit zwischen 2 GPUs mindestens die selbe bandbreite erreichbar wäre wie zwischen GPU und CPU.
Da ist nciht wie bei Spielen die Busanbindung nur im einstelligen bereich ausgelastet.
HBM kommuniziert nicht - das tut der Grafikchip mit seinem Speichercontroller (welcher auf HBM Speicher zugreift).
Sorry sollte nciht GPU - CPU sondern GPU - HBM heißen. PCIe ist natürlich deultich langsamerDas wäre deutlich zu langsam. GPU <-> CPU ist mit PCI-E 16 und seinen ~16GBs ist im vergleich zu einer HBM-Speicheranbindung vom 400-500 GBs doch recht dürftig.
hier beziehe ich mich auf die PCIe.Welcher Busanbindung ist gemeint?
wirkt der interposer dann nicht torzdem wie ein Bus? sollte doch egal sein ob an einem ende ein passiver oder ein aktiver sender sitzt? Im endeffekt sollten sich doch ähnliche datenraten erreichen lassen, oder?
hier beziehe ich mich auf die PCIe.
bei Spielen ist bspw die leistungseinbuse zwischen 8x PCie 2.0 und 16x PCIe 3.0 sind nahezu vernachlässigbar (bzw waren es vor ein paar jahren mal)
bei Deep learning hingegen ist der Bandbreitenbedarf deutlich größer. und genau darauf ziehlt Nvlink ab (wurde zumindest bei uns so präsentiert)
Hab jetzt allerdings keine tieferen schaltungstechnischen kenntnisse, kann also gut sein dass ich auch falsch liege
Ich kann mich nur auf die MCM-GPU-Studie von NVIDIA beziehen. Diese besagt es sei eine Package Bandbreite von 1,2 TB/s und eine Inter-Modul-Bandbreite von 10 TB/s notwendig. Davon sind wir noch etwas entfernt.