Speicher der Grafikkarte von selbiger entkoppeln

MadVector

Enthusiast
Thread Starter
Mitglied seit
03.07.2013
Beiträge
1.718
Ort
Luzern
Hallo zusammen,

der Titel mag zuerst vielleicht verwirrend erscheinen. Mir ist echt nichts besseres eingefallen.
Und ich weiss auch dass das irgendwie "Off-Topic" ist, da aber Hardware-bezogen, denke ich soll hier der richtige Ort sein, und nicht unsere Off-Topic-Foren.

Wenn es um spezifische Details der ganzen Thematik geht, bin ich nur interessierter Laie, nichts weiter. Mag sein dass also die ganze Idee aus (für den Versteher) einfachsten und lapidaren Gründen nicht möglich oder technisch umsetzbar ist.

Ich habe gerade rein interessehalber nachgeschlagen welcher Hersteller für den Grafikchip der Playstation 4 verantwortlich ist. AMD.

Sony spendierte der PS4 eine GPU sowie CPU von AMD. Mit dem Speicher haben sie es interessant gelöst, was auch der Grund meines Threads hier ist.
Sie haben einfach 8 Gb GDDR5 Ram verbaut, das ganze System teilt sich diesen Speicher, auch der Grafikchip.

Nun kam ich unweigerlich zu der Frage:"Warum macht man das eigentlich nicht grundsätzlich so?"

Man könnte doch sicherlich Motherboards herstellen auf die nur noch GPU-Karten gesteckt werden, oder noch besser gleich nur Chips direkt auf das Motherboard setzen.
Natürlich dank entsprechendem Sockel austauschbar/erweiterbar. Der Speicherstandard wäre nur noch DDR5, und das Nadelöhr wäre weiterhin der Massenspeicher, eine SSD mit der entsprechend
fortschrittlichsten Technik, da geht doch mittlerweile bei dem allerneuesten Intelchipsatz weitaus mehr als 500 Mb/s Lesen, schreiben, usw. - meine ich verstanden zu haben.

Sowas wie.. zwei Fliegen mit einer Klappe schlagen. Warum macht man das nicht?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nunja, auf der PS4 steckt von AMD eine APU drauf, und der gddt5 ist in unmittelbarer umgebung per BGA aufgelötet.

Man müsste also diesen gddr5 Ram als steckbare Module konzipieren, bräuchte dann noch einen Sockel für den Prozessor und der GPU - welche aber alle etwas weiter voneinander entfernt sitzen müssten da man sonst probleme bekommen wird was die kühlung angeht... Klar man kann diese sockel auch direkt nebeneinander setzen und nur einen einzigen, stärkeren Kühler verwenden.
Problem bei der ganzen sache aind dennoch die steckkontakte von der GPU oder den Ram - diese erlauben leider keine all zu hohen frequenzen wie sie aber benötigt werden, was eben nur mit BGA funktioniert. Je länger ein leiterzug, desto niedriger die frequenz.

Ich denke, das ist noch mit eins der Probleme, warum man das so macht.


Alle Hersteller müssten sich auch auf einen Sockel einstellen - wie früher beim Sockel7 wo man noch AMD CPUs aber auch Intel CPUs draufsetzen konnte... Das bringt aber alles kein geld für die hersteller, die wollen doch alle was neues verkaufen - das ist die Marktwirtschaft :/
 
Danke :)

Ja den marktwirtschaftlichen Aspekt darf man natürlich nicht ausser Acht lassen, es ist genau wie du sagst - sie wollen Kohle machen. Wenn man nun ein Gerät in Einzelteile aufsplittet bringt das ja weniger als das ganze Paket.

Also heisst, die Idee ist auf lange Sicht gesehen noch nicht mal sooo abwegig.
 
Die ganze Überlegung erledigt sich mit der Einführung von HBM von selbst. Da wird kein GDDR5 mehr für die Grafikkarten verwendet. Allerdings ist der Ansatz interessant, wenn man in Zukunft die Möglichkeiten von 3DXPoint miteinbezieht. Quasi ein extrem schneller Speicher für Alles. RAM, VRAM, DATEN und alle Komponenten greifen auf den gleichen Speichertyp zu. Geht natürlich auch nicht so ohne Weiteres, aber der Gedanke ist interessant...


mfg TommyB
 
Sony spendierte der PS4 eine GPU sowie CPU von AMD. Mit dem Speicher haben sie es interessant gelöst, was auch der Grund meines Threads hier ist.
Sie haben einfach 8 Gb GDDR5 Ram verbaut, das ganze System teilt sich diesen Speicher, auch der Grafikchip.

Nun kam ich unweigerlich zu der Frage:"Warum macht man das eigentlich nicht grundsätzlich so?"

Ganz einfach, weil Grafikkarten, selbst die kleineren Modelle einen sehr hohen Bedarf nach Speicherbandbreite haben...
Das was du beschreibst, gibt es heute real zu kaufen. Schau einfach mal nach den Intel Mainstream CPUs ala SandyBridge, IvyBridge, Haswell, Broadwell und neuerdings auch Skylake. Oder bei AMD auf die APUs, Stichwort Llano, Richland und Kaveri (sowie noch einige andere)
Bei den AMD Modellen, speziell den mit größerer GPU wirst du relativ schnell erkennen, dass diese quasi durch die Bank weg, stark Speicherbandbreitenlimitiert sind. Eine aktuelle Kaveri APU vom Schlage A10-7850k hat im GPU Teil starke Ähnlichkeiten mit einer HD7750 aus dem gleichen Haus. Aber deutlich weniger Speicherbandbreite -> und die GPU Leistung der APU ist entsprechend auch deutlich geringer. Beide Versionen trennen durchaus 50% und mehr an reiner Spieleleistung.

Für die Konsolen bedient sich AMD dabei nämlich eines kleinen Tricks. Man nehme eine APU auf Jaguar Basis, verbaue den CPU Teil einfach doppelt und packe eine GPU mit ca. Mittelklasse Performance (zur damaligen Zeit) dazu.
Diese APU für die Konsole MUSS faktisch nicht gesockelt sein, entsprechend kann man sich auf schnellere RAM Bausteine konzentrieren. Durch den doppelten CPU Part gibt es vier Speicherkanäle und es kommt eine ordentliche Bandbreite raus, die auch beide Teile der APU anständig bedienen kann.
Die XBox One -> gleiches Prinzip, aber andere Umsetzung hat ebenso vier Speicherkanäle und ist GPU seitig etwas langsamer. Anstatt des fix verlöteten GDDR5 Speichers setzt man auf "Standard" DDR3 Speicher (ebenso verlötet). Macht aufgrund deutlich weniger Takt und Bandbreite von DDR3 auch deutlich weniger Bandbreite -> um das etwas zu kompensieren spendiert man dem Paket noch einen sehr schnellen SRAM als Cache, der hat aber nur 128MB in der Größe.

Ähnlich diesem Konzept der XBox One baut Intel ihre CPU Modelle mit Iris Pro Grafik -> langsamen DDR3 Speicher + schnellen Zwischencache in begrenzter Größe.


Alle Umsetzungen haben aber eins gemein -> der Bandbreitenbedarf ist mit Default, möglicherweise noch gesockelten DDR3/4 Bausteinen stand heute nicht mehr Herr zu werden. Also muss eine andere Lösung ran.

Sowas wie.. zwei Fliegen mit einer Klappe schlagen. Warum macht man das nicht?

Das Nadelöhr, wie du es nennst, ist im PC ja auch nur dann die HDD, wenn der Rest nicht limitiert. Ohne dedizierten Speicher für den GPU Part limitiert dort aber sehr schnell die Bandbreite.
Das bekommst man weg, indem man die Breite des Speicherinterfaces erhöht. Viel mehr als vier Kanäle pro CPU/GPU Kombi ist aber schon schwer. Intel will in Zukunft wohl auf sechs Kanäle, mal schauen, wie das alles aufs Board geht.


Unterm Strich, der GPU gibt man eigentlich den dedizierten Speicher genau deswegen mit, weil man anderweitig der GPU nicht genügend Daten liefern kann. Wie man es im Endeffekt macht, ist eigentlich total egal. Es zählt Bandbreite und Latenz. Ob das nun fiktiver DDR5, GDDR5, DDR irgendwas oder HBM und Co. sind -> fast völlig egal. Der Prozessor benötigt einen entsprechenden Controller um die Speicher ansprechen zu können. Und dann geht es quasi los. Entscheidend ist dann eigentlich nur noch, welcher Speicher kann wie viel Bandbreite liefern und ist wie schnell in Sachen Latenz?
In Zukunft wird man weg vom "OnBoard" VRAM auf den Grafikkarten gehen und auf HBM oder ähnliche Speicher setzen -> dabei wandert der Speicher direkt "zur" GPU. Im Falle von aktuellen AMD Fury Karten, sind die Speicher auf einem Interposer untergebracht, welcher wiederum auch die GPU "trägt". Eine sehr schnelle Verbindung zwischen GPU und Speicher ist damit realisierbar. Schneller noch, als potenziell über den Weg über das PCB und fest verlöteter BGA Speichermodule.

Möglicherweise geht man irgendwann auch dazu über, die Speicher direkt "in" oder "auf" die GPU zu bringen. Denn potenziell ist es möglich, das, was jetzt mit HBM "neben" der GPU auf dem gleichen Interposer untergebracht ist, auch direkt "auf" die GPU zu setzen. Damit wird der Weg nochmals kürzer und es geht potenziell noch mehr Bandbreite bei weniger Latenz. Ebenso "stackt" man damit die GPU. Also fertigt die GPU nicht mehr nur in einer planaren Lage, sondern baut Schichten übereinander. Technisch gesehen wäre es ggf. Auch drin, die GPU selbst über mehrere dieser Schichten zu verteilen und den VRAM mit reinzumischen... -> damit so was aber geht, muss man die Hitzeentwicklung beachten. Da die unteren/mittleren Schichten eines solchen Konstrukts natürlich auch die Hitze der anderen abbekommen. Der Kühlaufwand steigt und man läuft klar Gefahr, dass HotSpots entstehen, die auf winziger Fläche zu Überhitzung führen.
 
Zuletzt bearbeitet:
*Daumen hoch* an alle! Richtig geil, danke! Wieder was gelernt!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh