NEWS

DIY

GeForce RTX 2070 mit 16 GB Speicher ausgestattet

Portrait des Authors


GeForce RTX 2070 mit 16 GB Speicher ausgestattet
40

Werbung

An dieser Stelle wollen wir einmal mehr auf ein ganz spezielles Projekt hinweisen, das sicherlich für die Praxis wenig Relevanz vorzuweisen hat, welches sich aber durch seine Exotik auszeichnet. Der YouTube-Channel VIK-on ist dafür bekannt aufzuzeigen, dass sich der Grafikspeicher von Grafikkarten in einem gewissen Rahmen aufrüsten lässt. Dies ist vor allem dann recht einfach möglich, wenn es verschiedene Modelle, beispielsweise mit 4 und 8 GB an Grafikspeicher, gibt.

Nun aber hat man auch eine GeForce RTX 2070 von 8 auf 16 GB aufgebohrt. Dokumentiert ist der gesamte Vorgang in einem YouTube-Video. An dieser Stelle sei an ein ähnliches Projekt verweisen, bei dem eine GeForce RTX 2080 Ti mit schnellerem GDDR6-Speicher ausgestattet wurde, der nur den Super-Modellen vorbehalten ist. Eine GeForce RTX 2080 Ti Super hat es allerdings nicht gegeben.

Die GeForce RTX 2070 verwendet acht Speicherchips, die jeweils über eine Kapazität von 1 GB verfügen. Angebunden sind diese über ein 256 Bit breites Speicherinterface – pro Speicherchip also über 32 Bit. Die GeForce RTX 2070 besitzt immer 8 GB an Grafikspeicher, als Super-Modell wurde dieser von 14 GBit/s pro Pin auf 16 GBit/s pro Pin beschleunigt. Eine Variante mit 16 GB hat es aber ebenfalls nicht gegeben.

Dies heißt aber nicht, dass es unmöglich ist, die Karte mit 16 GB auszustatten. Zunächst einmal müssen die alten Speicherchips entfernt werden. Dazu werden die Speicherchips mittels einer Heißluftpistole erhitzt und können einfach abgelöst werden. Eine Reinigung der Lötflächen beseitigt auch die letzten Rückstände, die beim erneuten Anlöten der neuen Chips stören könnten.

Die neuen Chips stammen von Samsung und hören auf die Bezeichnung K4ZAF325BM-HC14. Die einzelnen Chips haben eine Kapazität von 2 GB und bieten ein Bandbreite von 14 GBit/s pro Pin. Einfach so auflöten kann man die Chips allerdings nicht. Im Reference Guide zum Board-Design, in diesem Fall der GeForce RTX 2080 (PG180-A02), welches identisch ist, muss nachgeschaut werden, welche Speicherkonfiguration (RAMCFG) genau verwendet wird und welche PINs per Widerstand gesetzt werden müssen. Je nach Speicherhersteller und Kapazität sind dies fünf Bits, die darüber bestimmen, wie und ob der Speicher angesprochen wird.

Ist dies geschehen, können die neuen Speicherchips auf dem Board platziert und wieder mit einer Heißluftpistole verlötet werden. Danach wird die GeForce RTX 2070 mit 16 GB Grafikspeicher erkannt. Auf die Leistung hat dies aber nur bedingt einen positiven Einfluss. Die Speicherbandbreite bleibt identisch und ob der größere Grafikspeicher einen positiven Einfluss hat, hängt nicht zuletzt von der jeweiligen Anwendung ab.

Natürlich ist der Aufwand eines solchen Speichertauschs enorm und dürfte daher kein Projekt für Jedermann sein. Dennoch ist es interessant zu sehen, zu welchen Modifikationen der Hardware man greifen kann.

GeForce RTX 3070 und RTX 3080 mit 16 bzw. 20 GB möglich?

Das NVIDIA die GeForce RTX 3070 und GeForce RTX 3080 mit nur 8 bzw. 10 GB Grafikspeicher ausgestattet hat, stößt vielen interessierten Käufern noch immer böse auf. Unsere Benchmarks zeigten keine auffällige Einschränkung durch die Speicherbestückung, aber es gibt sicherlich Anwendungsfälle, in denen die 8 bzw. 10 GB eben nicht mehr ausreichen. Der GeForce RTX 3090 spendierte NVIDIA satte 24 GB. Die GeForce RTX 3060 Ti muss ebenfalls mit 8 GB auskommen und der GeForce RTX 3060 wird NVIDIA wohl hauptsächlich 12 GB an Grafikspeicher spendieren, weil die einzige Alternative 6 GB gewesen wären.

Eine potentielle GeForce RTX 3080 Ti mit 20 GB wird es auf absehbare Zeit wohl nicht geben. Zwar hat NVIDIA offenbar über ein solches Modell nachgedacht, derzeit gibt es aber keinerlei Anzeichen dafür, dass dieses kurz- oder mittelfristig auf den Markt kommen wird. Ob es möglich ist auch eine GeForce RTX 3080 mit größeren Speicherchips auszustatten, ist nicht bekannt. Dies hängt wohl vor allem davon ab, ob NVIDIA das Boarddesign und das BIOS entsprechend vorbereitet hat.