GDDR7 mit 37 GBit/s von Samsung: Neue VRAM-Generation soll im Februar vorgestellt werden

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.151
Bereits im letzten Sommer kamen die ersten Gerüchte rund um den GDDR7-Speicher auf, der in diesem Jahr sein Debüt feiern soll. Im Vergleich zum aktuellen GDDR6X-Speicher wird GDDR7 natürlich weitaus schneller sein und auf entsprechenden Grafikkarten je nach Speicherinterface auch mehr an Speicherbandbreite liefern. Bis zur ersten Vorführung des GDDR7-Speichers soll es gar nicht mehr so lange dauern. Bereits kommenden Monat soll es soweit sein.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm Ich bin mir nicht sicher ob der Speicherdurchsatz bei den großen Karten ala 4090 überhaupt noch einen Limitierenden Faktor dar stellt. Nicht das sich das ganze dahin entwickelt wie mit den 4k oder gar 8k displays für Handys... Also abseits von schönen Marketing-Zahlen bringt es eigentlich nur mehr Nachteile als Vorteile.
Gut für die ganzen kleinen Karten wird es vielleicht noch Vorteile bringen, dass nVidia da selbst mit nem 128bit Bus noch ordentlich Durchsatz fahren könnte, also Chip Fläche sparen könnten... Aber dann müsste nVidia ja den HighEnd Speicher auch auf Midrange oder gar LowEnd Karten verbauen - so etwas macht man doch aber nicht... Das wäre ja wie billig Kaviar aus dem Supermarkt essen - ein widerlicher Gedanke...(für nVidia)
 
Das Thema Speicherbandbreite wird aktuell in den Chips durch extrem erweiterte Zwischenspeicher beackert. AMD mit dem IFC und NV mit massiv größerem L2. Chip-Fläche ist teuer aber jeder gesparte Zugriff hilft bei der Auslastung und Energieeffizienz. Richtung teuer in jeder Hinsicht ist zu dem das Speicherinterface. Da noch mal sparen bzw. die Bandbreite mitnehmen lohnt sich immer.
 
Hmm Ich bin mir nicht sicher ob der Speicherdurchsatz bei den großen Karten ala 4090 überhaupt noch einen Limitierenden Faktor dar stellt.
Dann können Sie uns aber die 5070 mit 16GB GDDR7 an 128Bit und die 5080 mit 24GB an 192Bit mit immernoch 592GB/s bzw. 888GB/s Speicherbandbreite verkaufen und damit jeweils die 4070S und 4080 Super überflügeln. (Scherz).

Zum Glück startet GDDR7 offenbar auch erst nur mit 16Gb-Modulen (=2GB), so dass für 16GB an 128Bit weiterhin acht Module nötig sind und Nvidia damit nicht viel spart. Für unmöglich halte ich es aber nicht, dass NV das SI weiter kürzt und sich die Speichergröße in der nächsten Generation nicht erhöht. Bloß nicht zu viele Vorteile unnütz an den Kunden weitergeben.
 
Das Samsung zuerst mit GDDR7 aufwartet mag evlt. zutreffen, denke aber nicht das Micron per se aus dem Rennen ist als Hauptlieferant für Blackwell.
Dann können Sie uns aber die 5070 mit 16GB GDDR7 an 128Bit und die 5080 mit 24GB an 192Bit mit immernoch 592GB/s bzw. 888GB/s Speicherbandbreite verkaufen und damit jeweils die 4070S und 4080 Super überflügeln. (Scherz).
Zum Glück startet GDDR7 offenbar auch erst nur mit 16Gb-Modulen (=2GB), so dass für 16GB an 128Bit weiterhin acht Module nötig sind und Nvidia damit nicht viel spart. Für unmöglich halte ich es aber nicht, dass NV das SI weiter kürzt und sich die Speichergröße in der nächsten Generation nicht erhöht. Bloß nicht zu viele Vorteile unnütz an den Kunden weitergeben.
Die beherrschen alle Clamshellmodes da spielt die einzel Modelgröße kaum eine Rolle bzw. nicht immer größer ist besser. Und so lange der Sachverstand wie bei dir bei 0 tendiert kann Nvidia doch zusammenarbeiten mit wem man möchte, der GDDR6W seitens Samsung war wohl nicht so der Knaller geschweige denn GDDR6 wie bei den Radeons
:fresse: .

Hmm Ich bin mir nicht sicher ob der Speicherdurchsatz bei den großen Karten ala 4090 überhaupt noch einen Limitierenden Faktor dar stellt. Nicht das sich das ganze dahin entwickelt wie mit den 4k oder gar 8k displays für Handys... Also abseits von schönen Marketing-Zahlen bringt es eigentlich nur mehr Nachteile als Vorteile.
Ist für die GPU immer der limitierende Faktor. Nvidia beschneidet den Bus nicht ohne Grund immer weiter zumindest für die "GeForce". Soweit ich weiß ist der L2 Cache jetzt auch keine logische Einheit sondern tatsächlich RAM der sich direkt neben der GPU befindet, den bräuchte man ja nicht wenn der Videospeicher immer schnell genug wäre.
 
Und so lange der Sachverstand wie bei dir bei 0 tendiert kann Nvidia doch zusammenarbeiten mit wem man möchte,
Einfach mal grundlos beleidigen, danke sehr. Wo genau fehlt mir der Sachverstand? Clamshell heisst nichts anderes als das, was jetzt auf der 4060Ti und 7600XT mit 16GB praktiziert wird und da GDDR7 laut Quelle auch nur mit 16Gb-Modulen startet, wie aktuell GDDR6(X), sind bis auf weiteres mit 128Bit nicht mehr als 16GB sinnvoll möglich. Clamshell ist dabei auch nichts, was NV gerne verwendet, da es wohl die PCBs aufwändiger macht, schlecht zu kühlen ist und einfach teurer als die gleiche Anzahl doppelt so großer Module.

Ist für die GPU immer der limitierende Faktor.
Ganz einfach nein. Es gibt genug Beispiele für GPUs, die von Speicher-OC oder ab Werk schnellerem Speicher 0 profitieren. Speicherbandbreite ist immer im Verhältnis zur Rechenleistung anzusetzen, wobei manche GPU-Architektur effizienter damit umgeht als eine andere. Meist ist NV effizienter, aber es wahr auch schon andersherum.
Natürlich ist Cache nichts anderes als sehr kleiner, sehr schneller VRAM, aber die GPU muss diesen schon auf einem anderen Level nutzen.
 
0 Sachverstand zu attestieren ist doch keine Beleididung, sowie hämische Hirngepinste für die 5070 oder 5080 keine Sachargumente sind.

Nvidia kann auch andere GB Varianten eben mit diesen Modulen "sinnvoll" bringen, da brauch man das PCB nicht neu erfinden.
Die 12,16 und 24GB Kombo verwendet man einfach weil man sie für die jeweilige GPU im 2-channel für richtig hält, pseudo oder gar clamshell braucht man einfach nicht.
Die Möglichkeit wird GDDR7 aber auch bieten, daher spielt die einzelne Speichermodulgröße eben weniger eine Rolle für die finale Konfiguration wie du suggeriest, nur die 32byte Granularität für die GPU bzw. den Memory Controller wird relevant sein.

Wobei mir deine Logik abseits deiner Zahlenspiele nicht klar wird, wenn Nvidia die Leute über dieses spezielle Bauteil doch abzocken wollen würde hätte man den alten Speicher doch verwenden können um sich künstlich zu verlangsamen oder nicht ?
 
Schnellerer Speicher, yes please. Für SD und LLM Interessierte eine Willkommene Bereicherung :)
 
Ich würde mal sagen, dass es auch Zeit für wird. Langsam, aber stetig, wird man dann mit 7x Richtung HBM 1 gehen. Doch nichtsdestotrotz frage ich mich, wo da die sinnvolle Grenze ist? Mehr Transferbandbreite zu haben ist erstmal gut, aber wird die den auch wirklich gebraucht? RTX 2070 von 2018 hat 448.0 GB/s, RX 7700 XT von 2023 hat 432.0 GB/s und RTX 4070 von ebenfalls 2023 hat 504.2 GB/s. Es liegen viele Jahre dazwischen, die Rechenleistung vervielfacht sich, aber bei der Speicherbandbreite tut sich kaum was.

Ich schrieb schon mal, dass ich aus reiner Neugierde die tatsächliche Ausnutzung der Ram-Speicherbandbreite wissen wollte und HWiNFO64, bei 20 ms, im Hintergrund laufen liess. Unterschiedliche Spiele halt. Das Resultat war beim Lesen und Schreiben maximal 15 GB/s. Die kriegt jedoch selbst der langsamste Speicher hin. Lediglich beim Starten des Spiels und laden einer neuen Region im Spiel, erreicht sehr kurz die höheren Transferraten. Wenn es sich bei GK genauso wie beim Systemspeicher verhält, dann müssten die langsamsten Karten die höchsten Bandbreiten spendiert bekommen. Doch real ist es genau andersherum.
 
@Brimer

Es sinken dadurch die latenzen massiv, und darum geht es. Die bandbreite ist nur ein "nebeneffekt"
 
@Brimer

Es sinken dadurch die latenzen massiv, und darum geht es. Die bandbreite ist nur ein "nebeneffekt"
Wie sehr? Wie resultiert sich das im subjektiven Empfinden? Das ist doch stets eine Aussage und kein Beweis. Dagegen ist der technische Stillstand, Fakt. Sowohl bei AMD als auch Nvidia.
Mir ist kein Test bekannt, der das tatsächlich in Zahlen misst.
 
Wie sehr? Wie resultiert sich das im subjektiven Empfinden? Das ist doch stets eine Aussage und kein Beweis. Dagegen ist der technische Stillstand, Fakt. Sowohl bei AMD als auch Nvidia.
Mir ist kein Test bekannt, der das tatsächlich in Zahlen misst.
Ganz einfach, takt, durchsatz und latenzen stehen immer in einem direkten verhältniss zueinander. Dirch die kleineren strukturen kommt das signal schneller ans ziel, word schneller bverarbeitet und das bedeutet mehr signale pro zeiteinheit (takt).
 
Nur resultiert sich das nicht in der Realität in der Mehrleistung. Solche Aussagen kenne ich zur Genüge. Selbst eine RTX 4070 Ti hat dieselben, 504 GB /s, und das, obwohl die ein Drittel mehr Shader hat.
Ich persönlich denke, dass durch die maximale notwendige Bandbreite, die Grenze in etwa da erreicht worden ist, weshalb noch mehr, nichts bringt. Und selbst die sind zu viel, da die meisten nicht mal annähernd dran kratzen. Die hängt von den Spielen ab, nicht von der Rechenleistung des Grafikchips. Ob man ein Spiel A mit 7600 betreibt oder mit 4090, 60 FPS bringen beide. Der Unterschied liegt lediglich in der Leistungsreserve. Und wenn die GPU, so wie die meine GTX 1080, zu 96-99 % ausgelastet ist, dann bringt ein schnellerer Speicher mehr. Sowohl Vram als auch Systemspeicher. Nur ist es kein Ausweg, sondern die Brechstange, weshalb, so oder so, eine neue, leistungsstärkere GPU, notwendig sein wird. Eine GTX 1080 hat gerade mal 320 GB/s.
 
Zuletzt bearbeitet:
Du attestierst der 4090 technischen Stillstand weil du auf 60 FPS spielen kannste les ich das richtig ?
 
Du attestierst der 4090 technischen Stillstand weil du auf 60 FPS spielen kannste les ich das richtig ?
Nein, er attestiert stillstand weil er spiele spielt die nur 25gb/sekunde durchsatz brauchen, da eine 300gb/s und 600gb/s karte die selben werte liefern....
 
Nein, er attestiert stillstand weil er spiele spielt die nur 25gb/sekunde durchsatz brauchen, da eine 300gb/s und 600gb/s karte die selben werte liefern....
So ziemlich exakt. Allerdings suggeriert das, dass es auch andere Spiele gibt, die deutlich mehr brauchen. Das möchte ich bezweifeln bzw. infrage stellen. Sind es keine schlecht programmierte Konsolenports, wie "Last of US" oder "Hogwarts Legacy" oder "Residet Evil 4", dann ist die Speicherauslastung sehr gering. Fallout 4 und Borderlands 3 sind nach wie vor sehr schwere Spiele, schwer für die Grafikkarte. "Death Stranding" oder "Elden Ring" kann man auch sehr gut als Beispiel nehmen. "Anno 1800" habe ich zwar auch, aber "Anno" ist ein echter Sonderfall. Obgleich auch da, innerhalb des Spiels, keine Transferraten kommen, wo man mehr als 3 GHz beim Ram braucht.

Das ist nur, weil erst kürzlich, die Möglichkeit gibt, seitens HWiNFO64, die Lese- und Schreibraten des Arbeitsspeichers auslesen zu können. Doch solche Aussagen gab es auch schon lange davor. Da frage ich mich, woher das Wissen? Aber was Vram angeht, so gibt es nach wie vor keine Möglichkeit, die tatsächliche Nutzung und damit auch die Notwendigkeit aufzuzeigen. Korrigiert mich, wenn ich da falsch liege.
 
Du liegst falsch. HWiNFO in allen Ehren, "allocated" und "used" RAM und VRAM kannst du seit der letzten Steinzeit auslesen. Mit simpelsten Einstellungen bzw. Driversflags kannst du sogar das Verhalten der Karte diesbezüglich ändern, manche haben es mittlerweile ins Control Panel geschafft.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh