Samsung präsentiert neuen GDDR6-Speicher

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.582
samsung.jpg
Bereits mehrfach wurden nun schon über die baldige Einführung eines neuen Grafikspeicher-Standards aus der Graphics-Double-Data-Rate-Serie (GDDR) gesprochen, der in Kürze in der sechsten Generation vorliegen wird. Samsung und SK Hynix haben bereits die Produktion von GDDR6 angekündigt. SK Hynix sprach bereits von einer Auslieferung zu Beginn des Jahres 2018. Während SK Hynix von GDDR5 auf GDDR6 springt,
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Full HD DVD?

512GB/s bei 16GB erscheinen mir nicht extrem schnell. Mit GDDR5x geht das auch schon imo. Mal sehen was zukünftige "Stufen" bringen.
Gut geht es weiter. Gefühlt gibs GDDR5 schon ewig und ist immer noch nicht selbstverständlich.
 
512GB/s bei 16GB erscheinen mir nicht extrem schnell. Mit GDDR5x geht das auch schon imo.

Bei einem 256Bit SI ohne Clamshell mit GDDR5X? Wäre gern an dem Produckt interessiert, was 512GB/s Durchsatz bei einem VRam Ausbau von 16GB hat.


@Topic
Dat GV104 Vollausbau :drool:
 
Zuletzt bearbeitet:
Zudem arbeitet gddr5x extrem nah am Temperaturlimit wie man ja auf IR Bidern gesehen hat...
Ein Nachfolger ist auf jeden Fall notwendig und HBM ist leider noch immer nicht breit und vielseitig genug verfügbar.
 
Ich hoffe trotzdem mal, dass die 1180 Ti dann mit HBM kommt und ein kurzes PCB hat...
 
Zudem arbeitet gddr5x extrem nah am Temperaturlimit wie man ja auf IR Bidern gesehen hat...
Ein Nachfolger ist auf jeden Fall notwendig und HBM ist leider noch immer nicht breit und vielseitig genug verfügbar.

Welche Bilder meinst du!? Doch nicht irgendwelche von der TI? -> sagt absolut nix aus, da die Hitze über das PCB verteilt wird.
Solange es nicht in kritische Bereiche geht und das ist offenbar nicht der Fall, ist das doch nur eine Annahme...

Ne TitanX oder 12Gbps TI läuft absolut schmerzfrei, selbst mit VRAM OC ohne Mucken...
Sehe da nix von Temperaturlimit!

512GB/s bei 16GB erscheinen mir nicht extrem schnell. Mit GDDR5x geht das auch schon imo. Mal sehen was zukünftige "Stufen" bringen.
Gut geht es weiter. Gefühlt gibs GDDR5 schon ewig und ist immer noch nicht selbstverständlich.

Nein, 12Gbps ist das max. im Moment, was auf der TI mit 12Gbps Chips anliegt. Hier wird von 16Gbps gesprochen, was entsprechend 33% mehr sind.
"Das" es entsprechend in den genannten Bandbreiten heute schon geht, ist einfach dem Fakt geschuldet, die TI nutzt ein 352Bit SI und die TitanX ein 384Bit SI. Es wäre selbst ein 512Bit SI technisch denkbar. Mit GDDR6 wären das aber alles eben Bandbreiten um 33% mehr als heute... ;) Oder weniger Interfacebreite...

So könnte ne GV104 mit +- ein paar Prozent auf 1080TI Niveau mit 16GB GDDR6 kommen ohne dabei in ein Bandbreitenlimit zu laufen... Ne GV102 dann mit 384Bit SI und entsprechend 24GB bei um die 660-680GB/sec.

- - - Updated - - -

Ich hoffe trotzdem mal, dass die 1180 Ti dann mit HBM kommt und ein kurzes PCB hat...

Du meinst so wie ne 266mm Vega64 mit HBMv2 und ne Zotac 1080TI mini mit 211mm?
Ne, dann lieber doch GDDR ;)
Selbst ne FuryX ist mit ihren 191mm bringt es da nur auf unwesentlich weniger... Einzig die Nano würde da merklich weniger brauchen. Aber eben bei klarer Decklung der Leistungsaufnahme eben auch deutlich weniger Kühlfläche notwendig.

Mit klassischem GDDR Ansatz kann man auch klein bauen, die Kühlleistung muss aber deswegen trotzdem irgendwo her kommen!
 
So lange GDDR6 nicht unter den IHS der GPU passt, ist er keine Konkurrenz für HBM2. ;)
 
Zuletzt bearbeitet:
Es gab schon mal Grafikkarten die mit 512 Bit angebunden waren warum geht das heute nicht mehr ?
 
Es gab schon mal Grafikkarten die mit 512 Bit angebunden waren warum geht das heute nicht mehr ?
Die Speicherdichte, da inzwischen gestapelt wird und nicht auf die Fläche verteilt, dadurch hat man niedrige Latenzen kann aber nicht mehr so viel auf einmal lesen/schreiben.
Das ist vergleichbar als würden wir 100% unseres Gehirn Zeitgleich nutzen, dann würden wir uns in pure Energie verwandeln. :)
 
@Fdsonne Das Vega so lang ist hat zu mindestens keine erkennbar sinnvollen Gründe. Die hätten dort gut 5cm einsparen können. Frag mich immer noch was AMD da gedacht hatte.

Und ich will eine relativ kurze Karte mit Highend PCB als Referenz/FE damit man ne ordentliche Wasserkühler Auswahl hat. Auf die Zotac Mini musste man ewig warten und die WaKü Version von der hat Alu im Kreislauf...

Phantomias deine Argumente waren komplett sinnlos. Der Vorteil von HBM ist die Strom- Und Platz-Ersparnis. Das die Haupt Kupferplatte vom Kühler nun den Speicher mitkühlt oder nicht ist doch völlig egal, solange der jeweilige Hersteller sich Gedanken drum macht wie der Speicher irgendwie gut gekühlt wird.
 
Zuletzt bearbeitet:
@NasaGTR
Vor allem der Kühler Hersteller! :bigok:
 
Es gab schon mal Grafikkarten die mit 512 Bit angebunden waren warum geht das heute nicht mehr ?

Backend - Frontend Verhältnis würde den Chip nur "sinnlos" aufblähen (der V100 mit intern 512Bit ist ~800mm2 groß). Dank GDDR6 sind Dichten von 2GB per IC und GP102 Durchsätze bei Mainstream-typischen 4 Cluster Aufbau samt 256Bit möglich: schöner kann es net sein :)

Fragt sich nur wie Nvidia den beschnittenen GV104 behandelt, denn bei 64ROPS dürfte man am SI net viel schnippeln; maximal ein IC (x32) weg und man käme dann noch auf Stolze 14GB Vram samt 56Rops und einem 224Bit SI. 2 bis 3 SM's disabled und man hätte den beschnittenen GV104 noch in Reichweite des großen Bruders: Bei Pascal-ähnlichen Launchpreisen von 650$ herum für den Vollausbau und 550$ für den beschnittenen dürften alle Beteiligten glücklich werden :d

Eine Clamshell Version mit GDDR5X halte ich für unwahrscheinlich. Und wer net mehr Geld ausgeben will wartet halt auf den GV106.
 
Zuletzt bearbeitet:
Sorry der erste Geforce hat als Vollausbau ca. 450 DM gekostet das waren noch reele Preise . Ich hoffe das Intel mit Herrn Koduri in einigen Jahren HighEnd Chips entwickelt und dann ein Dreikampf herrscht das bringt die Preise wieder in richtige Bahnen
 
Ohh bitte nicht. Ich will keine kurzen Karten ala den Furys. Das können Dritthersteller wie Zotac von mir aus bringen, aber ich will ein ordentlich langes Ref PCB.

Naja solange das PCB mit sehr guten VRMs ausgestattet ist und dort keine Kompromisse wegen der Größe eingegangen werden, was sit dann das Problem an nem kurzen PCB?
 
Guter Fortschritt und eine schöne Übergangslösung bis zur großen Verfügbarkeit von HBM2. Denn das wird auch 2018 unterhalb von 500€ eine Sackgasse sein.
 
Sorry der erste Geforce hat als Vollausbau ca. 450 DM gekostet das waren noch reele Preise . Ich hoffe das Intel mit Herrn Koduri in einigen Jahren HighEnd Chips entwickelt und dann ein Dreikampf herrscht das bringt die Preise wieder in richtige Bahnen

Wenn Intel da für irgendwas kämpfen wird, dann darum wer die höchsten Preise hat ;).
 
Sorry der erste Geforce hat als Vollausbau ca. 450 DM gekostet das waren noch reele Preise . Ich hoffe das Intel mit Herrn Koduri in einigen Jahren HighEnd Chips entwickelt und dann ein Dreikampf herrscht das bringt die Preise wieder in richtige Bahnen

Immer diese sinnlosen Vergleiche... 1999 gab es auch einen 520i ab 33k Euro, heute kostet der mind. 41k. Und was sagt uns das?

Ja, die GeForce sind seit einiger Zeit echt teuer geworden, aber man kann auch nicht erwarten, dass alles den gleichen Preis behält, einfach weil es früher so war (auch sowas wie Inflation scheint manchem ja Fremd zu sein)... Und mal ehrlich, scheinbar sind doch der Großteil der Käufer bereit den Preis zu zahlen. Sonst würden sie ihn nicht verlangen ;)
 
Ah, die erste 16Gb Chips. Damit kommt man dann doch weiter auch im Grafikbereich. SKHynix hat bislang ja nur 8Gb angekündigt und GDDR5X gibts auch nur als 8Gb und scheint auch nicht anders geplant zu sein. Das verlängert die Nutzungsdauer für GDDR jetzt ein wenig, aber langfristig kann GDDR mit der Speicherdichte her einfach nicht mit Stapelspeicher mithalten. 2 Stacks haben jetzt schon max. 16GB, dafür braucht man bei GDDR und 256Bit eben besagte 16Gb-Chips. Das passt also vorerst. Bei der 3. HBM-Generation ist dann aber feierabend, da kommt dann kein GDDR mehr brandbreiten- und vor allem dichtetechnisch mehr mit. Ab da wirds auch endgültig billiger, wenn man große Speichermengen benötigt.
 
Zuletzt bearbeitet:
@Fdsonne Das Vega so lang ist hat zu mindestens keine erkennbar sinnvollen Gründe. Die hätten dort gut 5cm einsparen können. Frag mich immer noch was AMD da gedacht hatte.


So viel Luft ist da nicht. Der Block ist riesig. Hinter dem Lüfter ist zwar noch Luft, aber das wegzukürzen kollidiert mit den Stromanschlüssen. Diese hätte man dann nach hinten raus machen müssen. Alternativ den Lüfter kleiner machen oder eben durch größere Winkel für mehr verwirblung im Luftstrom sorgen müssen. -> das Design ist schon sinnig so wie es ist!

Das PCB ist doch lange nicht das wirkliche Problem. Nicht wie früher, wo das Ding "voll bis unters Dach" war. Heute ist eher die Kühlung ein großer Einflussfaktor, wenn nicht gar das Limit. Und die Vega64 muss eben auch mal 400W wegstecken können.

So ne Zotac Mini halt nicht. Oder ne Fury Nano ;)

Naja solange das PCB mit sehr guten VRMs ausgestattet ist und dort keine Kompromisse wegen der Größe eingegangen werden, was sit dann das Problem an nem kurzen PCB?

Kühlung -> Wasser ist eben keine Massenoption, wie die Fury gezeigt hat...

Ah, die erste 16Gb Chips. Damit kommt man dann doch weiter auch im Grafikbereich. SKHynix hat bislang ja nur 8Gb angekündigt und GDDR5X gibts auch nur als 8Gb und scheint auch nicht anders geplant zu sein. Das verlängert die Nutzungsdauer für GDDR jetzt ein wenig, aber langfristig kann GDDR mit der Speicherdichte her einfach nicht mit Stapelspeicher mithalten. 2 Stacks haben jetzt schon max. 16GB, dafür braucht man bei GDDR und 256Bit eben besagte 16Gb-Chips. Das passt also vorerst. Bei der 3. HBM-Generation ist dann aber feierabend, da kommt dann kein GDDR mehr brandbreiten- und vor allem dichtetechnisch mehr mit. Ab da wirds auch endgültig billiger, wenn man große Speichermengen benötigt.

Ich sehe heute lange schon GPUs mit 24-32GB GDDR5, nicht X, nicht 6... Das heist, bei 384Bit SI einer fiktiven GP102 GPU wären 48GB möglich, bei 512Bit SI eben 64GB mit diesen 16Gb Chips, welche angekündigt wurden. Bei Durchsätzen von 768GB/sec bis 1TB/sec. HBM müsste den Durchsatz nochmal verdoppeln um bei zwei Stacks zu vollem 1GHz Takt in diese Regionen zu kommen. Und die Kapazität nochmal vervierfachen. Oder eben nur doppelte Kapazität only bei wohl deutlich teurerem vier-Stack Aufbau.

Solange der GDDR Speicher weiter entwickelt wird, wird sich HBM aus meiner Sicht schwer tun. Vor allem dann, wenn absoluter Platzbedarf auf dem PCB nicht das direkte Problem ist. Bei ner APU bspw. sieht das anders aus... Ne HighEnd dGPU hingegen!?
 
Sorry der erste Geforce hat als Vollausbau ca. 450 DM gekostet das waren noch reele Preise .
Die Karte war damals auch nicht mehr wert, da es jedes Jahr eine massive Leistungssteigerung gab. Das was so als wäre eine 980Ti heute nur noch LowEnd. Ok, für manche mag das sogar zutreffen...
 
Immer diese sinnlosen Vergleiche... 1999 gab es auch einen 520i ab 33k Euro, heute kostet der mind. 41k. Und was sagt uns das?
Eigentlich sagt uns das sehr schön dass die Preise von grakas völlig unverhältnismäßig gestiegen sind, im Gegensatz zum Durchschnitt von anderen Dingen.
33k -> 41K: +24%
450DM (225€) -> 800€ für GTX 1080Ti: +255% !!!
 
Für die erste Geforce (256er) hatte ich 1999 600DM bezahlt und das waren teils günstige Preise. Die 450DM sind mal Humbug.

Außerdem kann man die Geforce2Ti für 1200DM genauso einbeziehen und kommt dann locker auf ein gutes heutiges GTX1080Ti Verhältnis :d
 
Zuletzt bearbeitet:
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :d
 
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :d
Das waren DM-Preise. Wenn man die Inflation einberechnet kommt man wahrscheinlich auf ähnliche Preise. Und nach einem halben Jahr kam bereits die GF3.
 
war die GF2 Ultra nicht sogar noch teurer als die Ti damals?

jedenfalls war die damals schon schweine teuer...und was damals die GeForce2 Ultra war, ist heute halt eine 1080ti :d

Ja sorry war die Ultra (1200DM) der Ti Ableger war so um die 400 herum...

Hatte mich den ganzen Tag über kasteit ob der Frage ob nun doch nochmal 'ne AIB GTX1080Ti oder nur 'ne 1070Ti mir zu holen und dabei bin ich wohl ziemlich Matsche geworden im Kopf :stupid: Kack Volta hätte auch eher schon kommen können aber naja, dat GDDR6.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh