GTC17: SK Hynix zeigt GDDR6 – Einsatz auf zukünftigen NVIDIA-Grafikkarten?

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
sk-hynix.jpg
Im April kündigte SK Hynix die konkreten Arbeiten an einer ersten Variante des schnelleren Grafikspeichers GDDR6 an. Auf der GPU Technology Conference ist SK Hynix einmal mehr als Partner von NVIDIA vertreten und zeigt dort auch die eigenen Speicherlösungen – darunter auch erste GDDR6-Chips. Anders als im vergangenen Jahr gibt es allerdings keinerlei Hinweis auf HBM2, einzig der Begriff High Bandwidth Memory fällt im...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Müsste es nicht "unveiled" anstelle von "uneiled" heißen?

https://www.hardwareluxx.de/index.php/galerie/komponenten/storage/gtc17-skhynix.html
 
16 Gbps... Damit wäre ein Chip mit großem Interface fast genauso schnell wie HBM2. Ich denke fast dass es noch eine ganze Weile dauern wird bis HBM sich durchsetzt. Wenn dann auch nur auf den großen Karten.
 
dann stellt sich mir langsam die frage was amd sich da gedacht hat. so krass ist hbm nun auch nicht, als dass man sich deswegen ne karte kaufen würde. die kleinen karten sind zwar nice, aber für die masse doch eher uninteressant, da genug platz da ist.

beim lesen des textes wurde mir grad nochmal bewusst, dass die titan xp einfach mehr bandbreite hat als die fury....

man kann nur hoffen dass sie bei karten nicht so ins hintertreffen gelangen wie sie es bei prozessoren waren. mitlerweile sind die quasi ne generation hintendran und sowas ist nocht so einfach wegzustecken wie bei cpus...
 
HBM hat noch ein paar andere Vorteile als nur die reine Speicherbandbreite. Da wäre zum einen die sehr geringe Latenz, zum anderen spart man sich etwas Die-Fläche, da der Speichercontroller nicht so groß sein muss (und kann diese für andere Sachen einsetzen) und HMB zieht relativ betrachtet auch weniger Strom.

So gesehen macht es schon Sinn, HBM zu verwenden, wenn man auf Technologien setzt, die auf zackige Latenzen beruht. Und hier hat AMD mit mit dem neuen Speicher-Management praktisch den HBM als großen Cache realisiert - das kann GDDR6 nicht und wird es auch niemals können.

Bleibt natürlich die Frage, ob die Spiele auch so programmiert werden, dass die davon profitieren könnten - da hapert es ja meistens.
 
Interessant das ganze. Bin der Meinung, dass Nvidia als erster GDDR6 verwenden wird, dennoch wäre es besser weiter in HBM zu investieren / entwickeln.
 
Schön, sieht so aus als würde GDDR noch eine ganze weile konkurrenzfähig sein, vor allem wenn man daran denkt dass HMB noch nie wirklich gut lieferbar war und wie es aussieht so schnell auch nicht sein wird.
Nvidia hat hier finde ich die richtige Entscheidung getroffen, lieber auf bewährtes in deren neuesten Form setzen als etwas besseres was aber noch im Anfangsstadium befindet, lieber auf Nummer sicher gehen lohnt sich, für alle, Hersteller und Kunden, HBM ist schließlich der Grund warum Vega noch immer kein Land sieht (2 Jahre nach FuryX).
 
Naja, eine solche Einstellung ist aber ein ziemlicher Innovationsbremser. Hätten die Hersteller diese Einstellung durch die Bank, wären wir heute wahrscheinlich immer noch im "Real Mode" und mit 1 MB Speicher unterwegs ;)
 
Interessant das ganze. Bin der Meinung, dass Nvidia als erster GDDR6 verwenden wird, dennoch wäre es besser weiter in HBM zu investieren / entwickeln.

Ach echt? Nein wie kommst du denn auf diese abwegige Idee. Nachdem AMD auf HBM setzt und dieses Jahr schon ihr Update geliefert hat und Volta zufällig grob in dem Zeitraum Released werden soll von dem Hynix hier spricht.
 
@Gubb3L
Da hast du was völlig falsch interpretiert! Weder hat AMD ihre HBM Karten für dieses Jahr präsentiert, noch spricht Hynix von diesem Zeitraum. Lies es nochmal genau durch.
 
Nvidia hat hier finde ich die richtige Entscheidung getroffen, lieber auf bewährtes in deren neuesten Form setzen als etwas besseres was aber noch im Anfangsstadium befindet, lieber auf Nummer sicher gehen lohnt sich, für alle, Hersteller und Kunden, HBM ist schließlich der Grund warum Vega noch immer kein Land sieht (2 Jahre nach FuryX).

Und wie sollen sich deiner Meinung nach dann neue Entwicklungen wie HBM jemals am Markt durchsetzen, wenn alle die ganze Zeit auf das Altbewährte setzen und niemand in die Entwicklung solch neuer Technologien investiert?

AMD macht (mal wieder) den Vorreiter und am Ende dankt es ihnen wieder kaum jemand. Das ist schon ein wenig ätzend.

Ok, vielleicht hätten sie das Thema HBM erstmal noch auf die Profi Grafikkarten der FirePro bzw. RadeonPro Serien beschränken sollen. Da ist NVidia mit seinen Tesla GPUs auch mit HBM unterwegs.
Aber da AMD mit Vega ja tüchtig an der GPU Architektur geschraubt hat, wars wohl auch der beste Zeitpunkt, sich direkt mit HBM auch im Consumersegment zu beschäftigen.

Und von "kein Land sehen" kann bei Vega bisher gar keine Rede sein. Die Veröffentlichung ist seit geraumer Zeit für Mitte 2017 angesagt. Daran hat sich nichts geändert. Wie es mit der Leistung aussieht, davon wissen wir noch gar nichts. Da kannst du also gar keine Aussage treffen.
Warten wir einfach ab, was uns AMD da in den kommenden Wochen präsentieren wird (spätestens Ende Juni müsste es ja soweit sein) und urteilen dann darüber.
 
@Gubb3L
Da hast du was völlig falsch interpretiert! Weder hat AMD ihre HBM Karten für dieses Jahr präsentiert, noch spricht Hynix von diesem Zeitraum. Lies es nochmal genau durch.

Hätte ich ihm auch gesagt, danke dafür.

@Gubb3L

Augen auf, Ohren auf....
 
@Gubb3L
Da hast du was völlig falsch interpretiert! Weder hat AMD ihre HBM Karten für dieses Jahr präsentiert, noch spricht Hynix von diesem Zeitraum. Lies es nochmal genau durch.

Ich hab nicht gesagt dass AMD schon Vega/HBM2 auf dem Markt hat sondern ihr Update also 480-> 580. Also Karten die GDDR nutzen.

"Laut eigenen Angaben arbeitet SK Hynix derzeit mit Partnern daran, GDDR6 möglichst schnell in den Markt einzuführen. Anfang 2018 soll es soweit sein – dies bestätigte ein Mitarbeiter von SK Hynix auf der GPU Technology Conference. "
Hynix spricht von Anfang 2018 für die Massenproduktion und von einer vorher gehenden Riskproduction. Nvidia nutzt heute GDDR5X da sie Bedarf nach schnellerem Speicher haben aber HBM2 noch nicht weit genug für sie ist um es im Consumermarkt einzusetzen. Volta wurde ursprünglich für Q1 2018 spekuliert wobei neuerdings von teils sogar schon Q3 2017 ausgegangen wird. Riskproduction + Volta in Q4 2017 im Highendsegment (Titan) und Massenkarten im Q1 2018 würde doch Sinn ergeben.
Also wer wird höchst wahrscheinlich GDDR6 als Erstes einsetzen? AMD die mit Vega alle Hand voll zu tun haben und erst noch ihr komplettes Ryzen Lineup inklusive APU´s dieses Jahr auf den Markt bringen müssen bestimmt nicht. Aber heute Abend werden wir mehr wissen.
 
Zuletzt bearbeitet:
AMD macht (mal wieder) den Vorreiter und am Ende dankt es ihnen wieder kaum jemand. Das ist schon ein wenig ätzend.

ich hab es ihnen gedankt und hab mich 2015 für Fury in Verbindung mit Freesync entschieden und was habe ich davon - ne 600 Euro Karte mit der ich in FHD meist kaum mehr Leistung als mit einer 290/390/980 habe und in 4K geht immer öfter der VRAM aus aber dafür hab ich HBM :fresse:
und da ich nun nen freesync Monitor hier hab darf ich lustig warten bis vielleicht mal irgendwann im Sommer etwas mehr Leistung um die Ecke kommt während man bei Nvidia schon seit nem Jahr (1080) mehr Leistung und seit 2 Monaten (1080ti) massig mehr Leistung zu Verfügung hat.

Danke Amd kann ich da nur sagen hat sich wirklich gelohnt auf Fury zu setzen (achtung ironie inside) :wut:
 
Verkauf den Freesyncmonitor, kauf nen überteuerten Gsyncmonitor und ne 1080ti.
Jensen wird sich über weitere Lemminge freuen um sich seine hässlichen Lederkittelchen zu finanzieren 😉

PS. Falls einige es vergessen haben, vor Maxwell war AMD/ATI ne ganze Weile Nvidia voraus.
 
Zuletzt bearbeitet:
von vorraus würde ich da nicht sprechen, aber konkurrenzfähig und maxwell ist nun auch schon einige zeit her...
 
Verkauf den Freesyncmonitor, kauf nen überteuerten Gsyncmonitor und ne 1080ti.

das ich gsync nicht unterstützen will ist aber auch der absolut einzige Grund das ich weiter auf Vega warte und nicht schon lange ne 1080ti habe - es macht nämlich keinen Spass 4-5 Spiele auf Halde liegen zu haben weil die Leistung der Graka in 4K selbst mit erheblich reduzierten Details nicht für durchgängie 33 Fps reicht damit zumindest mit freesync ein halbwegs brauchbares Spielerlebnis rauskommt.

und ja sollte Vega nicht zumindest über der 1080 und halbwegs nahe an der 1080ti rauskommen wird es wohl oder übel darauf hinauslaufen das ich den freesync moni verkaufe und auf gsync mit 1080ti umsteige - Hbm hin oder her, überteuert hin oder her - irgendwann bin ich das warten auf vernüftige Leistung leid selbst wenn ich dafür irgendwelche Lederkittelchen :fresse: finanzieren muß :wall:
 
Naja, sich einen 4k Monitor kaufen ohne passende gpu die das packt ist auch nicht gerade, "optimal".
 
um deinem Gedächtnis etwas auf die Sprünge zu helfen wie Amd Fury/Fiji vorgestellt hat:

AMD Ushers in a New Era of PC Gaming with Radeon™ R9 and R7 300 Series Graphics Line-Up including World’s First Graphics Family with Revolutionary HBM Technology


AMD unleashes a spectrum of innovation with advanced technologies like High-Bandwidth Memory, the best 4K gaming experiences, and the most advanced VR solutions, all ready for next-generation DirectX® 12 gaming

960x480.jpg

soviel zur passenden gpu :d und nvidia bietet auch ohne hbm leider schon lange wesentlich mehr 4K Gaming Experience, und da GDDR6 dann fast so schnell und sparsam wie HBM ist bleiben da nicht mehr allzuviele Vorteile ausser der Latenz übrig
 

Anhänge

  • 960x4802.jpg
    960x4802.jpg
    36,7 KB · Aufrufe: 269
Zuletzt bearbeitet:
Damals war es vllt. "the best 4K Gaming experience von AMD" :d

Ist ja auch egal, habe selber so meine Zweifel bzgl. AMD und Vega aber wenn ich dann die Gsync-Monitor Preise sehe verschwinden die Zweifel recht schnell :shot:

ps. Erst ab Polaris sind die GPU "Designs" wieder von Raja Koduri AMD wirbt Grafik-Hochkaräter Raja Koduri von Apple ab | heise online
Er ist sozusagen der Jim Keller der GPUs für AMD.
Maxwell war ein Glücksgriff für Nvidia und Pascal ist nix anderes als Maxwell mit deutlich höheren Taktraten.
Nvidia Showdown! Pascal vs Maxwell at same clocks, same FLOPS - YouTube
 
Zuletzt bearbeitet:
Naja, eine solche Einstellung ist aber ein ziemlicher Innovationsbremser. Hätten die Hersteller diese Einstellung durch die Bank, wären wir heute wahrscheinlich immer noch im "Real Mode" und mit 1 MB Speicher unterwegs ;)


Und wie sollen sich deiner Meinung nach dann neue Entwicklungen wie HBM jemals am Markt durchsetzen, wenn alle die ganze Zeit auf das Altbewährte setzen und niemand in die Entwicklung solch neuer Technologien investiert?

:confused:

Das wollte er doch gar nicht aussagen...

Er hat doch nur geschrieben, dass Nvidia es seiner Meinung nach richtig macht, erst auf etwas bewährtes in seiner neusten zu setzten und so auf Nummer sicher zu gehen, statt auf etwas zu setzten, was sich noch im Anfangsstadium befindet, also auch noch Risiken hat, und auch noch nicht richtig/schlecht verfügbar ist. Er sagt doch gar nicht, dass man immer auf das Altbewährtes setzten soll und auf Innovation solle man nicht setzten. Er sagt nur, dass es jetzt der falsche Zeitpunkt ist, da es aktuell noch Probleme bei der Verfügbarkeit gibt.


AMD macht (mal wieder) den Vorreiter und am Ende dankt es ihnen wieder kaum jemand. Das ist schon ein wenig ätzend.

Wieso macht AMD mal wieder den Vorreiter? Nur weil sie HBM2 in den Mainstream bringen? Hat Nvidia dann den Voreiter gespielt, als sie HBM2 vor AMD in Profibereich gebracht haben und muss ihnen dann nicht auch gedankt werden?

Außerdem bringt es nichts immer der Vorreiter zu sein, wenn man dadurch selbst Nachteile hat.
Die Fury kam zwar mit dem tollen HBM-Speicher, aber mit dem großen Nachteil, dass es nur mit 4GB ging. Aufgrund des geringen Vrams hat sie sogar oft das nachsehen gegenüber der 390x, welche eigentlich eine Stufe unter der Fury steht.
Des weiteren wird wohl die schlechte Verfügbarkeit von HBM2 der Grund sein, warum VEGA erst für Ende Juni geplant ist und dann auch nur in geringen Stückzahlen (16.000 Stück) kommt.
 
Das Problem bei solchen Dingen ist, Nvidia hätte sich auch falsch entscheiden können, sowas ist immer mit Risiken verbunden.
Es konnte keiner ahnen, dass die HBM Produktion so problematisch sein wird (naja Speicher ist z.Z. sowieso ein Problemthema was die Produktion angeht)

Außerdem hätte es kein HBM ohne AMD gegeben, ist eine Co Produktion, Nvidia hat z.B. auf Stacked Dram (Konkurrent von HBM von Micron) gesetzt und anscheinend ist das schon wieder vom Tisch, also hat sich Nvidia dort falsch entschieden.
Future Nvidia 'Volta' GPU has stacked DRAM, offers 1TB/s bandwidth - TechSpot

ps. Die Fury hatte bei weitem mehr Probleme als nur die 4GB
Finde es außerdem immer lustig, Nvidia wird für "Innovationen" (wo eigentlich?) gedankt
Wenn AMD soetwas macht (Mantle, was jetzt Vulkan und teilweise DX12 ist und HBM) ist es falsch.
Fury war ein Reinfall, keine Frage.
 
Zuletzt bearbeitet:
Die FuryX und ihre nur 4 GB HBM waren der Grund, warum ich nach 2 Jahrzehnten AMD / ATI nVidia gekauft hatte. 4 GB vRam war schon mit den 290X Karten bei UHD zu wenig (spätestens mit nachhelfen in der ini und Texturmods - Fallout 4 nimmt sich da easy 10 GB zB). Das selbe Problem hat nun auch Vega, für UHD ist die Karte mit nur 8 GB vRam einfach nicht zukunftssicher (für mich).
Es ist zwar sehr interessant wer welche Technik einsetzt usw. aber für meine endgültige Kaufentscheidung spielt das dann keine Rolle, da kommt es dann nur darauf an, was am ende dabei rauskommt. GDDR ist wohl noch lange nicht am Ende, gerade wenn man berücksichtigt das nVidia noch nicht einmal ein 512bit interface nutzt (wie es AMD schon bei der 290 / 390er Serie gemacht hat).

Persönlich hätte ich gerne mehr als 12 GB vRam, damit man endlich mal 8k Texturen vernünftig nutzen kann.

Das AMD so früh schon auf HBM gesetzt hat, ist meiner Meinung nach ein riesen Fehler gewesen. Man hätte min. noch eine Furry und nun auch Vega mit GDDR und viel vRam machen sollen (was dann aber wohl die HBM versionen kannibalisiert hätte).
 
Zuletzt bearbeitet:
Finde es außerdem immer lustig, Nvidia wird für "Innovationen" (wo eigentlich?) gedankt
Wenn AMD soetwas macht (Mantle, was jetzt Vulkan und teilweise DX12 ist und HBM) ist es falsch.
Fury war ein Reinfall, keine Frage.

Tile-Base-Rendering u.a.?

Sagt doch keiner, dass es falsch sei, nur der Zeitpunkt scheint einfach nicht der richtige zu sein.
 
Tiled rendering - Wikipedia

PowerVR rendering architecture (1996): The rasterizer consisted of a 32×32 tile into which polygons were rasterized across the image across multiple pixels in parallel. On early PC versions, tiling was performed in the display driver running on the CPU. In the application of the Dreamcast console, tiling was performed by a piece of hardware. This facilitated deferred rendering—only the visible pixels were texture-mapped, saving shading calculations and texture-bandwidth.
Microsoft Talisman (1996)
Dreamcast (powered by PowerVR chipset) (1998)
Gigapixel GP-1 (1999)[6]
Intel Larrabee GPU (2009) (canceled)
PS Vita (powered by PowerVR chipset) (2011)[7]
Nvidia GPUs based on the Maxwell architecture and later architectures (2014)[8]

Tile-based rasterization is nothing new in graphics. The PowerVR architecture has used tile-based deferred rendering since the 1990’s, and mobile GPUs from ARM and Qualcomm also use various forms of tiling. However, tiling has repeatedly failed on the desktop. In the 1990’s, Gigapixel developed the GP-1 tiled-rendering GPU, before the company was acquired by 3dfx (in turn acquired by Nvidia). The PowerVR-based Kyro desktop GPU was released in 2001, but STMicro cancelled the product line. Microsoft also investigated tiling for Talisman, an entirely new graphics pipeline (including APIs and hardware) that was ultimately shelved.

Tile-based Rasterization in Nvidia GPUs

Ehhm jo... soviel dazu ^^ wobei das bei immer komplexeren Games immer weniger bringt
Vega and the Compute Conundrum: Past Present Perspective - YouTube
Vega: Of Primitives Pixels. A Look at the GCN Revolution. - YouTube

Hier noch ein schönes Video bzgl. Innovation (beide Firmen haben da keine Weiße Weste aber die eine ist eben weißer)
Innovation vs Rebranding - YouTube

KEINE der beiden Firmen will uns was Gutes tun, aber man sollte sich für das geringere Übel entscheiden.
Wobei AMD/ATI immerschon mehr auf Innovation gesetzt hat (oft die neuste DX Unterstützung etc.)
 
Zuletzt bearbeitet:
tja das geringere Übel, aber irgendwann nützt das auch nichts mehr wenn man monatelang einfach nicht die Leistung bekommt die man bräuchte ...
 
Ich hab dir schon einen Vorschlag gemacht, durch ständige Wiederholung wirds nämlich nicht besser :P
ps. ich warte auch schon ne Zeit lang auf Vega und jeden Tag wird es schwerer :shot:
 
Razor, beachte doch bitte den Kontext. Tile-Based Rendering ist an sich in der Tat nichts neues oder eine exklusiv von nVidia entwickelte Technik. Nur war es eben nVidia, die die Technik als erstes mit Maxwell in das Desktop-Segment gebracht hat. Das kann man hier durchaus als Innovation ansehen, denn es kommt hier auf die Implementation an, die sich nicht nach einem festen Schema richten muss. Das Tile-Based Rendering welches nVidia seit Maxwell einsetzt beinhaltet mit großer Wahrscheinlichkeit proprietäre Algorithmen, die sicher mehrere Phasen der Entwicklung durchlaufen mussten. Also, auch wenn es Tile-Based Rendering schon seit langer Zeit gibt und es nichts nVidia exklusives ist, so schmälert es doch keineswegs die hier von nVidias geleistete Innovation.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh