HBM-Gegenspieler: Micron will Speicherbandbreite mit GDDR5X steigern

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.146
<p><img src="/images/stories/logos-2015/micron.jpg" width="100" height="100" alt="micron" style="margin: 10px; float: left;" />Bei AMD und NVIDIA scheint der Weg für eine zukünftige Speichertechnologie geebnet zu sein. Während AMD bereits ab diesem Sommer auf High Bandwidth Memory setzt - z.B. auf der <a href="index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html" target="_self">Radeon R9 Fury X</a>, <a href="index.php/artikel/hardware/grafikkarten/36032-asus-radeon-r9-fury-strix-im-test.html" target="_self">Radeon R9 Fury</a> und <a href="index.php/artikel/hardware/grafikkarten/36513-amd-radeon-r9-nano-im-test.html" target="_self">Radeon R9 Nano</a> - wird NVIDIA erst im kommenden Jahr mit der Pascal-GPU auf eben diesen Speichertyp setzen. Ob dann SK Hynix...<br /><br /><a href="/index.php/news/hardware/grafikkarten/36951-hbm-gegenspieler-micron-will-speicherbandbreite-mit-gddr5x-steigern.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Klingt bisschen nach riding a dead horse. Da wird noch auf Biegen und Brechen versucht diese alte Technologie mit viel Aufwand halbwegs am Markt zu halten obwohl sie schon längst überholt ist.
 
Sowas ist doch schön zu lesen.
Hier sieht man mal wieder, Konkurrenz belebt das Geschäft, für den Kunden ist das im Endeffekt immer ne positive Sache.
Erfreulich ist das natürlich für die Midrange-Karten beziehungsweise für Karten der gehobenen Mittelschicht der nächsten Generation, die unter Umständen durch den "alten" GDDR5-Vram gedeckelt werden, solange man den Takt nicht hochzüchtet und damit wiederum die Leistungsaufnahme hochtreibt.
Jetzt mag der ein oder andere sagen, ach komm die 2 Watt des Vrams.... Wenn ich persönlich den V-Ram meiner 280X nur um 100MHz anziehe, zeigt mein Leistungsmesser vor dem Netzteil unter Volllast locker flockig 20-30Watt mehr Verbrauch an.

Somit scheint das ne runde Sache zu werden für die Karten, die nicht mit HMB2 ausgestattet werden.
Sei es, weil das Preissegment ein anderes ist, oder aus sonstigen Gründen.
 
Klingt bisschen nach riding a dead horse.
GDDR5X ist doch eh nur eine kurzfristige übergangslösung und eigentlich sehr zu begrüßen.
HBM ist aufgrund der Interposers noch zu teuer für die <300€ preisklasse, da ist mir dann GDDR5X trotzdem lieber als GDDR5!
 
Für die eine Generation ist es auch schon egal -> sobald die ZEN-APU bzw der 5775C-Nachfolger mit 4GB HBM/HMC aufschlagen stirbt der Low-Midrangebereich eh aus....
 
Videospeicher: Microns GDDR5X soll bis zu 16 GBit pro Sekunde erreichen - Golem.de

Könnte also Spannend werden.. Zumindest GP104 und Arctic Island R480 Sehe ich dann mit GDDR5X, grade wenn man das Interface und den Controller nur Minimal anpassen muss.. GP100 und AMDs Dicker Vollausbau wird dann HBM haben, vermutlich
Die Frage ist aber, lohnt sich GDDR5X ausser bei Konsolen und Grafikkarten noch bei SOCs?
 
Da wird noch auf Biegen und Brechen versucht diese alte Technologie mit viel Aufwand halbwegs am Markt zu halten obwohl sie schon längst überholt ist.

Immer her damit ich bin jedenfalls nicht bereit für den aktuellen Stand der Technik "HBM" den aktuellen Deppenaufschlag von 1/3 des Kartenpreises zu zahlen bei Null Vorteil.
HBM sieht auf dem Papier nett aus aber in der Praxis verpufft doch da wirklich die ganze Leistung bei Spielen. Was bringt mir den aktuell diese fast 10x Leistung von HBM gegen GDDR5 ... Nichts, außer höherer Kosten!
 
ein großer vorteil von HBM ist der viel geringere energieverbrauch, das sollte man nicht ausser acht lassen.
mobile-GPUs mit 2-4GB HBM würden bei einem notebook/tablet die akkulaufzeit erhöhen.
weniger enerieverbrauch bedeutet auch weniger hitzeentwicklung, bei einem notebook/tablet auch wichtig.
 
Basiert GDDR5 nicht auf DDR3? Gibt es dann keine Grafik-DDR4? Müsste ja auch sparsamer sein.
 
ein großer vorteil von HBM ist der viel geringere energieverbrauch, das sollte man nicht ausser acht lassen.

Ein weiterer großer Vorteil ist die deutliche Platzersparnis, die es ermöglicht, deutlich kleinere Grafikkarten mit dennoch hoher Leistung zu bauen.
Leider verpufft dieser Vorteil aktuell aufgrund der hohen Leistungsaufnahme von High End GPUs und den dadurch nötigen großen Luftkühlern. Wenn man also nicht gerade mit ner WaKü kühlt, ist das blöde.

Die Nano zeigt zwar, dass es auch mit kleinem Luftkühler geht, aber dessen Lautstärke unter Last, ist ja grausam.
 
für mich wird HBM wohl eh erst interessant wenn APUs damit ausgestattet werden.
Grakas mit wenig verbrauch werden wohl deswegen in den nächsten jahren langsam aussterben.

bei geringem verbrauch kann man den HBM auch direkt auf eine GPU oder einen SOC draufsetzen, dann wird das vielleicht auch bei smartphones bedeutung erlangen.
 
1,35v anstelle von 1,5v? Gerne, immer her damit. Am liebsten gleich mit einem Pascal GTX 960/970 Nachfolger.
 
Ein weiterer großer Vorteil ist die deutliche Platzersparnis, die es ermöglicht, deutlich kleinere Grafikkarten mit dennoch hoher Leistung zu bauen.
Leider verpufft dieser Vorteil aktuell aufgrund der hohen Leistungsaufnahme von High End GPUs und den dadurch nötigen großen Luftkühlern. Wenn man also nicht gerade mit ner WaKü kühlt, ist das blöde.

Die Nano zeigt zwar, dass es auch mit kleinem Luftkühler geht, aber dessen Lautstärke unter Last, ist ja grausam.

Du hast vergessen, dass die Einsparungen in die Chips einfließen ;) Ergo werden die Karten nicht mal Sparsamer, sondern eben nur Effizienter. Aber das Problem bei HighEnd GPUs ist eh , dass die Leute bei 30W Lastunterschied heulen, aber nen 10 jahre alten Kühlschrank haben :d
Mir reicht GDDR5(X) für Karten bis 500€, meinetwegen können die Topdogs HBM haben, aber 700€ für ne HBM Karte ist halt doch ne Ansage. Intressant wird sein, was der Shrink und HBM an Einsparungen bieten werden.
 
Intressant wird sein, was der Shrink und HBM an Einsparungen bieten werden.
Interessant ist auch HBMv2. Sollen die Chips da nicht jeweils 4Gb erreichen können?
Dann bräuchte man für 8Gb nur noch zwei davon was einen kleineren Interposer bedeutet und auch Kosteneinspaarung, angenommen das Stacken von mehr Lagen ist nicht zu überproportional teurer.
 
für mich wird HBM wohl eh erst interessant wenn APUs damit ausgestattet werden.
Grakas mit wenig verbrauch werden wohl deswegen in den nächsten jahren langsam aussterben.
Was für ein Schwachsinn.Dann müsste man jedesmal,wenn die ohnehinn schon magere Onboardgrafik zu langsam ist,die CPU mit austauschen.Dementsprechend wird es für lange Zeit "wenig verbrauchende" Grafikkarten geben.Wobei ersteinmal geklärt werden muss,wie sich wenig Verbrauch definiert.Für die gebotene Leistung hat eine 980er schon recht wenig Verbrauch.
 
Interessant ist auch HBMv2. Sollen die Chips da nicht jeweils 4Gb erreichen können?
Dann bräuchte man für 8Gb nur noch zwei davon was einen kleineren Interposer bedeutet und auch Kosteneinspaarung, angenommen das Stacken von mehr Lagen ist nicht zu überproportional teurer.

Korrekt, aber teuer ist eben immer noch der Interposer. Ich glaube kaum, dass bei NV eine Kosteneffizientere Lösung stattfindet. Ich vermute mal Mainstreamkarten mit HBM2 werden wir noch lange nicht sehen.

Was für ein Schwachsinn.Dann müsste man jedesmal,wenn die ohnehinn schon magere Onboardgrafik zu langsam ist,die CPU mit austauschen.Dementsprechend wird es für lange Zeit "wenig verbrauchende" Grafikkarten geben.Wobei ersteinmal geklärt werden muss,wie sich wenig Verbrauch definiert.Für die gebotene Leistung hat eine 980er schon recht wenig Verbrauch.

Auch wenn es Elki ist, so ganz Unrecht hat er nicht. Grafikkarten unter 120€ braucht eh kein Mensch. auch sind dort die Refreshzyklen zwar nicht länger aber die Leistungssteigerung. Ergo machen APUs schon Sinn, nichts anderes tut ja Intel mit den iGPUs. Bis wir aber mit einer APU 1080P zocken können wird es wohl noch bis Zen dauern, aber schon der ED-Ram der Iris Pro zeigt wohin die Reise geht
 
Zuletzt bearbeitet:
Auch wenn es Elki ist, so ganz Unrecht hat er nicht. Grafikkarten unter 120€ braucht eh kein Mensch. auch sind dort die Refreshzyklen zwar nicht länger aber die Leistungssteigerung. Ergo machen APUs schon Sinn, nichts anderes tut ja Intel mit den iGPUs. Bis wir aber mit einer APU 1080P zocken können wird es wohl noch bis Zen dauern, aber schon der ED-Ram der Iris Pro zeigt wohin die Reise geht
Du hast Microsoft´s Xbox vergessen, die hat auch schon ein Pool.

Der HBM braucht nur so viel Strom, weil die Fury´s einfach Oversized sind, würde mich nicht wundern, wenn der selbe Chip mehr Leistung mit HBM v2 erreicht.
 
vielleicht sehen wir das auch bald, Fiji soll auch HBM2 unterstützen.
Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.
Grafikkarten unter 120€ braucht eh kein Mensch.
Was hat jetzt eine GraKa für unter 120€ mit "wenig Energieverbrauch" zu tun?
 
Zuletzt bearbeitet:
Das war ja auch früher die Stärke von AMD,an die sie sich langsam wieder erinnern.Nicht einfach ein Produkt für heute entwickeln,sondern damit auch Technologien von Morgen ausprobieren.
Je mehr Leute es live sehen umso besser.
Ein Bild mit 8 Meter Diagonale und 8K Auflösung sehen bestimmt auch genial aus!

Beam me up scotty! :bigok:
 
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.

@WoistderAmiga:
Sagte ich was von Niedrigern Energieverbrauch? Nein.. Aber ja das wird der fall sein.. Schon jetzt ist die Iris Pro verdammt Effizient und mit HBM dürfte da noch mehr gehen.. SoC sind die Zukunft, die reine CPU ist ein Auslaufmodell.. Embedded Systeme übernehmen ja nun jetzt schon die Leistung der alten Steuersystem und ARM wird die Lücke nach unten und Oben schließen.. Und es wird nicht mehr Lange dauern, da werden Consumer Modelle neben einer CPU auch eine GPU und den Ram haben. Exascale Systeme sollen ja auch in diese Lücke zielen und selbst die Xeon Phi lösen nach und nach die CPUs ab. Ich denke aber nicht dass man wirklich viel gegenüber einer dGPU sparen kann.. Noch nicht
 
@ Phantomias (Du warst früher mein Held) ^^:

Stimmt vergessen, die Xbox hat ja EDO-Ram oder wie sich das schimpft.

Helden kommen und gehen.
Der GDDR5 mit 1375MHz komtt auf über 300 GByte/s mit 32x PCie Lanes. :)
 
Was für ein Schwachsinn.Dann müsste man jedesmal,wenn die ohnehinn schon magere Onboardgrafik zu langsam ist,die CPU mit austauschen.Dementsprechend wird es für lange Zeit "wenig verbrauchende" Grafikkarten geben.Wobei ersteinmal geklärt werden muss,wie sich wenig Verbrauch definiert.Für die gebotene Leistung hat eine 980er schon recht wenig Verbrauch.
die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.

wäre dem nicht so könnte man auch viel dickere gpus verbauen. siehe z.b. ps4.

mit hbm apus kann man dann schöne kleine mittelklasse gaming pcs bauen.
ich werde mir direkt einen schönen kleinen pc damit bauen. fette atx gaming tower unter dem tisch sind so 2010.

immer mehr komponenten in einen chip packen ist schon lange der trend.
und macht auch sinn.
 
Zuletzt bearbeitet:
Ich halte ja wenig davon Gaming PCs möglcihst immer kleiner zu bauen, hatte auch mal einen, aber warum es sich selbst schwerer machen und alles komplizierter (Kühlung, Grafikkartengrösse, Platz für Festplatten und sonstige Erweiterungen usw..) ?
Ich rede jetzt von richtigen Gaming Kisten, APUs etc fallen da raus ,einfach mangels Leistung, ich stell gerne alle Grafikschrauben auf Anschlag.

Sicher es ist ne grössere Herausforderung und macht Spass, aber wenn man nicht Grad innem Japanischen 10qm Aprtment in Tokio wohnt eigtl unnötig.
Ich bleib daher bei meinem Miditower, ideal für meine Bedürfnisse. Hatte früher mal nen Big Tower(Silverstone TJ07) aber der war mir zu undhandlich und schwer bei umbauten.

GDDR5X geht wohl an mir vorbei ,ich kaufe mir für gewöhnlich eine High End Karte und behalte die ein paar Jahre (meine GTX580 hatte ich von Release Dez 2010 bis Mitte 2015). Wenn also eine neue ansteht hat sich HBM wohl auch in der oberen Mittelkalsse durchgesetzt.
 
Zuletzt bearbeitet:
Sagte ich was von Niedrigern Energieverbrauch? Nein..
Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:
Grakas mit wenig verbrauch werden wohl deswegen in den nächsten jahren langsam aussterben.
Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.

die igpus sind zur zeit massiv bandbreiten limitiert.
das ist also alles andere als schwachsinn. erst informieren, dann denken, dann posten.
Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.
 
Genau das war aber der Gegenstand des Themas,bevor Du es aus dem Zusammenhang gerissen hast.Guckst Du:

Dazu hab ich ja auch gesagt,das eine 980 wenig verbraucht.Versuch die mal in eine CPU mit reinzufummeln und das zu einem interessanten Preis auf den Markt zu bringen.


Das mag sein das dem so ist.Trotzdem sind sie Lahm und teuer.Wieviele verschiedene CPUs mit iGPU soll man eigendlich für jeweilige Einsatzzwecke und Preise entwickeln?Der eine braucht die iGPU garnicht,der andere zwar ordentlich CPU-Leistung aber eine schwache iGPU.Beim anderen ist es umgekehrt.Die möchten Geld für etwas ausgeben was sie brauchen.Nicht für etwas was sie nicht wollen.Und wenn sich der Einsatzzweck mal ändert müssen sie CPU UND GRAFIK neu kaufen.
Die Teile werden in einem "Arbeits-PC" wenig Daseinsberechtigung haben.Notebooks,Konsolen,von mir aus Büro-PCs,da sind sie durchaus adäquat.

Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.
 
Ähm okay... Also ich würde mal sagen Thema verfehlt..Eine 980 ist nur effizient wenn sie im fest vorgegeben Rahmen läuft, sonst säuft die genauso, und wenn man erst die DP Leistung beschneiden muss um Effizient zu sein und das SI, dann passt die Aussage Effizient eh nicht. Mit HBM und fehlenden DRAM Interface würde so eine Karte auf gute 100W kommen, das ist der Vorteil den eben HBM auf iGPUs ausspielen kann. Und von einer Iris Pro als Langsam zu reden, nunja.. AMD APUs sind auch nicht langsam, aber eben Bandbreiten limitiert. Gottseidank werden Solche Techniken dennoch kommen und auch ewig gestrige nicht berücksichtigen.. Wenn es nämlich nach denen ginge, hätten wir 10GHZ Singlecores.
Du merkst nicht das Du nur sabbelst um Überdruck loszuwerden?Die 980 ist genau in dem Bereich effizient,wo sie verkauft wird.Mein 2 Liter 16v ist auch effizient,wenn ich aber in die Kiste reintrample,ja dann.....Genauso als wenn ich die 980 bis ans Limit oce.
Sicher wird die Technologie kommen,das habe ich nie bezweifelt.Aber nur weil die Technologie kommt ein Ende von stromsparenden Grafikkarten zu sehen ist,wie so oft bei Schwätzinator,falsch.Und DAS,und NUR das war das Thema.NICHTS anderes,bist Du unquallifiziert etwas von 120€ Grafikkarten reininterpretiert hast.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh