Neue Gerüchte zur kommenden Grafikkarten-Generation von AMD

Nicht wirklich. Die Leistungsaufnahme ist bei AMD völlig in Ordnung. Der Unterschied ist lediglich, dass AMD mehr Wert auf Computing legt, während Nvidia dort stark kastriert. Deshalb ist Maxwell in Spielen im Moment effizienter, während der effizienteste Supercomputer mit AMD bestückt ist. Stacked Memory ist einfach Teil der HSA Entwicklung. Es ist zudem wichtiger für APUs/SoCs als für dGPUs.

Spätestens seit Maxwell ist die Leistungsaufnahme nicht mehr in Ordnung, sondern ein Kritikpunkt. GPGPU ausgeklammert.
Und Maxwell ist nicht nur deshalb effizienter, weil man das GPGPU bisschen gestrichen hat.:stupid:

Deshalb ist Maxwell in Spielen im Moment effizienter, während der effizienteste Supercomputer mit AMD bestückt ist.

Sinnloser Vergleich.

Fried_Knight schrieb:
Die 380er und 370er kannst du dir auch fast jetzt schon kaufen. Wird ein Hawaii-/Tonga-Refresh.
Wo kann ich mir denn einen Tonga Vollausbau kaufen?

fdsonne schrieb:
Was also macht HBMv1 in dem Fall so attraktiv??

Fast gar nichts. Es war vielmehr keine gute Idee das zu bringen, man hätte lieber bis V2 warten sollen und den neuen Karten GDDR5 draufklatschen sollen.
Das ganze Zeug kostete wahrscheinlich ziemlich viele Ressourcen und jetzt steht man nur mit einer neuen GPU da und das bis 2016 wahrscheinlich.
Ich denk langsam wirklich dass der Ofen aus ist.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt es aktuell Infos, ob man einer GPU, der man HBMv1 beiseite stellt, ohne weiteres/ohne dedizierte Anpassungen auch HBMv2 beiseite stellen kann? Oder wird dafür eine Anpassung an der GPU selbst notwendig?

Eine berechtigte Frage. Im Prinzip geht es auch nur darum HBM mit einer höheren Kapazität zu liefern. Wer sagt uns denn, dass Hynix dies nicht auch schon mit der 1. Generation bereit stellen kann? Das uns bekannte Hynix Dokument wo max. 1GB pro Speicherbaustein für Gen.1 HBM genannt werden ist auch schon was älter und kann im laufe der Zeit noch aktualisiert und erweitert werden. Ich denke nicht das dies zum Problem werden sollte. Irgendwie wird man Fiji schon mehr als 4GB VRAM zur Seite stellen können, die Frage wäre nur wann.
 
Ich denke nicht das dies zum Problem werden sollte. Irgendwie wird man Fiji schon mehr als 4GB VRAM zur Seite stellen können, die Frage wäre nur wann.

Neja, damit das Ding, spekuliert mit den aktuellen Daten im Profimarkt sinnvoll einsätzbar wäre, und das wäre es schlicht und ergreifend, wenn die DP Performance passt nach aktuelle Spekulationen, dann müsste da nicht nur "mehr" wie 4GB drauf sein, sondern da müssten dort 16GB minimum drauf sein. Ich ich glaube ehrlich gesagt einfach nicht, dass wir HBMv1 mit 16GB sehen werden. Selbst 8GB sind zu wenig, wenn wir heute mit 12-16GB GDDR5 in dem Bereich hantieren...

Natürlich wäre es tendentiell möglich, ich sehe es aber als unwarscheinlich an. Nicht umsonst spricht Hynix von HBMv2 mit variabler Stackgröße und nennt einzig eine fixe Größe von v1.
Es spricht aus meiner Sicht alles dagegen, HBMv1 dort zu überarbeiten und die Größen anzupassen, wenn innerhalb von einem Jahr die v2 fertig sein soll.

Noch ein großer Vorteil ist der geringere Platz und die weniger Bahnen im PCB die benötigt werden.
So können die Grafikkarten eventuell kleiner und mit weniger Layer konstruiert werden. Das reduziert natürlich dann auch die Herstellungskosten und erhöht die Gewinnmargen.

Das ist/wäre dann aber auch einfach sehr oberflächlich betrachtet. Kosteneffizienzbetrachtung sollte man eher auf das ganze Produkt sehen... Ob HBMv1 als niegelnagelneue Technik günstiger ist als GDDR5 als bekannte Technik, waage ich zu bezweifeln. Was man auf der einen Seite spart, gibt man auf der anderen wieder aus... In welchem Verhältnis das ganze Steht, ist allerdings nur völlige Spekulation :wink:
Zumal es mir eher um die Sinnhaftigkeit bei besagtem Limit geht. Mit dem Limit verbaut man sich schlicht und einfach einige Einsatzmöglichkeiten für die Karte. Und im Gamermarkt sprechen die Vorteile halt einfach nicht dafür... Und das 4GB Limit ist ebenso unglücklich, wenn man es diplomatisch ausdrücken möchte ;)
 
Nicht wirklich. Die Leistungsaufnahme ist bei AMD völlig in Ordnung. Der Unterschied ist lediglich, dass AMD mehr Wert auf Computing legt, während Nvidia dort stark kastriert.

Das ist natürlich völliger Blödsinn. Maxwell ist was Computing angeht meist schneller als Hawaii.
Siehe: AnandTech | The NVIDIA GeForce GTX 980 Review: Maxwell Mark 2

Overall, while NVIDIA can’t win every compute benchmark here, the fact that they are winning so many and by so much – and otherwise not terribly losing the rest – shows that NVIDIA and GM204 have corrected the earlier compute deficiencies in GK104.

Was DP angeht, sind beide stark beschnitten.
 
Neja, damit das Ding, spekuliert mit den aktuellen Daten im Profimarkt sinnvoll einsätzbar wäre, und das wäre es schlicht und ergreifend, wenn die DP Performance passt nach aktuelle Spekulationen, dann müsste da nicht nur "mehr" wie 4GB drauf sein, sondern da müssten dort 16GB minimum drauf sein. Ich ich glaube ehrlich gesagt einfach nicht, dass wir HBMv1 mit 16GB sehen werden. Selbst 8GB sind zu wenig, wenn wir heute mit 12-16GB GDDR5 in dem Bereich hantieren...

Natürlich wäre es tendentiell möglich, ich sehe es aber als unwarscheinlich an. Nicht umsonst spricht Hynix von HBMv2 mit variabler Stackgröße und nennt einzig eine fixe Größe von v1.
Es spricht aus meiner Sicht alles dagegen, HBMv1 dort zu überarbeiten und die Größen anzupassen, wenn innerhalb von einem Jahr die v2 fertig sein soll.

Ich sehe die Differenzen eher fließend, denn Gen.2 baut auf Gen.1 auf. Überarbeiten hört sich so starr an, sehe es eher als einen flexiblen Aufbau, den man relativ leicht verändern kann. Wenn man sich die Unterschiede zwischen HBM Gen.1 und Gen.2 anschaut, dann beschränkt sich das im wesentlichen nur auf Kapazität und Geschwindigkeit. Mehr Kapazität wird durch mehr "Stacks" und einer höheren Datendichte erreicht. Ob dies nun mit der Bezeichnung Gen.1 oder Gen.2 erreicht wird, sehe ich nicht so fest in Stein gemeißelt an. Wie gesagt, es geht nur darum HBM-Speicherbausteine mit höherer Kapazität zu liefern. Theoretisch könnte man HBM Gen.1 auch bis 32GB liefern, einziger Unterschied zu Gen.2 wäre dann nur die Geschwindigkeit.
 
Wenn es nur das wäre, dann wäre aber auch die Unterteilung von v1 und v2 irgendwie unsinn ;)
 
Wenn es nur das wäre, dann wäre aber auch die Unterteilung von v1 und v2 irgendwie unsinn ;)

Naja, viel mehr sehe ich da im Moment einfach nicht. Oder willst du da auf etwas konkretes hinaus?
 
Ne, ich nicht... Aber offenbar hat der Hersteller sich dazu entschlossen, so eine Trennung wenigstens namentlich zu tätigen... Also entweder da ist noch mehr dahinter, was wir aktuell (noch) nicht wissen, oder es geht vielleicht einfach in der v1 Version nicht bzw. ist nicht vorgesehen, die Größe zu varieren, weil man eben das unter dem Deckmantel der v2 vermarkten möchte.
 
Gibt es aktuell Infos, ob man einer GPU, der man HBMv1 beiseite stellt, ohne weiteres/ohne dedizierte Anpassungen auch HBMv2 beiseite stellen kann? Oder wird dafür eine Anpassung an der GPU selbst notwendig?
Sofern die Anbindung gleich bleibt, sollten keinen Anpassungen notwendig sein. Erst wenn sich die Anbindung ändert, zB von 4 auf 8 Stacks, sind auch Anpassungen an der GPU notwendig.

Für mich ist das ganze HBMv1 Thema irgendwie ziemlich undurchsichtig. Der Sinn dahinter erschließt sich mir einfach nicht, sich einer 4GB Limitierung in v1 zu beugen obwohl die Vorteile primär auf die Computing/den Profimarkt abziehlen.
Die meisten Vorteile sind für jeden Markt wichtig, nicht nur für Computing. Kompaktere Speicheranbindung (weniger Transistorbedarf), geringere Leistungsaufnahme / höhere Bandbreite und auch schnellerer Zugriff sind ebenso für Spiele von Bedeutung. Die einzige Limitierung bei HBM1 ist der Speicher. Aber im Moment ist abseits von Premium Produkten wie der Titan auch nicht mehr als 4 GB an Bord. Daher sehe ich das für dieses Jahr nicht problematisch. Und ob man bei höheren Auflösungen wie 4K Nachteile gegenüber zB 6 GB hat, bleibt auch abzuwarten. Dafür müsste man HBM erst mal in Aktion sehen.


Das ist natürlich völliger Blödsinn. Maxwell ist was Computing angeht meist schneller als Hawaii.
Siehe: AnandTech | The NVIDIA GeForce GTX 980 Review: Maxwell Mark 2
Und meist heisst für dich was? Synthetischer Firlefanz wie CompuBench oder veraltete F@H Implementierungen? :rolleyes: Schau dir richtige und aktuelle professionelle Anwendungen an. Da ist Hawaii immer noch unerreicht. Auch Maxwell kommt da nicht ran. Und viel sparsamer ist Maxwell dann meist auch nicht.
 
"Professionelle" setzen sicher nicht auf Consumer Hardware. Also was soll der Vergleich?

Rede deinen Hawaii schön. Aber Einfach zu sagen anandtech labere Mist. Ist ja wohl einer der neutralsten da draußen. Firlefanz? Ich glaub ich hör nicht recht. Glaubst du die Software basiert nur auf Luft?

Wenn du so willst, kannst doch gleich intel nehme. Da läuft "professionelle" Software auch drauf.

Erzähl doch mal was von deiner "professionellen" und "richtigen" Software die so viel besser auf der 290X als 980 läuft und gleichzeitig weniger Strom verbraucht. Office zählt nicht ... Ich bin ja gespannt Mr. pro.

Ich lasse ja allerhand boinc Projekte laufen. Und da ist bei mir Maxwell schneller und brauch weniger Strom. Erzähl mal den Projektleitern dahinter, dass ihre Software nicht "richtige Software" sei. Was für ein Blödsinn.
 
Zuletzt bearbeitet von einem Moderator:
Also entweder da ist noch mehr dahinter, was wir aktuell (noch) nicht wissen

Wenn mich mein Englisch nicht ganz im Stich lässt - bei technischen Beschreibungen hakt es da hier und da - ist der Unterschied HBM1/HBM2 lediglich eine von Hynix frei gewählte Nummer zur Unterscheidung der verschiedenen Generationen.
IM JEDEC "JESD235" ist nur der Stack an sich spezifiziert, aber nicht wie der Stack intern aufgebaut ist, deshalb anscheinend die Nummernvergabe.


Auch scheint, das die JEDEC-Normierung "JESD235" noch nicht ganz fertig ist und ohne Normierung wird auch kein OEM diesen Typ verbauen.

AMD setzt ihn wohl Hauptsächlich ein, wegen dem geringeren Verbrauch: HBM1 -> 0,32 mW/Gbps/pin und GDDR5 -> 0,55 mW/Gbps/pin. Nvidia spricht hier sogar nur noch von 1/3 bis 1/4 Verbrauch.
Der zweite Grund könnte sein, daß es anscheinend immer wieder Spitzen in der Bandbreite gibt, die von GDDR 5 nicht mehr geleistet werden können. Stichwort Frametimes.
 
"Professionelle" setzen sicher nicht auf Consumer Hardware. Also was soll der Vergleich?

Rede deinen Hawaii schön. Aber Einfach zu sagen anandtech labere Mist. Ist ja wohl einer der neutralsten da draußen. Firlefanz? Ich glaub ich hör nicht recht. Glaubst du die Software basiert nur auf Luft?

Wenn du so willst, kannst doch gleich intel nehme. Da läuft "professionelle" Software auch drauf.

Erzähl doch mal was von deiner "professionellen" und "richtigen" Software die so viel besser auf der 290X als 980 läuft und gleichzeitig weniger Strom verbraucht. Office zählt nicht ... Ich bin ja gespannt Mr. pro.

Ich lasse ja allerhand boinc Projekte laufen. Und da ist bei mir Maxwell schneller und brauch weniger Strom. Erzähl mal den Projektleitern dahinter, dass ihre Software nicht "richtige Software" sei. Was für ein Blödsinn.

Dann lass mal ein paar Zahlen folgen. Du Pappnase. LOL.JPG Mit Maxwell GPGPU wie BOINC geht dir die Effizienz flöten.
 
mr.dude schrieb:
Und ob man bei höheren Auflösungen wie 4K Nachteile gegenüber zB 6 GB hat, bleibt auch abzuwarten. Dafür müsste man HBM erst mal in Aktion sehen.

Nö, dafür muss man HBM nicht erst in Aktion sehen, oder was soll denn mit HBM beim Speicherverbrauch anders werden?
Ich konnte da nichts in den Folien von Hynix zu finden, also kann man davon ausgehen, das sich nicht viel ändern wird.
Abgesehen von dem schnelleren Zugriff und geringeren Latenzen passiert da nüscht.
 
Sofern die Anbindung gleich bleibt, sollten keinen Anpassungen notwendig sein. Erst wenn sich die Anbindung ändert, zB von 4 auf 8 Stacks, sind auch Anpassungen an der GPU notwendig.

OK, das lässt dann zumindest drauf hoffen, dass eine Version mit v2 HBM Speichern hinterher kommt, wo eben dann auch mehr Speicher geht...

Die meisten Vorteile sind für jeden Markt wichtig, nicht nur für Computing. Kompaktere Speicheranbindung (weniger Transistorbedarf), geringere Leistungsaufnahme / höhere Bandbreite und auch schnellerer Zugriff sind ebenso für Spiele von Bedeutung. Die einzige Limitierung bei HBM1 ist der Speicher.
Im Moment haben wir auch keine SGPU Karte im Programm, die spekuliert ~40-45% schneller als der Hawaii Vollausbau ist. :wink:
Auch wenn es keine direkte Abhängigkeit von VRAM Größe und GPU Power gibt, so besteht einfach das "Problem", dass mehr GPU Power umgesetzt in mehr BQ idR gleichbedeutend mit mehr VRAM Verbrauch ist. Das zeigen so ziemlich alle GPUs in den letzten Jahren. Mit Fermi SLI und 1,25/1,5GB spielen ist trotz viel GPU Leistung einfach seit einer Weile nicht mehr wirklich drin. Und im SLI skaliert Fermi in etwa auf aktuellem HighEnd SGPU Niveau. -> was fehlt ist VRAM.
Diese Tatsache gibts nicht nur bei Fermi zu sehen. Auch andere Modelle zeigen dieses Verhalten -> GK104 mit 2GB VRAM, Tonga mit 2GB VRAM, RV870 mit 1GB VRAM usw. usf.
Ab einem gewissen GPU Leistungslevel kann man Effekte in Spielen fahren, die mehr VRAM benötigen -> und ist der VRAM nicht da, gehts einfach nicht.

Von den anderen aufgezählten Sachen halte ich ebenso vieles Marketing. Wie schonmal angesprochen, die Bandbreite ist dann entscheidend, wenn sie limitiert. Tonga und auch GM204 zeigen, dass man wenig Bandbreite in aktuellen Leistungsklassen braucht. Gemessen am realen Durchsatz, die die 970er erreicht, wäre der HBMv1 Ansatz mehr als 4x so schnell! Das verpufft, da brauch ich die Karte nichtmal kennen um das vorrauszusagen...
Und durch diese Annahme schrumpft auch der Verbrauchsvorteil... Denn GDDR5 basierte Interfaces scheinen in erster Linie durch die Interfacebreite und auch ein Stück weit durch den Speichertakt/die dafür benötigte Spannung ihren Verbrauch zu bestimmen. 256Bit bei gängigen Taktraten und GDDR5 heist dann eben nicht mehr 2/3 weniger Verbrauch für HBM(v1), sondern nur noch in etwa 1/4 weniger. Die Rechnung geht allerdings nur auf, wenn die Bandbreite ausreicht -> und das scheint mir die große Unbekannte zu sein aktuell.
Auch schnellerer Zugriff ist alles andere als greifbar. Mit mehr Takt wird der Spaß auch schneller im Zugriff -> interessiert unter Spielelast aber nur die wenigsten GPUs.
Transistorbedarf scheint mir da noch am greifbarsten -> für mich als Endkunde aber eine Tatsache, die mich einfach nicht interessiert ;)
 
"Professionelle" setzen sicher nicht auf Consumer Hardware. Also was soll der Vergleich?
Ich habe auch nicht von Consumer Hardware gesprochen. Ich sprach von Hawaii. Und der kommt genauso bei FirePros zum Einsatz.

Rede deinen Hawaii schön. Aber Einfach zu sagen anandtech labere Mist. Ist ja wohl einer der neutralsten da draußen.
Habe ich gesagt, dass Anandtech Mist labert? Nein. So ein Testparcours sagt trotzdem nicht viel. Ach ja, Anandtech und einer der neutralsten da draussen. Der ist echt zu gut. :haha:

Ich lasse ja allerhand boinc Projekte laufen.
Dir ist aber schon bewusst, dass BOINC Projekte teils schlecht für neue Hardware optimiert sind? Adäquater GPU Support ist meines Wissens nach wie vor Mangelware. Es ist immer noch ein Unterschied zwischen dem, was eine Anwendung kann und was eine Hardware hergibt. Hast du denn deine Projekte mal mit einer Hawaii basierten Karte laufen lassen, um zu vergleichen? Kannst du uns ein paar Zahlen dazu bringen? Und welche Projekte sind das überhaupt?


Im Moment haben wir auch keine SGPU Karte im Programm, die spekuliert ~40-45% schneller als der Hawaii Vollausbau ist. :wink:
Auch wenn es keine direkte Abhängigkeit von VRAM Größe und GPU Power gibt, so besteht einfach das "Problem", dass mehr GPU Power umgesetzt in mehr BQ idR gleichbedeutend mit mehr VRAM Verbrauch ist. Das zeigen so ziemlich alle GPUs in den letzten Jahren. Mit Fermi SLI und 1,25/1,5GB spielen ist trotz viel GPU Leistung einfach seit einer Weile nicht mehr wirklich drin. Und im SLI skaliert Fermi in etwa auf aktuellem HighEnd SGPU Niveau. -> was fehlt ist VRAM.
Wenn Mantle / DirectX 12 den VRAM zusammenschalten kann, dann wäre zumindest auch mit HBM1 und einem Crossfire Gespann drin, mindestens 8 GB effektiv bei entsprechenden Qualitätseinstellungen zu nutzen. Bei Single-GPU Setups oder bisherigen DirectX Anwendungen nützt das natürlich nichts.

Von den anderen aufgezählten Sachen halte ich ebenso vieles Marketing. Wie schonmal angesprochen, die Bandbreite ist dann entscheidend, wenn sie limitiert. Tonga und auch GM204 zeigen, dass man wenig Bandbreite in aktuellen Leistungsklassen braucht. Gemessen am realen Durchsatz, die die 970er erreicht, wäre der HBMv1 Ansatz mehr als 4x so schnell! Das verpufft, da brauch ich die Karte nichtmal kennen um das vorrauszusagen...
Das ist dann aber reines Balancing. Was du an Bandbreite nicht brauchst, gewinnst du an Energie, und umgekehrt. So oder so, mindestens ein Vorteil bleibt. 4096 Shader brauchen sicherlich auch mehr Bandbreite als Hawaii und erst recht als Tonga. Auch Delta Color Compression kann das nicht komplett kompensieren. Zumal das eben auch nur für Bilddaten genutzt wird. Bei Computing nützt dir das nicht viel.

Transistorbedarf scheint mir da noch am greifbarsten -> für mich als Endkunde aber eine Tatsache, die mich einfach nicht interessiert
Wenn dadurch mehr Shader für mehr Performance implementiert werden können oder der Chip kleiner und damit kostengünstiger wird, interessiert dich das auch als Endkunde. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh