Erste Benchmarks zur Radeon R9 390X aufgetaucht

Ja, HBM ist eine etwas unbekannte Konstante. Ich gehe aber mal von vergleichbaren bzw. unwesentlich höheren Kosten zu GDDR5 aus. Zum einen würde es doch wenig Sinn machen die Serienproduktion von HBM anlaufen zu lassen, wenn die Kosten für den Markt (damit auch den Nutzen) nicht bereit wären. Zum anderen, wenn man bedenkt, das HBM-Speicher primär auf Grafikkarten verbaut werden soll, dann lauten die einzigen Großabnehmer AMD und nVidia. Von daher wird man die Kosten sicher ein Stück weit im Blick haben, sonst würde ein Übergang zur Serienproduktion sicher fatal enden. Sollte also eine Karte mit HBM kommen, wird man diese unbekannte im Vorfeld sicher bedacht haben.

Ich sehe da noch paar mehr Beteiligte, die den Bedarf nach sowas hätten...
Pro HBM ist doch auch klar der Platzbedarf. Wenn man keine Speicherchips mehr verbauen muss, entfallen komplexere PCBs und vor allem auch, kann die Größe weiter sinken. Das ganze würde sich ja grundsätzlich bei fast jeglicher Prozessor/Speicher Kombi anbieten.

Die Frage nach dem Markt, ob dieser Bereit für HBM wäre kann man denke ich nicht vollends beurteilen. Unterm Strich dürfte dem Markt das "Wie" völlig egal sein. Für den Markt zählt der Preis und das Resultat. Bspw. AMDs APUs haben mehr Speicherbandbreite bitter nötig. Es wäre für AMD wohl ein leichtes selbst ne 1024 Shader basierte APU zu entwerfen. Können sie sich aber heute aktuell vollends schenken, weil man mit den schnöden DDR3 Speichern schlicht bei halber ALU Anzahl völlig im Bandbreitenlimit klebt.
Selbst wenn hier HBM potentiell 50% Aufpreis hätte im Vergleich zu einer DDRx Umsetzung, dann wäre der Mehrwert mit der Speicherbandbreite am Ende aber immernoch klar ein Vorzug.
Der Pferdefuß dabei ist halt auch hier (wie eben auch bei ultramobilen Geräten mit fest verlöteter Technik), dass man die Menge nicht mehr steigern kann. Ob 4GB HBM Speicher auf einer APU stand heute ausreichend wären? Machbar ja, für die Zukunft faktisch zu klein...

Schon, aber dann wäre man für die Serienproduktion (auf Grafikkarten) eben noch nicht bereit.
Deswegen ja die Frage nach den Kosten und woran du diese fest machst...
Du kannst auch mit nur 10% Yield Rate oder andersrum, 90% Ausschuss (woher auch immer) noch satte Gewinne einfahren mit dem Produkt, wenn der Preis am Ende der richtige ist ;)
Deswegen halte ich aber auch eben Aussagen zu den Kosten im Vorfeld für gewagt, da wir keine der Konstanten wirklich kennen.

Man muss das auch immer in Relation zu den anderen Alternativen sehen. Auch wenn es so sein sollte, das dich HBM etwas mehr kostet, so kann der Vorteil durch HBM insgesamt doch wieder überwiegen. Da möchte ich auch nicht mehr zu schreiben, lass es mal so stehen, hast ja auch nicht unrecht, mal abwarten und schauen wie sich das entwickelt...

Meinst du, ausgehend von dem Benchmark hier, AMD kann es mit 28nm + GDDR5 schaffen (kosteneffizient) so performant zu sein?

Klar, warum sollten sie das nicht können?
Für mich bietet HBM Stand heute in erster Linie mehr Bandbreite bei weniger "Aufwand". Wie das Ganze am Ende in Geld ausschaut, ist denke ich wie gesagt nicht 100% raus. Weiterhin stehen auf der Contraseite immernoch Fragen wie der Bedarf an Bandbreite... Hawaii macht aktuell nicht den Eindruck, als wäre er stark Bandbreitenlimitiert. Weder in GPGPU Workloads noch in Games.
Auch eine Tonga GPU hat AMD gebracht und im Vergleich zum Tahiti Modell quasi gleiche Leistung bei 1/3 Kürzung des SIs gezeigt ohne wirklich ins Bandbreitenlimit zu laufen. Auch scheinen diese Tonga Modelle nicht sooo extrem viel über Speicher OC zu skalieren, was den Schluss zulässt, das da immernoch genug Bandbreite rum kommt.
Unterm Strich für mich ein klares Indiz dafür, das man die Vorteile von HBM auch wirklich benötigen muss, damit das ganze Sinn ergibt. Keine Mittelklasse Karte scheint aktuell derart Bandbreitenbedarf zu haben, dass man nicht mit halbwegs erprobter GDDR5 Technik/Anbindung zurecht kommt. Und wie oben schonmal erwähnt, die Größe ist auch immernoch so ne Sache. Dazu kommt ggf. auch die DIE Size des Chips selbst. Wenn Fiji mit ~550mm² spekuliert wird und man dadrauf dann 4GB HBM Speicher drauf packt, stellt sich mir die Frage, was passiert mit ner GPU, die sagen wir blos 250mm² groß ist. -> passt da HBM Stand heute überhaupt drauf? Muss man ggf. die GPU größer bauen, dass es passt? -> was wieder Kosten verursacht. Oder andersrum, was passiert, wenn die HBM "Teile" kleinere Fläche haben als die GPU, muss man dann dort auffüllen, damit die Fläche wieder abschließt?
Auch ist für mich das Thema Hitze noch nicht 100% klar. Da bin ich noch sehr gespannt, ob das nicht ggf. böse Überraschungen geben wird, gerade bei unseren Freunden aus der OC Front...

Anders wie eben angesprochen die APUs, hier muss mehr Bandbreite ran, damit mehr Leistung rauskommt... Da gibts quasi nur einen Weg. Und der heist klar HBM (stand heute). Oder man bringt Quadchannel (also 256Bit SI) respektive GDDR5 Modulen zum nachstecken... -> das glaube ich aber nicht, denn wärend es letzteres nicht zu kaufen gibt, wäre ersteres wieder mit Kosten verbunden.

PS: auch interessant ist das Thema (im Profibereich) ECC bei HBM... Bei GDDR5 kann man sich bequem entscheiden, was man will... Bei HBM? Wenn der Speicher fix drauf ist? ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe jetzt nicht alles durch gelesen, kann mir einer Sagen wann diese GPU Kommen soll.
 
hmmm das dauert ja dann ewig. Möchte nicht solange warten....
 
Wenn ich das richtig im 3dc sehe, könnte auch zuerst eine 28nm Version und später eine 20nm Refreshversion kommen ;)

@Sharif
nicht so ungeduldig. Mit den beiden 970ern läuft doch alles, oder etwas nicht?
Rein nach der Leistungserwartung würde ich faktisch im ersten Step keine Wunder erwarten... Eventuell kommt auch gar kein Vollausbau im ersten Step?
~30% mehr Performance bei ~45% mehr Shadern zu Hawaii wäre nun nicht unbedigt sooo extrem viel schneller als eine 980er. Lass es 10-15% sein. Das lohnt imho für dich faktisch nicht zu wechseln. Es sei denn, du willst unbedingt wieder was neues (oder eben AMD)
 
Das bezieht sich auf das Interface... Nicht auf die Speicherlogik. Oder hab ich nen Denkfehler?

Wie viel Platz 4GB Speicherlogik kosten, kann ich aktuell nicht einschätzen... Deswegen ob die Frage.
Wobei dort im Artikel auch was steht, man könne generell die Speicher auch "neben" den Prozessor auf das Trägermaterial schmieden... Zumindest würde das möglichen Hitzeproblemen aus dem Weg gehen.

Dafür wird aber der Umstand mit der Größe nochmals deutlich erklärt ;) Also 4GB gelten auch im Artikel als gesetzt bzw. das aktuelle Obergrenze. 8GB technisch möglich, aber nur bei doppelter Auslegung. Sprich doppelter Breite, doppeltem Verbrauch und doppeltem Flächenbedarf. -> und selbst 8GB reichen nicht für den Profimarkt aktuell. Dann eher 12 oder 16GB. Mit wahnwitzigen 1,5-2TB/sec Durchsatz... Ich denke nicht dran, das sowas kommt... Oder man wartet auf Gen. 2?
Dann wird aber die kommende und hier spekulierte GPU von AMD faktisch kein HBM haben... Denn beide Interfaces zu kombinieren? -> glaube ich auch nicht dran. Wenn dann müsste die Karte ne reine Gamerkarte werden. Wobei mir dann die ~550mm² schon fast zu fett erscheinen. Verbrauch und so ;)
 
Pro HBM ist doch auch klar der Platzbedarf. Wenn man keine Speicherchips mehr verbauen muss, entfallen komplexere PCBs und vor allem auch, kann die Größe weiter sinken. Das ganze würde sich ja grundsätzlich bei fast jeglicher Prozessor/Speicher Kombi anbieten.

Da komme ich jetzt nicht ganz mit... :hmm:

Stapel-RAM für (AMD-)Grafikkarten | heise online

fdsonne schrieb:
Der Pferdefuß dabei ist halt auch hier (wie eben auch bei ultramobilen Geräten mit fest verlöteter Technik), dass man die Menge nicht mehr steigern kann. Ob 4GB HBM Speicher auf einer APU stand heute ausreichend wären? Machbar ja, für die Zukunft faktisch zu klein...

Siehe oben?!

fdsonne schrieb:
Deswegen ja die Frage nach den Kosten und woran du diese fest machst...
Du kannst auch mit nur 10% Yield Rate oder andersrum, 90% Ausschuss (woher auch immer) noch satte Gewinne einfahren mit dem Produkt, wenn der Preis am Ende der richtige ist ;)
Deswegen halte ich aber auch eben Aussagen zu den Kosten im Vorfeld für gewagt, da wir keine der Konstanten wirklich kennen.

OK, verstehe. Letztlich ist die Yieldrate auch sekundär. Meine Prämisse war nur "das es sich lohnt". Ja, ich weiß...Gnade... :xmas:

fdsonne schrieb:
Klar, warum sollten sie das nicht können?

Aber warum oder worauf wartet man dann und lässt sogar das Weihnachtsgeschäft links liegen? Man hätte dann schon längst auf GTX980/970 reagieren können.

fdsonne schrieb:
Für mich bietet HBM Stand heute in erster Linie mehr Bandbreite bei weniger "Aufwand". Wie das Ganze am Ende in Geld ausschaut, ist denke ich wie gesagt nicht 100% raus. Weiterhin stehen auf der Contraseite immernoch Fragen wie der Bedarf an Bandbreite... Hawaii macht aktuell nicht den Eindruck, als wäre er stark Bandbreitenlimitiert. Weder in GPGPU Workloads noch in Games.
Auch eine Tonga GPU hat AMD gebracht und im Vergleich zum Tahiti Modell quasi gleiche Leistung bei 1/3 Kürzung des SIs gezeigt ohne wirklich ins Bandbreitenlimit zu laufen. Auch scheinen diese Tonga Modelle nicht sooo extrem viel über Speicher OC zu skalieren, was den Schluss zulässt, das da immernoch genug Bandbreite rum kommt.

Ich denke es geht nicht nur allein um die Bandbreite, sondern auch um das Gesamtpaket. :)
 
Zuletzt bearbeitet:
Wenn ich das richtig im 3dc sehe, könnte auch zuerst eine 28nm Version und später eine 20nm Refreshversion kommen ;)

@Sharif
nicht so ungeduldig. Mit den beiden 970ern läuft doch alles, oder etwas nicht?
Rein nach der Leistungserwartung würde ich faktisch im ersten Step keine Wunder erwarten... Eventuell kommt auch gar kein Vollausbau im ersten Step?
~30% mehr Performance bei ~45% mehr Shadern zu Hawaii wäre nun nicht unbedigt sooo extrem viel schneller als eine 980er. Lass es 10-15% sein. Das lohnt imho für dich faktisch nicht zu wechseln. Es sei denn, du willst unbedingt wieder was neues (oder eben AMD)

Will wieder was neues nach 2 Monaten langweilt mich wieder alles am besten komplett alles neu Kaufen. So laufen meine Karten richtig gut.
 

Na wenn du keine Speicherchips mehr aufs PCB löten musst, entfallen alle Datenleitungen für die Verbindung dieser Chips mit der GPU. Das spart Platz ;)
Der HBM Speicher ja in "Stacks" übereinander gestapelt und in erster Instanz finden wohl vier dieser Stacks für 4GB Verwendung.
Wenn ich das richtig sehe, kann man einerseits diese Stacks direkt auf die GPU oben drauf stapeln (also auf das DIE der GPU) oder eben auf dem Trägermaterial anbringen. Das hätte dann ein Aussehen wie ein Multichipdesign analog bspw. der Iris Pro "APU" von Intel ;) -> musst mal suchen.

OK, verstehe. Letztlich ist die Yieldrate auch sekundär. Meine Prämisse war nur "das es sich lohnt". Ja, ich weiß...Gnade... :xmas:
War ja nur ein Beispiel... Interessant dabei ist am Ende, wie viel Marge bleibt hängen... Wenn die Kosten zu hoch sind und die Verkaufserlöse zu niedrig, dann wird das schwer. Wir kennen aber nix davon stand heute. Also nichtmal, "ob es sich lohnt" :wink: Aber sei es drum...

Aber warum oder worauf wartet man dann und lässt sogar das Weihnachtsgeschäft links liegen? Man hätte dann schon längst auf GTX980/970 reagieren können.
Wenn man den Meldungen zu HBM trauen kann, dann soll Hynix erst Ende des Jahres mit der Serienproduktion von HBM starten... Soll meinen, dann kann man damit rechnen, das sich ein Hersteller für GPUs diese Produkte nimmt und anfängt damit die GPU Produktion hochzufahren... Ob das stimmt? Keine Ahnung.

Ansonsten wie gesagt, Gründe können da viele vorhanden sein. Vielleicht ist es simpel auch einfach nur noch ein Abverkauf der alten Generation?

Ich denke es geht nicht nur allein um die Bandbreite, sondern auch um das Gesamtpaket. :)

Das wohl definitiv... Deswegen ja auch oben meine Überlegungen zum Thema ECC, zum Thema Speichergröße und auch den Kosten... Da müssen also für AMD weit mehr Vorteile stehen, als nur ein bisschen mehr Bandbreite, wo nichtmal klar ist, ob diese überhaupt zwingend notwendig ist.
Der Verbrauch und der Flächenbedarf des SIs könnten ebenso Gründe sein... Weniger Verbrauch = mehr Effizienz, logisch ;)

"Wenigstens kristalliert sich inzwischen heraus, daß die Speicherhersteller nicht so sklavisch an die bislang genannten Größenangaben zu HBM-Speicher gebunden sind, daß also vermutlich auch mit der ersten HBM-Generation an einem 4096 Bit DDR HBM-Interface dann gleich 8 GB HBM-Speicher hängen können"

zur Speichergröße

Den Artikel kenn ich... Nur wie macht man das bzw. wo steht dazu was geschrieben?
Ich könnte hier im Luxx auch ne Newsmeldung schalten lassen, wo steht, das Fuji mit HBM der ersten Generation und 16GB Ausbau kommt... Solange ich nicht erklären müsste wie das geht, wäre so ne Meldung durchaus drin.
-> also Zahlen/Quellen zu der Aussage würden mich interessieren. Denn bis dato gilt da denke ich in erster Linie das, was Hynix als Speicherhersteller sagt, als gesetzt...
 
Zuletzt bearbeitet:
Da lesen sich aber auch verschiedenste Meldungen dazu ;)
Ich hab ja ebenso nix konkretes, deswegen wollte ich auf die Möglichkeiten hinaus... Aus meiner Sicht auch nicht unbedingt so wirklich von Relevanz, wie das am Ende ausschauen wird. ;) Man munkelt ebenso, das die GPU + die Speicherheitheit womöglich in einem Rutsch gelefert werden.
Ein sekundäres Trägermaterial, wo die Speicherbausteine als solches drauf wären, wäre ja dann wiederum tauschbar und würde nicht zur Spekulation passen, das womöglich die Kosten über den Hersteller, also über AMD gehen... Was den eklatanten Pluspunkt in Form von mehr Umsatz hätte ;)
 
AMD kann die Karte doch schon fast mit der 290x und etwas besseren Treiber schlagen.

Rein von der Spieleleistung ist man zwar relativ nah (bzw. gleichauf) an einer GTX970 dran, aber im Gesamtpaket und in puncto Effizienz ist man dann doch ein ganzes Stück weit entfernt. AMD müsste da in ähnliche Regionen kommen wie nVidia mit Maxwell 2.0. Von dem hier gezeigten Benchmark, sofern etwas dran ist, wäre das schon ein dolles Ding, wenn man dieses Kunststück mit 28nm und GDDR5 geschafft haben sollte.
 
Rein aus Performance-Sicht ist es in meinen Augen völlig irrelevant, ob die neue Karte mit HBM kommt oder nicht.

Der Nvidia 980/970 reicht ein 256bit Interface mit 224 GB/s Bandbreite um mit Hilfe eines optimierten Chipdesigns neue Benchmarkrekorde zu erklimmen.
ATI setzt auf ein 512bit Interface, welches bereits heute 320 GB/s schaufelt. Das es genügend Ram-Bandbreite gibt, zeigt auch der Umstand, wie wenig die R9 mit einem Ram-OC skaliert.

Daher wird in meinen Augen der Kampf in erster Linie mit dem Chip und nicht mit dem Speicher gewonnen.
 
NV setzt allerdings nicht nur auf Chipdesign, sondern auf eine verlustfreie Hardwarekomprimierung der Daten bevor sie in den vRam komen.
 
Rechnet man die Komprimierungsvorteile heraus, liegt die Bandbreite mit 297 GB/s (Quelle) immer noch unter den 320 GB/s der mittlerweile 1 Jahr alten R9 290x.

Der Unterschied liegt somit bei nur 8%. Und da dies auf beiden Seiten ohnehin kein limitierender Faktor ist, ist die reine Bandbreite auch sekundär. Man bedenke auch, das nVidia dies mit einen im Vergleich sparsameren 256bit Speicherinterface realisiert, AMD dagegen mit ein komplexeren 512bit Aufbau. Gerade dies sind doch die Schlüsselpunkte warum Maxwell 2.0 (also auch der Chip selbst) so effizient arbeitet. Außerdem geht es nicht nur allein um Bandbreite, auf dem der Speicher Einfluss hätte. Man muss das Gesamtpaket betrachten. Will mich da aber nicht unbedingt nochmal wiederholen... ;)
 
Zuletzt bearbeitet:
Rein aus Performance-Sicht ist es in meinen Augen völlig irrelevant, ob die neue Karte mit HBM kommt oder nicht.
Nein, ist es nicht. HBM hat zwei Vorteile, höhere Bandbreite und geringere Leistungsaufnahme. Das erste bringt direkt mehr Performance. Bei hohen Auflösungen sicherlich eher als bei niedrigen Auflösungen. Das zweite bringt indirekt mehr Performance. Die gesparte Energie kann zB in anderes investiert werden, wie mehr Takt. Was dann wiederum auch direkt mehr Performance bringt. Hinzu kommt, dass HBM die Latenz verringert, was sicherlich zusätzlich ein paar Prozent bringen kann. Auch wenn Latenz bei GPUs im Vergleich zu CPUs nicht ganz so wichtig ist.
 
Der Unterschied liegt somit bei nur 8%. Und da dies auf beiden Seiten ohnehin kein limitierender Faktor ist, ist die reine Bandbreite auch sekundär.
Das ist genau der Punkt. Die Speicherbandbreite ist bereits heute nahezu egal. Weder eine GTX980 noch eine R9 290X sind durch Speicherübertaktung nennenswert zu beschleunigen (vielleicht so um 4% - unter richtig guten Bedingungen.) Das reisst es nicht heraus.
GPU ist was ganz anderes und daher gehe ich davon aus, dass sich weder AMD noch NVIDIA derzeit grosse Gedanken um das Speicherinterface machen. Die einen setzen vermutlich auf HBM, die anderen investieren lieber in die (richtig clevere) Komprimierung. Das interessante an HBM wird die geringere Leistungsaufnahme werden, denn da hat AND wirklich Nachholbedarf. Und nachdem nun "Captain Jack" offenbar nicht mehr vor Weihnachten rauskommt kann sich AMD auch noch gut um den Feinschliff kümmern. So ab Mitte nächsten Jahres, wenn die Karte auch in Stückzahlen verfügbar ist, dürfte es dann interessant werden...
 
Zuletzt bearbeitet:
die anderen investieren lieber in die (richtig clevere) Komprimierung.
Wenn das wirklich grad mal 8% bringt (dachte eigentlich es sei mehr) würde ich nicht unbedingt von "richtig clever" sprechen...

Maxwells Effizient beruht in erster Linie auf einen extrem schnell schaltenden Stromsparmechanismus. Das sieht man sehr gut wenn man die Graka keine Games verarbeiten lässt sondern Vollast - dann sinkt die Effizienz drastisch (stärker als es bei den jetztigen AMDs oder auch bei der Kepler Architektur).
 
Zuletzt bearbeitet:
Wenn das wirklich grad mal 8% bringt (dachte eigentlich es sei mehr) würde ich nicht unbedingt von "richtig clever" sprechen...

Nein, da verdrehst du etwas. Die 8% beziehen auf die absolute Bandbreite, also hier 297GB/s zu 320GB/s. Richtig müsste es also heißen, ja es ist clever eben WEIL der Unterschied nur 8% beträgt. Der Punkt ist nämlich das WIE, also mit welchen Aufwand nVidia bzw. AMD diese Bandbreiten realisieren. Und da bin ich auch der Meinung, dass Maxwell 2.0 hier wirklich clever(er) zu Werke geht.

DragonTear schrieb:
Maxwells Effizient beruht in erster Linie auf einen extrem schnell schaltenden Stromsparmechanismus. Das sieht man sehr gut wenn man die Graka keine Games verarbeiten lässt sondern Vollast - dann sinkt die Effizienz drastisch (stärker als es bei den jetztigen AMDs oder auch bei der Kepler Architektur).

Das Power Target ist aber nicht der Kernpunkt des WARUMS! Man kann es auch unmöglich nur an einen Punkt fest machen, da muss man die Architektur als Ganzes betrachten. PT ist da nur ein Faktor von vielen.

Was zählt ist nur wie die das Produkt "Out-of-the-Box" zu bewerten ist. Und hier trifft nVidia bei Maxwell 2.0 beim PT genau den richtigen Punkt (Sweet-Spot)! ;)
 
Zuletzt bearbeitet:
Maxwells Effizient beruht in erster Linie auf einen extrem schnell schaltenden Stromsparmechanismus. Das sieht man sehr gut wenn man die Graka keine Games verarbeiten lässt sondern Vollast - dann sinkt die Effizienz drastisch (stärker als es bei den jetztigen AMDs oder auch bei der Kepler Architektur).

Das Argument lässt sich aber denke ich durchaus damit erschlagen, dass die GM204 GPU wohl primär für den Gamermarkt gemacht ist. Und entsprechend auch der Fokus wohl darauf lag, möglichst effizient in eben diesen Spielen zu sein. Was andere Workloads dann da erzeugen, ist aus meiner Sicht primär uninteressant. Die Karten werden wohl überwiegend als Gamer Karten genutzt.

Interessanter dürfte das allerdings für den GM200 werden. Der wohl zweifelsfrei nicht ausschließlich als Gamer GPU kommt. Sprich hier muss sich NV irgendwas einfallen lassen um die Effizienz auch unter nicht Spieleworkloads entsprechend hoch zu halten. Ob es aufgeht? Abwarten ;)
 
Nein, ist es nicht. HBM hat zwei Vorteile, höhere Bandbreite und geringere Leistungsaufnahme.
Die höhere Bandbreite benötigt anscheinend aktuell kein Chip, denn sonst würde die Performance besser mit dem Ramtakt skalieren.
Bei der R9 290 bringt die Erhöhung des Ram-Takts von 1.350 Mhz auf 1.700 Mhz im 3DMark genau 45 zusätzliche Punkte (12426 vs. 12471 Punkte [Quelle]) und damit gar nichts.
Wäre dem nicht so, hätten sich längst Entwicklungen wie eDRAM durchgesetzt.

Und die geringere Leistungsaufnahme ... wayne ...
Selbst wenn HBM 50% einsparen würde, sprechen wir hier über läppische 25 Watt. Bei einer Gesamtaufnahme von ~200W imho zu vernachlässigen.
 
Und die geringere Leistungsaufnahme ... wayne ...
Selbst wenn HBM 50% einsparen würde, sprechen wir hier über läppische 25 Watt. Bei einer Gesamtaufnahme von ~200W imho zu vernachlässigen.

Das Einsparpotentiel in der Leistungsaufnahme liegt wohl laut Hynix irgendwo im Bereich von ~2/3.
Leider scheiden sich die Geister in der Aussage, was das gemessen an einer ganzen Karte bedeutet. Es geistern Aussagen von 90W für 512Bit GDDR5 mit 512GB/sec Durchaus durch den Raum... Wären also 30W für HBM bei gleicher Bandbreite, also schon ne Menge Holz.
Ob das aber 1:1 auf eine 290(X) respektive 390(X) zu portieren ist, ist halt die Frage. Ich habe da meine Zweifel... 90W/2 = 45W. Geht man davon aus, dass GM204 ein halb so fettes Interface wie Hawaii hat, wären das 45W für GM204 und somit 1/3 von der gesamten Leistungsaufnahme so mancher 970er Karten unter Spielelast. -> mir erscheint das etwas zu hoch.
 
HBM hat zwei Vorteile, höhere Bandbreite und geringere Leistungsaufnahme. Das erste bringt direkt mehr Performance.

Die erste kann nicht direkt mehr Performance bringen, da erstmal festgestellt werden muss, ob mehr Bandbreite auch benötigt wird.
Wenn mehr Bandbreite nicht benötigt wird, dann bringt es auch keine Performance und ich würde sagen dass AMD mit ihrem 512bit Interface auch nicht wirklich mehr Bandbreite nötig hat.
Das ist eher interessant für HPC und GPGPU, aber weniger für Games.

Und dass man durch HBM die GPU höher takten kann, sehe ich auch nicht.

Das ganze wird eher geringe Vorteile bieten und erst dann welche, wenn die Bandbreite mal benötigt wird.
Deswegen sehe ich Nvidia hier auch überhaupt nicht im Zugzwang.

Völlig irrelevant mag es auch Performance Sicht nicht sein.
Dass man durch HBM generell mehr Performance besitzt, als mit GDDR5 ist allerdings ne sehr gewagte Behauptung.
Mit Bandbreite alleine erzielt man keine Performance.
 
Zuletzt bearbeitet:
Dass man durch HBM generell mehr Performance besitzt, als mit GDDR5 ist allerdings ne sehr gewagte Behauptung.
Mit Bandbreite alleine erzielt man keine Performance.

Und die kommende R9 390X besitzt "nur" mehr Bandbreite oder wie ?
Vergisst man da nicht etwas ?? Zum Beispiel, ein paar Shader mehr ?

Es mag zwar stimmen, das man durch Bandbreite alleine nicht mit viel mehr Performance rechnen kann.
Aber nur durch Shader ohne Bandbreite, wird auch nicht viel mehr herum kommen. Es ist immer eine Symbiose aus Rohleistung und Bandbreite. Sind einer dieser Faktoren davon zu knapp, leidet die gesamte Karte darunter.

Ob nun HBM bei "gleicher" Bandbreite wie bei herkömmlichem GDDR5-Speicher nun doch schneller ist, durch bessere Latenzen, ist allerdings nicht sicher und auch schwer zu Beweisen, selbst wenn HBM jetzt zum Testen bereitstehen würde.

Aber in erster Linie geht es AMD nicht unbedingt um die gewonnenen Bandbreite. Dies ist nur ein zusätzlicher Aspekt, der für HBM spricht.
Mehr als das sieht AMD die Möglichkeit, mit HBM ihre Effizienz steigern zu können, um erst dadurch einen größeren Chip mit deutlich mehr Shadern herstellen zu können.
HBM spart deutlich an Leistungsaufnahme ein gegenüber dem GDDR5-Speicher.
 
Weiss auch nicht wie man darauf kommt das Leistung sparen am Speicher mit mehr Performance des Chips gleichzusetzen ist.
Die Rechnung kann nur funktionieren wenn der Speicher auf dem Chip integriert sitzen würde und somit die Leistungsdichte des kritischen Elements GPU sinkt.

Wenn natürlich die Leistungsaufnahme der Karte als ganzes an der Grenze hängt und der Chip mehr vertragen würde aber der böse Speicher zuviel frisst dann würde ich sagen ja bringt was, aber dann hätte man wohl bei AMD wohl schon längst nen Stromstecker mehr angelötet.

Sollte der Chip jetzt extra groß ausfallen gehe ich davon aus das damit vorallem die Leistungsdichte reduziert werden soll damit man volle Kanne reinbuttern kann und der neue Speicher hilft noch mehr Leistung reinzubuttern. am Ende wird er wohl gute Performance haben aber ein verdammt heissen Eisen und das Sprichwörtlich.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh