Im Artikel wird eine hypothetische Annahme eingerechnet, wo der Speicher mit 8Gbit/s an einem 512bit-Interface läuft um auf 512 GB/s Bandbreite zu kommen(R9 290X).
Dabei würde er 85Watt Leistungsaufnahme benötigen. Mit HBM erreicht man ebenfalls 512 GB/s Bandbreite, kommt aber unter 30 Watt.
Dazu kommt noch, das NVIDIA ihren Speicher anders ansteuert. Da kommt ein Komprimierungsverfahren zum Einsatz, der die benötigte Speicherbandbreite verringert.
Daher ist es schwer zu sagen, was NVIDIA-Karten nun wirklich für ihre Speicheranbindung verbrauchen.
Oh stimmt, sorry, mein Fehler. Die 8G hab ich irgendwie unterschlagen...
Aber sei es drum, das Komprimierungsverfahren verändert zwar den Bandbreitenbedarf, aber nicht den Verbrauch. Denn wenn die Bandbreite da ist, wird sie auch genutzt. Es ist ja nicht so, das die Daten auf einmal durch die Komprimierung langsamer durch das System wandern... Sondern viel eher so, das die Daten immer gleich schnell wandern, aber einfach durch die Komprimierung weniger Daten geschoben werden. -> was den Bandbreitenbedarf verringert.
Vergleichbar ist das mit CPUs. Hast du 2GHz oder 4GHz in einem Beispiel. So benötigt deine Anwendung bei 2GHz einfach länger. Effektiv bei diesem Beispiel erzeugt die 2GHz CPU eben die doppelte Zeit lang Last. Entsprechend auch Verbrauch. Diesen Wert muss man dann gegenrechnen.
Warum sollte der Speicher, der voll belegt und benötigt wird, plötzlich weniger verbrauchen ??
Ich bezweifle ganz stark, das der Speicher in Games weniger belastet wird, als es bei GPGPU-Berechnungen der Fall ist.
Weil die Rechnung sonst, siehe oben, nicht hinkommen kann... Oder glaubst du daran, das ein Drittel des Verbrauchs einer GTX 970 allein durch den Speicher drauf geht? Das würde die reine GPU Leistungs-Effizienz schlagartig extrem anheben. Vor allem, da sich ja die Speicheranbindung der GPUs nicht wirklich nennenswert unterscheidet.
Gut. Dann stimmen weder die 85 Watt noch die 30 Watt. Also verbraucht die Karte im Gamingbetrieb vielleicht nur 60 Watt in der Speicheranbindung. Aber HBM würde dann nur 15-20 Watt benötigen, denn HBM würde dann folglich auch in der realen Gamingauslastung weniger verbrauchen, als angegeben wurde !
Ja
Ich wollte damit eher darauf hinaus, dass der absolute Verbrauchsgewinn aus meiner Sicht im Spielelastbetrieb sehr gering ausfallen wird.
Wenn von fiktiven 250W 60W für die Speicher drauf gehen, dann bleiben 190W für die GPU. Braucht nun das HBM System nur noch 15-20W, gepaart mit den 190W für die GPU sind das dann 205-210W. Was eine Einsparung von 16-18% wären.
Nimmt man die Werte oben 1:1, wären es aber bei fiktivem 250W gesamt Verbrauch "nur" 165W für die GPU. Und die ~28W (also 1/3) bei HBM würden bedeuten, dass man eine Einsparung von 22,8% hätte. Was bedeutend mehr sind als 16-18%
Und zum anderen denke ich nicht, dass sich die Leistungsaufnahme zwangsläufig bei halbierten SI ebenfalls halbiert.
Ob nun exakt halbiert oder in etwa, hab ich mal ausgeblendet. Aber durch halbierung des SI halbiert sich effektiv alles am Speichersubsystem. Angefangen von den Controllerteilen in der GPU selbst, den Transistoren, die dafür notwendig sind, der Anzahl der Speicherchips, die Größe dieser usw.
Eine Halbierung ist da schon realistisch...
Rechnet man das weiter, und gesetz dem Fall, du hast recht, dass eine Halbierung des Verbrauchs nicht hin kommt, dann kann bestenfalls weniger als eine Halbierung des Verbrauchs raus kommen. Durch Halbierung der Bauteile mehr als eine Halbierung des Verbrauchs zu erhalten wäre technisch unsinn. Bleibt also bestenfalls eine Abflachende Kurve. Aber das würde mein Beispiel von oben mit der 970 GTX noch verschlimmern. Denn dann wären aus 85W bei 512Bit SI nicht 42,5W sondern mehr wie 42,5W geworden. Der Anteil der GPU im Vergleich zum Gesamtverbrauch sinkt damit also...
Unterm Strich, die Halbierung ist schon das "Optimum" an schlechtester Annahme in diesem Fall...
Oder habe ich einen Denkfehler?