GTC 2014: Fire and Ice - Overclocking und Undervolting im professionellen Bereich

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.125
<p><img src="/images/stories/logos-2013/gtc2014.jpg" width="100" height="100" alt="gtc2014" style="margin: 10px; float: left;" />Dass man sich selbst im professionellen Bereich mit dem Overclocking und Undervolting von GPUs beschäftigt, dürfte den wenigsten bekannt sein. Für eine Steigerung der Effizienz sind beide Ansätze aber durchaus auch für Server bzw. in diesem Beispiel für GPUs, die für das Computing verwendet werden, interessant. Ausgangspunkt soll das ohnehin schon gute Performance/Watt-Verhältnis aktueller GPUs aus dem Hause NVIDIA sein. Sprecher auf der GTC 2014 zu diesem Thema war Danny Price Postdoctoral Fellow am Harvard-Smithsonian Center for Astrophysics.</p>
<p>Am Harvard-Smithsonian Center for Astrophysics beschäftigt man sich mit der Radio-Interferometrie....<br /><br /><a href="/index.php/news/hardware/grafikkarten/30422-gtc-2014-fire-and-ice-overclocking-und-undervolting-im-professionellen-bereich.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Ansatz ist durchaus interessant, wo doch idR viel viel Luft in Sachen Taktraten und wohl auch in Sachen Spannungen für diese Taktraten vorhanden ist...
Das größte Problem bei der ganzen Sache ist natürlich die Stabilität. Wenn der Hersteller diese Verantwortung nun auf den Kunden abtritt, nämlich in dem der Kunde die Taktraten steigern und die Spannung senken kann, wer garantiert dann für die Stabilität?
Im aktuellen Fall ist es ja eher so, das die Taktraten per default als stabil angesehen werden. Sicher sind oftmals 10% oder mehr Takt bei gleicher Spannung bzw. teils auch niedriger Spannung drin. Selbst im Prof. Umfeld. Nur gibts keinerlei Garantien für das Ganze. Dürfte durchaus schwer werden hier den richtigen Mittelweg zu finden... Denn Berechnungen, die Stunden, Tage oder gar Wochen am Stück Volllast laufen sind ne ganz andere Hausnummer als mal eben so ne Gamer GPU um ein paar MHz zu steigern, wo diese doch idR nur wenige Stunden am Stück belastet wird -> und davon nichtmal gleichbleibende Dauervolllast (je nach Szene) anliegt.

Mit so Geschichten wie dem Turbo und den Boost Spielereien wie es heute schon im CPU und GPU Umfeld gibt, haben die Hersteller ja schon einen gewissen Spielraum eingeräumt. -> Ich denke, derartiges ist der nächste Schritt bzw. die konsequente Weiterentwicklung dieses Ansatzes.
Unterm Strich ist das aber immernoch eine Frage von Güte der Hardware (nicht jede GPU ist gleich) und von der Kühlung. Aufwendige Wasserkühlungen in Servern sind nicht unbedingt die Regel. Auch die Kosten sind nicht zu vernachlässigen...
 
Einen spürbaren Nutzen können Supercomputer daraus ziehen (hierzulande kein großes Thema). Die Einsparungen beim Energiebedarf liegen dort sehr wahrscheinlich im Megawatt Bereich. Damit kann man schon das eine oder andere AKW entlasten oder sich das grüne Gewissen schön reden ^^
 
Größtes Problem hier: Jeder Chip ist anders. Ob es förderlich ist, in einem Cluster die Chips asyncron laufen zu lassen, sei mal dahingestellt. Problematisch ist aber eher das ausloten (und zwar wirklich rockstable), das wäre recht arbeitsintensiv (also fraglich ob sich das dann noch lohnt??).
 
Naja, wärend die Herren Physiker auf die Ergebnisse ihrer Teleskop-Studie warten (was durchaus Jahre an Datensammlung benötigen kann), haben sie dann vielleicht viel Freizeit zum Benchen. :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh