Werbung
In der vergangenen Woche besuchten wir die GPU Technology Conference 2016 – eine Art Hausmesse von NVIDIA, die sich auf den professionellen Bereich konzentriert. Dieser spielt für NVIDIA eine immer größere Bedeutung und dennoch wurden im Vorfeld die Erwartungen geschürt, NVIDIA könnte GeForce-Grafikkarten vorstellen. Es war natürlich abzusehen, dass diese Erwartungen nicht erfüllt werden könne und dennoch hat NVIDIA es geschafft, den Fokus auf sich zu lenken, denn mit der Vorstellung der Tesla P100 und der Pascal-Architektur wurden sämtliche Erwartungen nicht nur erfüllt, sondern übertroffen. Die internationale Presse und auch wir hatten mit deutlich weniger Informationsgehalt in dieser Hinsicht gerechnet.
Zunächst einmal alle Meldungen aus der vergangenen Woche:
- GTC 2016: Neue NVIDIA Quadro M5500 und VR-Ready-Programm für Workstations
- GTC 2016: Vulkan-API ist gekommen um zu bleiben
- GTC 2016: Multi Resolution Shading nicht nur für VR anwendbar
- GTC 2016: NVIDIA SDK als Plattform für GPU-Computing mit Pascal-Unterstützung
- GTC 2016: Keynote-Präsentation der Tesla P100 mit Pascal-Architektur
- GTC 2016: Alle Details zur Pascal-Architektur
- GTC 2016: IRAY VR für mehr Realismus in virtuellen Welten
- GTC 2016: NVIDIA DGX-1 lernt Deep-Learning-Netzwerke mit acht Tesla P100 an
- GTC 2016: NVIDIA sieht größere HBM2-Chips vor und zeigt Benchmarks zur Tesla P100
- GTC 2016: Pascal-GPU mit Samsung GDDR5 Speicher gesichtet
- GTC 2016: Supercomputer rüstet in der Schweiz auf Tesla P100 um
- GTC 2016: NASA und VR-Entwickler bilden Mars-Mission in Mars 2030 nach
- GTC 2016: Warum die GP100-GPU mit Pascal-Architektur keine GeForce-Karte ist
Die Meldungen zeigen dabei sehr deutlich, dass unser Fokus auf der Vorstellung der neuen Pascal-Architektur lag und wir versucht haben, jedes Detail auf der GPU Technology Conference dazu aufzusaugen und an unsere Leser weiter zu vermitteln. Aber wir haben natürlich auch versucht, über den Tellerrand hinaus zu schauen und einen Ausblick darauf zu geben, welchen Einfluss die Pascal-Architektur auf zukünftige Produkte ausüben könnte. Erstmals seit einiger Zeit hat NVIDIA auf die Veröffentlichung einer neuen GPU- und SoC-Roadmap verzichtet, was sicherlich auch damit zu tun hat, dass NVIDIA erst einmal schauen wird, wie man sich in den kommenden Monaten aufstellt – dies ist intern sicherlich bereits geschehen, nur kommuniziert man seine Strategie dahingehend bisher nicht und die Tesla P100 ist das erste konkrete Produkt dieser neuen Architektur-Familie.
[h3]"NVIDIA is not a gaming company anymore"[/h3]
Dieser Satz hat sich im vergangenen Jahr für eine Einschätzung des Unternehmens NVIDIA im Zusammenhang mit der GPU Technology Conference eingebrannt. NVIDIA ist längst kein Unternehmen mehr, welches ausschließlich mit GPUs für den Spieler sein Geld verdient. Mit den SoCs für Smartphones und Tablets versuchte man sich ein zweites Standbein aufzubauen, nachdem bereits vor einigen Jahren das Chipsatz-Business eingestellt wurde. Aber hier hat man sich erst einmal gehörig die Finger verbrennen müssen, bevor die Erkenntnis gereift ist, dass ein Fokus auf die eigenen Shield-Produkte (die sich sicherlich auch nicht in großen Stückzahlen verkaufen) plus der Automotive-Bereich ein deutlich attraktiverer Weg ist.
GPU-Computing ist für NVIDIA inzwischen genauso wichtig, wie der GeForce-Bereich. Die GPU Technology Conference ist die passende Bühne dazu. Wirft man einen Blick in die letzten Quartalszahlen, wird dies vielleicht deutlicher. 21,4 % des gesamten Umsatzes macht NVIDIA inzwischen im professionellen Bereich (Professional Visualization und Datacenter). Trotz des schrumpfenden PC-Spielemarktes (auch hierzu gibt es unterschiedliche Zahlen), gehört NVIDIA zu den Profiteuren und baut sowohl das GeForce- als auch das GPU-Computing-Business weiter aus. Während der Trend bei den GeForce-Produkten derzeit nicht wirklich abzusehen ist, ist aber klar, dass das GPU-Computing ein immer wichtigerer Bereich wird. Die Hälfte der Top-10-Supercomputer verwendet inzwischen GPU-Beschleuniger – entweder von NVIDIA oder von Intel, wobei Intel hier sicherlich als der Hauptkonkurrent für NVIDIA gelten dürfte, während AMD allenfalls bei den Workstations eine Rolle spielt, nicht aber im Supercomputing-Umfeld.
Wozu benötigt die Welt all diese Rechenleistung? Die GPU Technology Conference 2015 zeigte bereits einen Wechsel auf. Es geht längst nicht mehr nur darum Daten aus der Geophysik, Kosmologie und der Materialforschung zu verarbeiten. Kognitives Computing, Deep Learning und Artificial Intelligence sind hier die Stichworte und teilweise verwenden die Nutzer die Ergebnisse dieser Anwendungen bereits – zum Beispiel wenn sie Siri oder Google Now nutzen. Weitere Beispiele sind die Bildersuche nach bestimmten Motiven. Die Ergebnisse daraus werden längst nicht mehr nur aus den Metadaten gewonnen, sondern aus den Foto- und Videoinhalten selbst. Täglich füttern die Nutzer von Youtube und Facebook solche Systeme mit neuen Daten, die immer mehr lernen.
[h3]Deep Learning und Articificial Intelligence gehen Hand in Hand[/h3]
Doch aus der Narrow Intelligence, also den recht eingeschränkten Anwendungen bestimmter Algorithmen, sollen noch deutlich komplexere Systeme entstehen. So ist der Mensch inzwischen im Brettspiel Go geschlagen worden. Der gleiche Algorithmus bzw. das gleiche Deep-Learning-Netzwerk ist für Schach aber gänzlich ungeeignet. In einem ersten Schritt sollen AI-Systeme nicht nur die Sprache, also den gesprochenen Text selbst erkennen, sondern auch die Tonlage und damit den Gemütszustand des Menschen. Digitale Assistenzsysteme ersetzen über kurz oder lang sämtliche Callcenter-Aufgabenbereiche und arbeiten sich darüber hinaus immer weiter tiefer in solche Dienstleistungen, die per Sprache koordiniert werden ein.
Ebenfalls eine Rolle spielt das enorme Datenaufkommen, welches wir alle produzieren und welches sich nur noch automatisiert verarbeiten lässt. Aktuell entstehen 2,5 EB (ExaByte - 1018 Byte) an Daten pro Tag. 2020 sollen es schon 44 ZB (ZettaByte - 1021 Byte) sein und ein solches Datenaufkommen lässt sich anders gar nicht mehr bewältigen, um es auch verwenden zu können. Ohne Verarbeitung der Daten verschwinden diese in der gewaltigen Masse an Gesamtdaten und sind damit eigentlich nicht mehr nutzbar.
GPU-Computing wird für NVIDIA also immer wichtiger und damit hat man sicherlich auch einen Schritt in die richtige Richtung gemacht und früh erkannt, dass GPU-Architekturen zu mehr in der Lage sind als nur Pixel auf den Bildschirm zu zaubern. Eine möglichst gute Zweitverwertung ist für jeden Hersteller von Hardware der Wunschtraum, da sich getätigte Investitionen sozusagen doppelt lohnen. Mit der Pascal-Architektur bekommt dieser Anspruch einen komplett neuen Ansatz, denn während sich NVIDIA mit den Vorgänger-Architekturen meist zwischen den verschiedenen Bereichen entscheiden oder Kompromisse tätigen musste, könnte die Pascal-Architektur die Antwort auf die aktuellen und zukünftigen Anforderungen sein. Mit der Tesla P100 hat man dies im HPC-Computing-Bereich auf dem Papier bewiesen und muss dies nun auch in den Serverschränken dieser Welt tun. Wie es um die Spieler bestellt ist, werden die kommenden Monate zeigen müssen.