Werbung
Deep-Learning-Netzwerke sind in aller Munde und alle großen Unternehmen arbeiten daran. Facebook, Google, Baidu, Apple und Microsoft nutzen diese Systeme teilweise bereits heute, dabei sind Hard- und Software gerade erst in der Anfangsphase der Entwicklung. Für NVIDIA sind Deep-Learning- und Artificial-Intelligence-Systeme vor allem eine Chance die eigenen Hardware an den Mann zu bringen. Durch die Möglichkeit die Lernprozesse derart parallelisieren zu können, eigenen sich GPUs bestens in diesem Feld. Auf der GPU Technology Conference 2015 setzte NVIDIA Deep Learning als ein Leitmotiv der eigenen Entwicklung ein.
Facebook AI Research oder kurz FAIR ist eine Entwicklungsplattform des sozialen Netzwerkes, welches nun eine neue Hardware-Basis bekommen wird. FAIR ist dabei aber keine Entwicklung von Facebook selbst, sondern wurde zusammen mit einigen Partnern entwickelt, die alle davon profitieren sollen. Viele Bereiche sollen als Open-Source-Projekt zur Verfügung gestellt werden. Dazu gehört auch die Hardware-Plattform, die als Teil des Open Compute Project zugänglich sein wird.
Wo Facebook die Daten für seine eigenen Deep-Learning-Netzwerke beziehen kann, dürfte ebenso offensichtlich sein, wie die Anwendung dieser Netzwerke. Facebook M, ein digitaler Assistent, der aktuell noch weitestgehend manuell gesteuert wird, soll in Zukunft vollständig automatisch funktionieren und wird aktuell angelernt. Zukünftig will Facebook die Timeline, die dort gemachten Angaben, Fotos und Videos seiner Nutzer aber weiter automatisiert auslesen und weiterverwenden können. Ob dies nun zum Vor- oder Nachteil des Nutzers ist, darf jeder selbst durch die Teilnahme oder Nicht-Teilnahme an Facebook festlegen.
{jphoto image=87897}
Kommen wir nun aber zur GPU-basierten Hardware des neuralen Netzwerks: Facebook verwendet für diese den Codenamen Big Sur. Big Sur ist ein zu Open-Rack kompatibles Design, welches beliebig skalieren können soll. In jedem Rack arbeiten acht NVIDIA Tesla M40 mit einer Leistungsaufnahme von jeweils 300 Watt. Im Vergleich zur Vorgänger-Plattform soll Big Sur eine um den Faktor Zwei höhere Performance bieten.
Ein weiterer Ansatz ist das Open-Rack-Design. Anstatt bestimmte Anforderungen an die Kühlung oder sonstige Infrastruktur zu stellen, kann Big Sur einfach in jedem Serverrack untergebracht werden und sorgt selbst für die notwendige Kühlung. Die notwenige Kompatibilität zum eigenen Open-Compute Standard-Data-Center ist gegeben. Hardware-Komponenten, die häufiger gewechselt werden müssen, wie zum Beispiel DIMMs, Festplatten und SSDs, sind einfach zugänglich. Um die Arbeit der Techniker zu erleichtern, versieht Facebook diese Komponenten mit einem bestimmten Farbcode Pantone 375 C, sodass die wechselbaren Komponenten schnell und einfach identifiziert werden können. Selbst das Mainboard soll innerhalb von einer Minute gewechselt werden können, was zuvor noch über eine Stunde dauerte. Komplizierte Anleitungen seien dazu nicht notwendig, ebenso wenig ein Werkzeug. Einzig für die Kühlkörper der CPUs ist ein Schraubendreher notwendig.
Das Design und die Materialien von Big Sur sollen Teil des Open Compute Project (OCP) werden. Ebenso will man in gewissen Bereichen mit der Software verfahren, damit auch dieses Segment innerhalb von FAIR als Open-Source zur Verfügung steht. Viele Auswirkungen der aktuellen Entwicklung wird der Nutzer zunächst einmal nicht bemerken können. Deep Learning und Artificial Intelligence werden aber eine immer wichtigere Rollen spielen.