Werbung
Wenn wir uns modernen Supercomputer anschauen oder aber die entsprechenden Beschleuniger in Form von Prozessoren, Custom-Hardware oder auch GPUs, dann wird vor allem eines deutlich: Der Anbindung von Speicher und dessen Geschwindigkeit kommt eine immer wichtigere Bedeutung zu. Ebenso verhält es sich mit schnellen Interconnects, die Speicher und einzelne Rechenbeschleuniger miteinander verbinden. Bis zu 400 GBit sind heute bereits üblich, mehrere Terabyte pro Sekunde sollen es in Zukunft sein.
Hewlett Packard Enterprise (HPE) lenkt den Fokus nun noch weiter in Richtung des Speichers, denn mit der Vorstellung eines Server-Prototypen namens The Machine will man die derzeit gültigen Annahmen im Bereich des Supercomputings auf den Kopf stellen. Nicht mehr möglichst viele und schnelle Recheneinheiten spielen hier die wichtigste Rolle, sondern der Speicher. Dazu hat man eine Art Universalspeicher geschaffen, der alle bisher bekannten Speicherhierarchien aufhebt.
Register, L1-, L2-, L3- und L4-Caches, schnell angebundener eDRAM und vieles mehr – Prozessoren und GPUs sind umringt von verschiedenen Speichertypen in den unterschiedlichsten Hierarchien. Allesamt weisen diese Speicher unterschiedliche Kapazität und Geschwindigkeiten auf und eben dies muss bei der Nutzung auch beachtet werden. Alleine auf die Verwaltung dieser unterschiedlichen Speicher verwendet die Hardware bereits einen gewissen Teil an Rechenleistung auf und wird dennoch durch diese Struktur limitiert.
Der "The Machine"-Prototyp von HPE räumt mit diesem Konzept nun auf und zeigte einen fertigen Server, der modular aufgebaut aus mehreren Racks besteht – wie im Server-Segment üblich. Pro Platine kommen dabei vier Speichercontroller zum Einsatz, die jeweils 1 TB an DRAM anbinden. Wie schnell dieser Speicher dabei genau ist, sagt HPE nicht. Damit die Racks auch untereinander ihre Daten schnell austauschen können, verwendet HPE ein Fabric, also eine schnelle Direktverbindung. In diesem Interface befindet sich auch ein ARM-Prozessor sowie ein Memory-Fabric-Switch. Auf einer höheren Ebene kommt ein Interconnect auf Basis von Silicon Phototonics Link zum Einsatz. Dabei werden als Übertragungsmedium nicht mehr Kupferleitungen oder ein Fabric verwendet, sondern Lichtwellenleiter. Jeder angeschlossene Prozessor hat die gleichen Zugriffsrechte und Geschwindigkeiten auf den gemeinsamen Speicher.
Derzeit arbeitet "The Machine" noch mit DRAM, der bei Abschaltung und Stromausfall sämtliche Daten verliert. Zukünftig aber soll schneller, nicht flüchtiger Speicher zum Einsatz kommen. Denkbar wäre die Verwendung von NVDIMM, den HPE bereits für einige Server anbietet. Denkbar und möglich ist aber auch der Einsatz von ReRAM, der ebenfalls nicht flüchtig aber dennoch fast so schnell wie DRAM ist.
Was nun aber zunächst einmal passieren muss, ist die Anpassung und Entwicklung von Software, denn diese ist gänzlich auf den klassischen Aufbau der Hardware mit mehreren Speicherebenen ausgelegt. Derzeit wird ein speziell angepasstes Linux verwendet, derzeit wird aber auch ein eigenes MachineOS entwickelt. 2018 oder 2019 soll dann die erste produktive Software mit dem Prinzip von "The Machine" erste Berechnungen ausführen.
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Ihr Hardwareluxx-Team
Youtube Videos ab jetzt direkt anzeigen