Werbung
Natürlich spielte auf der CES-Keynote von NVIDIA auch das Thema Automotive eine Rolle. In diesem Zusammenhang wurde auch eine bereits bekannte Hardware noch etwas konkretisiert. Genauer gesagt handelt es sich um den SoC namens Xavier, der für die Drive-PX-Plattform verwendet wird und bei der GPU ein Cluster auf Basis der Volta-GPU einsetzt. Auf der GTC16EU äußerte NVIDIA sich erstmals offiziell zu Xavier.
Der Projekt Xavier SoC besteht aus sieben Milliarden Transistoren und wird im 16-nm-FinFET-Verfahren gefertigt. Auf Seiten der Rechenkerne werden acht Custom-ARM64 verwendet. Hinzu kommt eine integrierte GPU auf Basis der besagten Volta-Architektur. 512 Shadereinheiten sollen hier verwendet werden. Sowohl auf Seiten der CPU wie auch auf Seiten der GPU sind noch viele Fragen offen. So ist unklar, ob die Custom-ARM64-Kerne eine Weiterentwicklung der Denver-Kerne sind.
Neben den acht CPU-Kernen und der Volta-GPU kommen einige SFUs (Special Function Units), wie Signalprozessoren, die zwei 8K-Videostreams mit HDR encodieren und analysieren können. Ein Xavier-SoC bzw. das dazugehörige Modul soll so leistungsstark sein wie Drive PX 2. Dieser verwendet zur gleichen Leistungsentfaltung allerdings zwei Parker-CPU-Kerne und zwei Pascal-GPUs. Projekt Xavier soll eine Rechenleistung von 30 TOPS DL-Operationen (8INT-Operationen) erreichen und ist damit um 50 % schneller als Drive PX 2. War im Sommer allerdings noch die Rede von 20 W Leistungsaufnahme, spricht NVIDIA nun von 30 W. Dies resultiert aus der gestiegenen Rechenleistung, die seit dem Sommer von 20 auf 30 TOPS DL-Operationen angestiegen ist. Damit kann NVIDIA die im Sommer angekündigten 1 TOPS/W weiterhin einhalten – ein extrem ambitioniertes Ziel.
[h2]Der Autopilot ist immer aktiv[/h2]
Hardware wie Drive PX 2 und Xavier kommt bereits in Fahrzeugen mit Autopiloten zum Einsatz. Tesla verwendet in seiner aktuellen Ausbaustufe Drive PX 2 und auch Xavier wird ab dem kommenden Jahr in einigen Fahrzeugen eingesetzt werden. Die zur Verfügung stehende Rechenleistung soll auch eingesetzt werden, wenn der Autopilot nicht die Steuerung des Fahrzeugs übernimmt, sondern das Fahrverhalten nur überwacht. Dazu werden vermehrt Kameras und Mikrofone im Inneren des Fahrzeugs eingesetzt.
Auch wenn der Autopilot nicht die Steuerung selbst übernimmt, soll die künstliche Intelligenz die Umgebung überwachen und beispielsweise vor Hindernissen warnen. Eine Gesichtserkennung erkennt den Fahrer und stellt den Sitz und die Spiegel automatisch ein. Das Headtracking erkennt, wenn der Fahrer das Handy verwendet und warnt ihn davor. Die AI kann Lippenlesen, wenn die Umgebung zu laut ist, um Sprachbefehle auch dann erkennen zu können.
Auf der Keynote kündigte NVIDIA außerdem eine Zusammenarbeit mit Bosch und ZF an. Beide Zulieferunternehmen arbeiten mit NVIDIA zusammen und bieten ihre Hardware mit Rechenbeschleunigern aus dem Hause NVIDIA an. Audi und NVIDIA arbeiten schon etwas länger zusammen und wollen diese Zusammenarbeit zukünftig noch ausweiten.