HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.867
Es ist zu vermuten, dass NVIDIAs Datacenter-Geschäfte blendend laufen. Die LLMs (Large Language Models) sind extrem hardwarehungrig und verlangen nach schnellen GPUs mit viel Speicher. Während die aktuell verwendeten Modelle meist noch auf den A100-Beschleunigern trainiert wurden, findet langsam der Wechsel auf die neuen H100-Beschleuniger statt. Google stattete erst kürzlich seine A3-Instanzen mit diesen Beschleunigern aus und kann sie als A3-Supercomputer mit insgesamt 26.000 H100-GPUs auch als gemeinsames System verwenden.
... weiterlesen
... weiterlesen