HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.953
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Quelle?Und was die Kabel angeht:
Die 200/400/800 GBit gehen nur über Multimode-Glasfaser.
Auch hier würde mich für 2. genanntes eine Quelle interessieren.Für 40 und 100 GBit reicht noch Cat-8.
Ich wusste bis grade gar nicht, dass Nvidia Switches baut. Aber klar, macht Sinn - Sie kennen ihre Workloads und können da besser priorisieren.
Verwenden Sie eine Proprietäre Technik um zwischen GPUs / Rig und Switch Informationen zum Workload auszutauschen? Oder könnte ein anderer OEM das in der Theorie gleich gut abbilden?
Tun sie auch nicht.Ich wusste bis grade gar nicht, dass Nvidia Switches baut.
Dazu braucht man aber nicht 10km voll ausreizen.10km oder mehr halte ich aber bei einer 800G Verbindung auch eher unrealistisch, dass das jemand auf so einem Gerät nutzt. Die Spectrum 4 Geräte sind ehr für eine L3 Fabric gedacht und werden höchstwahrscheinlich dann als Spine eingesetzt, wenn der Ost/West Verkehr groß werden könnte.
Für Weitverkehrsstrecken zwischen Rechenzentren behilft man sich dann doch meist eher mit einem Router, oder einem WDM.
Für HPC ist Ethernet eine schlechte Wahl, da die Latenzen höher sind als mit Infiniband. Die in einem Cluster erzielbare Gesamtrechenleistung hängt aber von der Latenz ab, und nicht von der Bandbreite.Abgesehen davon muss man soviel Traffic auch erstmal hinbekommen. Bis auf die großen Cloud Unternehmen, Internet Exchanges und SuperComputer wird so ne Kiste faktisch auch niemand wirklich brauchen.
Ich kenne es nur von HPC Infiniband Installationen. Es gibt da keinen zentralen Core Switch sondern Fabrics, d.h. fällt ein Spine-Switch aus, verringert sich nur die Bandbreite im Netz. Der Ausfall eines Leaf-Switches ist da schon ärgerlicher. Aber je nachdem wie die Fabric entworfen wurde (nonblocking oder 2:1 Blocking) hat man da höchstens 24 Knoten verloren. Mittlerweile hängen etwas mehr Knoten an einem Leaf-Switch. Bei >1000 Knoten war das für den Betroffenen ärgerlich, machte aber im Cluster kaum etwas aus. Und für so Fälle gibt es extra Software, die die Rechnung aus dem letzten Snapshot wieder aufnehmen kann.Ich persönlich möchte jedenfalls nicht der Admin sein, der eine solche Kiste bei entsprechenden Trafficleveln abrauchen lässt.
Das ist, zumindest im Ethernet-Bereich, weniger das Problem, da man in aller Regel 2 Leaf-Switche aufbaut, woran denn die Nodes redundant angebunden sind und diese dann wiederum redundant an den Spine.Der Ausfall eines Leaf-Switches ist da schon ärgerlicher.