HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.972
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Mellanox hat schon länger Infiniband HDR am Markt. Omnipath ist nur Intels proprietäre Abwandlung von Infiniband, welches sie seit der Integration von QLogic in Intel anbieten. QLogic hat früher ebenfalls Infiniband Produkte angeboten.Neben der Bandbreite spielen auch die Latenzen eine Rolle und auch diese will Intel mit OPA200 reduzieren.
QPI bzw. UPI ist noch immer in den Intel Xeon SP Produkten erhältlich, aber es wird nur zum Verbinden von NUMA-Knoten in einem System benutzt. Infiniband bzw. Omnipath (Omnipath ist eine proprietäre Erweiterung von Infiniband) ist hingegen eine switch- und routing-fähige Technik, d.h. es ist ein echtes Netzwerkprotokoll und eignet sich dazu tausende von Knoten zu verbinden. Beim älteren QDR IB lag die Grenze bei 65536 Knoten ohne Router-Einsatz. Mit Router können es mehr sein.Aber da gibt es ja auch den QPI Link als ehemalige Innovation, mit bis zu 320GBit/s, frage mich warum sowas nicht genutzt wird.
Frage mich warum sowas nicht genutzt wird, ist irgendwie ausgestorben nach Sockel 1366, und kam im Consumer Bereich, auch sonst nirgendwo mehr zum Einsatz.
Da es bisher für Intel Systeme kein PCIe 4.0 gibt, ist man effektiv auf 100Gbps an den Knoten limitiert. Für 144 Knoten reichen 6 HDR Edge-Switches aus (HDRs haben 40 Ports), dann braucht man noch 3 Spine-Switches. Die Fabric läuft dann mit HDR200 und die Knoten werden mit HDR100 versorgt.Kleines Beispiel: Ich habe hier eine Installation mit 144 Knoten über Infiniband. Dazu brauche ich bei 1:2 Blocking Faktor 8 36 Port Switches. Für non-blocking sind 16 36 Port Switches erforderlich. Oder eben 8 48 Port Switches.
Das spart viel Geld und Platz und das Netzwerk wird weniger Komplex.