Nicht wirklich. Es gibt jetzt eine CPU die da was taugt und damit braucht man Abermillionen Kernen um nichtmal auf 500Pflops zu kommen.
Du solltest Dir die News zu ARM durchlesen, die SVE Extension des Befehlssatzes ist mittlerweile ein offizieller Bestandteil der ARM Plattform, und sie ist nicht auf 512Bit wie beim Fujitsu A64FX beschränkt, sondern erlaubt Implementationen mit 128Bit bis 2048Bit – in Schritten zu 128Bit. Bei 2048Bit wäre man dann auf den Niveau der NEC SX Vector-CPUs. Der große Vorteil bei ARM ist, dass SVE so entworfen ist, dass man unabhängig von der tatsächlichen Implementationsbreite Code schreiben kann, und dieser automatisch von einer breiteren Implementation profitiert.
Was das Thema Cores betrifft, jede GPGPU verfügt aber sehr viel mehr Cores als eine CPU mit SIMD Erweiterung. Ich halte diese Diskussion über die Zahl der Cores daher für reichlich sinnfrei. Was zählt ist wie viel Performance/Watt kommt raus, und wie leicht lässt sich Software für die Plattform schreiben. An dem letzten Punkt scheiterten bisher viele AMD Produkte.
Das vierfache, also 2 Exaflops, wird ElCaptain mit Zen4 und MI200 machen.
Mal schauen was der Softwarestack von AMD taugt. Sowohl Intel wie auch nVidia haben ihre SDKs frei zugänglich gemacht, und Intel setzt immer mehr auf FOSS bei den Libraries. Ich habe lange auf AMD HPC gemacht, und das Ergebnis mit AMDs Softwarestack war damals eher desaströs. Deshalb wurde nur Intels Softwarestack genutzt, und man musste die kleinen schmutzigen Tricks von Intel wieder aushebeln, so dass die Software auch richtig lief.
Belege? Also ich sehe von den großen OEMs immer noch neue Blades für Ice Lake-SP (3rd Gen Intel® Xeon® Scalable Processors):
Du hattest Blades als Basis für HPC angeführt, vor allem wegen der Packungsdichte. Das Cisco Blade Chassis bietet keinerlei Möglichkeit im Chassis Infiniband zu nutzen – für die meisten HPC Lösungen damit nutzlos, die Packungsdichte ist mit 10×2S auf 6U ebenfalls schlecht. Das Dell MX7000 hat in der aktuellen Version eine schlechte Packungdsdichte (8×2S auf 7U) und keinerlei IB Option – auch untauglich. Das ist eine tolle Lösung um Server failsafe zu machen, weil man die FC JBODs/RAIDs da leicht miteinbauen kann (untypisch für ein Blade Chassis). Das eigentliche Blade Chassis von Dell ist ohne Nachfolger. Das Lenovo Blade Chassis hat keinerlei IB Option und eine schlechte Packungsdichte (14×2S auf 10U).
Das SuperMicro SBE-820H erfüllt die Bedingungen für ein HPC Blade Chassis, maximale Leistung der Xeon SP G3 aber nur mit Wasserkühlung. Dafür gibt es die Option auf ein IB HDR Switch Im Chassis, d.h. man braucht keinen extra Leaf IB Switch mehr. Mit HDR ist dank der 40 Port pro Switch der Uplink non blocking, die ältere Version ist leider nur in Teilbestückung nonblocking, weil die EDR IB Switche nur 36 Ports haben.
Dazu wird das Angebot an Blade Lösungen kleiner.