Werbung
Die Xeon-Scalable-Prozessoren der zweiten Generation bieten aus technischer Sicht zunächst einmal keine großen Neuerungen. Bis zu 28 Kerne aus der 14-nm-Fertigung mit geringen Taktsteigerungen - auf die neue 9000-Serie der Xeon-Platinum-Prozessoren und deren Besonderheiten sind wir in einer Meldung noch genauer eingegangen. Dies zeigt sich auch in einigen Benchmarks, die keine Verwendung der neuen Frameworks und Hardwarebeschleunigungen vorsehen. Klassisches FP32-Compute mit und ohne AVX512 bewegt sich somit auf dem bekannten Niveau. Dies bedeutet auch, dass wir bei der Effizienz bzw. der Leistungsaufnahme mit Cascade Lake kaum Verbesserungen gesehen haben.
Doch die Xeon-Scalable-Prozessoren der zweiten Generation auf Basis der Cascade-Lake-Architektur beziehen ihre Leistungsvorteile in anderen Bereichen und auch dies wird aus den Benchmarks deutlich. So steigert Intel den Takt des unterstützten Arbeitsspeichers und auch wenn DDR4-2666 zu DDR-2933 zunächst einmal nach nicht viel klingt, dort wo Speicherbandbreite wichtig ist, können ein paar GB/s mehr eine merkliche Rolle spielen.
Einen Aspekt der Speicherunterstützung konnten wir noch nicht testen und dabei handelt es sich um den neuen Optane DC Persistent Memory. Mithilfe dieses Speicher lässt sich einerseits die Gesamtkapazität des Speicherausbaus erhöhen, andererseits die Kosten pro GB gleichzeitig senken. Man muss sich aber schon sehr genau anschauen, wann sich der Einsatz des Optane DC Persistent Memory wirklich lohnt oder nicht. Dies spielt auch für die Anwendung von mehreren VMs eine Rolle. Durch den größeren Speicherausbau haben die Xeon-Scalable-Prozessoren der zweiten Generation unter Umständen auch hier Vorteile auf ihrer Seite.
Interessant wird es immer dann, wenn die DL-Boost-Beschleunigungen zum Einsatz kommen. Hier zeigen sich die Vorteile der Cascade-Lake-Xeons sicherlich am deutlichsten. Zwischen einem Faktor 1,5 und 10 bewegen sich die Leistungsvorteile zweier Xeon Platinum 8280 gegenüber den Vorgängern. Und Intel will in diesem Bereich weiter Verbesserungen vornehmen, denn alleine über die Software und die richtigen Anpassungen kann die Leistung wohl noch deutlicher gesteigert werden.
Mit den Xeons auf Basis der Cascade-Lake-Architektur führt Intel zwei Bereiche zusammen: General Compute und die Beschleunigung von Deep-Learning-Anwendungen. Während die Rechenleistung im klassischen Bereich nahezu stagniert, können die Xeon-Scalable-Prozessoren der zweiten Generation bei DL-Boost-beschleunigten Anwendungen überzeugen. Es macht im professionellen Umfeld einen großen Unterschied, wenn eine Rechenaufgabe in der Hälfte der Zeit, einem Viertel der Zeit oder gar noch schneller erledigt werden kann.
Zeit ist Geld – dies gilt für die Anbieter und Kunden der Hardware in Cloud-Compute-Umgebungen ebenso, wie für Kunden, die sich solche Hardware in die eigenen Rechenzentren stellen.
Mit der nächsten Generation der Xeon-Prozessoren alias Cooper Lake wird Intel noch einen Schritt weiter gehen. Neben DL-Boost sollen die Prozessoren auch den neuen Datentyp BFloat16 nativ beherrschen und bei den Deep-Learning-Anwendungen noch einmal ein deutliches Leistungsplus erhalten. Zudem werden die Cooper-Lake-Xeons offenbar auf einem neuen Sockel beruhen und auch mehr Kerne bieten. Dann wird Intel auch im Bereich des General Compute wieder einen größeren Sprung machen.