AMD gibt erste Details zu Milan bekannt: Zen 3 mit neuem CCD-Aufbau

Die Frage war gibt es da draussen noch verbreitete und verwendete Software gibt die systematisch AMD Prozessoren benachteilt.
Die Antwort ist - Ja im bereich der Mathematiksoftware. (Matlab, Numpy/scipy, Mathematika usw.)
Mal vom missglückten Satzbau abgesehen, ist das die einzige SW die AMD CPUs benachteiligt, ist ja wohl AMDs eigene Lib:

Mit der OpenBLAS Lib liegen beide nahe beeinander:


Das der Xeon W-2175 mit seinen AVX512 Einheiten mit der Intel Lib die diese im Gegensatz zu OpenBLAS auch nutzt, AMDs CPUs haben bisher keine solchen AVX512 Einheiten, halt deutlich in Führung gehen kann, ist angesichts der hier die Ergebnisse des Cannon Lake i3-8121U bei 3D Particle Movement v2.1 mit AVX512 doch wohl keine Überraschung. Interessant wäre es, wenn auch OpenBLAS unterstützen würde, dann könnte man sehen wie viel mehr die Intel Lib überhaupt optimiert ist. Da AMD CPUs wie gesagt keine AVX512 Einheiten haben, kann bei ihnen auch kein AVX512 genutzt werden, benachteiligt werden in dem Sinne nur durch die Entscheidung von AMD darauf zu verzichten und eben dadurch, dass AMD keine eigene performante Lib liefert. Von Intels Lib Optimierungen für AMDs CPUs zu erwarten, ist nun wirklich unangebracht.
Muss Intel für AMD optimieren?
Nein aber die Codepfade die SIMD Instruktionen verwenden sollten auf allen Prozessoren die diese Instruktionen beherrschen auch verwendung finden.
Aus welchem Gesetzt oder welchem Vertrag leitet sich diese angebliche Pflicht ab? Auch wenn du nicht nachvollziehen kannst was der User bzgl. der Crshes vom Ryzen 1800X bei FMA3 Befehlen schreibt, so muss das ja nicht falsch sein und wie schon gesagt: Wenn die Intel Lib dann auf den AMD CPUs zu crashs führt, wäre das Geschrei noch größer. Daher ist es durchaus nachvollziehbar, wenn nur die Grundbefehle verwendet werden und es wäre an AMD eine gescheite Lib für die eigenen CPUs anzubieten. Dann könnte AMD versuchen mit Intel darüber verhandeln eine Vereinbarung zu treffen, dass diese als alternativer Code-Path verwendet wird, wenn die MKL auf einer AMD läuf, aber wenn die eigene Lib so gar nichts taugt...

Wieso sollte dann jemand überhaupt die Intel MKL für seinen AMD Prozessor verwenden, wenn es eine schnellere Alternative wie die OpenBLAS oder Eigen gibt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AVX wird erst interessant, wenn man eine shared FPU nutzen kann.
4x 256 Bit sind Praktisch f[r 2x 512 Bit in einem Wisch. ;)
 
Mit der OpenBLAS Lib liegen beide nahe beeinander:
Endlich hast du den Punkt meiner Argumentation verstanden.
Mit einer neutralen Algebra bibliothek sind die Prozessoren beinahe gleich schnell.

Wieso sollte dann jemand überhaupt die Intel MKL für seinen AMD Prozessor verwenden, wenn es eine schnellere Alternative wie die OpenBLAS oder Eigen gibt?

Matlab/Mathematika: Weil es einkompiliert ist und sich nicht ersetzen lässt. (Abgesehen von extensiven modifikationen die eine Reihe von Fehlernquellen produzieren)
numpy/scipy: Weil es ist der out of the box default ist, der User muss aktiv nachforschen warum sein brandneuer AMD 8 Kern Desktop vom 5 Jahre alten Intel Dualcore Laptop geschlagen wird.
 
Zuletzt bearbeitet:
Wieso sollte dann jemand überhaupt die Intel MKL für seinen AMD Prozessor verwenden, wenn es eine schnellere Alternative wie die OpenBLAS oder Eigen gibt?
Endlich hast du den Punkt meiner Argumentation verstanden.
Mit einer neutralen Algebra bibliothek sind die Prozessoren beinahe gleich schnell.

Ich seh das meist gar nicht so eng - Erfahrung ausm Datacenter zeigt zu-oft - jetzt optimal auf eine Software gekauft, kein jahr später, neue Softwareversion, oder Firma entscheidet sich gar um, nimmt andere Software, sieht das Bild aufeinmal anders aus. Man kann sich totbenchen - für jede Software gibt es im "hier und jetzt" etwas optimales, aber so hätte man, auch für Computerspiele, gefühlt 12 Rechner, weil der in dem Fall der bessere ist und für den anderen Fall das System usw.

Man ist froh wenn man was hat, was man gut, kostengünstig, langfristig upgraden und optimieren kann, ohne dabei gleich n neuen Rechner oder komplettes Rechenzentrum zu ersetzen.
Und da bin ich echt happy das AMD momentan interessante Lösungen bieten wird. 2x 64 Kern auf einem Board/in einem Rack, bei 7nm und 500 Watt, mit Option auf noch eine next Gen draufzusetzen. Da kann man auch auf Details verzichten.

Klar komplett daneben sollte man natürlich nicht kaufen, sah irgendwo ein Post wo einer eine spezielle CAD Software nutzte, wo eindeutig n 9900k sehr optimal war..zumidnest solange die Firma bei dem Hersteller bleibt, wehe man nimmt nach 2 Jahren andere Software, aufeinmal ist n 9900k lahm und ein threadripper 2000 doppelt so schnell...seh ich andauernd, passiert andauernd, das ist dann immer das, womit ich mein Geld verdiene - wenn die Kunden anrufen und sauer auf den vorigen Verkäufer sind, weil der 2 jahre alte rechner schonwieder lahm ist.

Sich deswegen wegen details zu zerkloppen :)

Ich zock mit meinem Xeon chließlich auch, kenne seine stärken, aber auch seine schwächen. Oft genug sitz ich teils bei Kunden/Lösungssuche, aber auch zum Unterschied aufzeigen, einfach mit ner Stoppuhr daneben - Frei nach dem Motto "kann ich mir nochn Kaffee holen oder ist der gleich fertig?" - Meist auch der Grund warum ich fast nur WS und Server mach, rest kann man bei Mediamarkt kaufen - Meine Kunden rufen meist immer nur nach 9 Jahren an, wenn die was neues brauchen, solange ist die alte Platform allem gewachsen, ob hier oder da n kleiner Nachteil ist bei der überwältigen Power kaum merkbar und auch lange zukunftssicher.

naja und ob ne platform zukunftssicher ist...bleibt natürlich manchmal n glücksspiel, diese roadmap hilft etwas um das einzusortieren, bringt mich nämlich dazu ->

Produktion 3 quartal 2020? Also erdt 2021 zu kaufen?

yep..wird wohl das jahr der großen 5555 ...5nm, pci-e 5.0, ddr5, sp5 sockel - idealer bester zeitpunkt sich ne langfriste workstation zuzulegen, die lange bestand haben wird, weil so schnell ersma nix neues kommt, kann man wahrscheinlich 7 jahre ohne upgrades alles machen, bis dahin ist meine kiste dann wohl auch 7 jahre alt, ohne allzuviele upgrades (außer grafikkarten im 2 jahrestakt durchzuwechseln, aber das kann n 12-jähriger^^)
 
Endlich hast du den Punkt meiner Argumentation verstanden.
Mit einer neutralen Algebra bibliothek sind die Prozessoren beinahe gleich schnell.
Nur verwendet diese neutrale Lib ja offenbar kein AVX512, aber die Intel CPU hat diese Befehlserweiterung und die Intel Lib nutzt diese auch, es wäre ja auch eine Verkrüppelung zu ungunsten von Intel dies nicht zu machen. Wie viel vom Vorsprung des Xeon mit der Intel Lib AVX512 kommt, wissen wir natürlich nicht.

Matlab/Mathematika: Weil es einkompiliert ist und sich nicht ersetzen lässt.
Also das sieht hier ganz anderes aus, wozu denn eine Anleitung wie man die Intel MKL integiert, wenn sie angeblich schon eincompiliert sein soll? Das macht doch keinen Sinn.
 
Der Grundgedanke ist ja, alle Siliziumelemente, die derzeit noch verteilt im Rechner hängen auf einen Interposer zu verbinden. Ich denke, dass es kostentechnisch durchaus Sinn machen kann - denn zusammen ist das Package günstiger, als wenn ich es dediziert Schritt für Schritt in ein Extra Produkt packe.
Dafür ist man wieder weniger flexibel, oder meinst Du es werden dann zig verschiedene Packages mit Interposer gefertig einmal mit A CPU, B GPU und C RAM/HBM oder und oder I/O DIE und dann mehrfach in anderen Kombinationen?

AMD könnte hierfür den Segmentations-Schritt gehen (so wie bei den CPUs auch) teildeaktivierte Elemente mit dem billigsten HBM den sie finden können auf einen Interposer zu kloppen und dann für "relativ" wenig Geld rauszukloppen. Besser wäre aber eine Art "Sockel" Stecklösung - wo ich die einzelnen Elemente (I/O Die, CPU Dies, GPU Dies und HBM) draufstecken kann. Das wäre aber die Hölle für die Mainboardhersteller, die dann komplett überdimensionierte Mobos für den "Fall der Fälle" entwickeln müssen - wo am Ende ne billige APU Versorgung von heute schon ausreichen würde. Es wurde schon von einigen Youtubern gemunkelt, dass man auch eine Art "Build to order" Version als Kompomiss schließen könnte.
...
Vergiss die Sockel/Stecklösung. Sieh Dich mal im mobilen Markt um, dort wird eigentlich nur noch verlötet. Mittlerweile nicht nur CPU und GPU sondern auch RAM und teils SSDs. Braucht viel weniger Platz und im mobilen Sektor muß eh alles klein, dünn und leicht sein. Du kannst bei kaum einem Laptop etwas austauschen/upgraden. Gerade mal Storage (M.2/SATA) und mit Glück noch RAM.
Ja es gibt noch ein paar Workstation Laptops oder Gaming Laptops (die teils sogar Desktop Komponenten nutzen) wo man so ziemlich alles tauschen/upgraden kann, aber die kann man fast an einer Hand abzählen, zumindest im Vergleich der breiten Masse an Laptops.

Dazu kommt noch daß Du vieles nicht einfach so Sockeln kannst. Bei HBM brauchst Du jede Menge Datenleitungen und die Signalqualität würde durch die Länge und den Sockel leiden, sprich man könnte wohl nicht mehr die Taktraten und Latenzen fahren wie bisher.
 
HBM ist nicht in Sockeln zu realisieren, einfach weil es viel zu viele Kontakte benötigt, die Bandbreite kommt ja von den bis zu 1024 Bit Datenbreite (im Verglich zu 64 bei RAM Riegeln, 72 mit ECC) und die geringere Latenz davon, dass Rows und Columns gleichzeitig übertragen und nicht wie bei normalen Riegel nacheinander übertragen werden, was natürlich doppelt so viele Adressleitungen benötigt. Deshalb braucht man für HBM immer Interposer, weil anders gar nicht in der Lage ist die vielen Verbindungen auf der kleinen Fläche der HBMs zu realisieren und Interposer treiben die Kosten gewaltig in die Höhe, selbst Intels Sparversion EMIB, bei der der Interposer kleiner ausfällt, weil nicht die ganze Dies drauf passen müssen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh