Ob das DMI mit seinen 3.0x4-Lanes zum Flaschenhals wird, hängt davon ab, inwieweit die angeschlossenen Geräte dessen Bandbreite ausschöpfen. Wenn bspw. Daten vom einem 3.0x4 (M2)-SSD nach einem RAID0 mit 2 SATA-SSD transferiert werden, werden nominell zwar 6 PCIe-Lanes beansprucht
Nein, denn
PCIe ist vollduplex, kann also in beide Richtungen gleichzeitig übertragen und da beim Kopieren die Daten von der Quelle zur CPU (und ins RAM) und dann von der CPU zum Ziel kopiert werden, werden auch keine 6 PCIe Lanes benötigt.
Wenn es eine PCIe SSD gäbe die mit über 3GB/s Schreiben könnte, so könnte man von einer anderen PCIe SSD die die Daten so schnell liefert auf diese mit 3Gb/s kopieren, selbst wenn beide über DMI3 am Chipsatz hängen, da dann eben in beide Richtungen (fast) die volle Bandbreite von DMI3 (was technisch PCIe 3.0 x4 ist), ausgelastet wird. Zumindest theoretisch, praktisch bremst vor allem unter Windows denn der Virenscanner etc. das Ganze vermutlich wieder aus.
Die einzige realistische Anwendung bei der DMI3 ein Flaschenhals ist, sind RAIDs aus schnellen PCIe SSDs und da vor allem beim Lesen. Da aber schon viele Heimanwender selbst von einer solchen schnellen PCIe SSD keinen Vorteil gegenüber einer SATA SSD spüren, würden sie selbst ohne Flaschenhals von einem RAID 0 aus zwei dieser SSDs auch keinen gegenüber einer einzelnen bemerken, es dürfte also vor allem Benchmarkfreaks stören und vielleicht ein paar Leute die wirklich dauernd hochauflösende Videos im Rohformat schneiden.
Flaschenhals sind aber die SATA-Interfaces.
Das ist richtig.
Bei genauerer Betrachtung wird man feststellen, dass nur spezielle Konfigurationen mit mehreren 3.0x4 (M2)-SSD oder mehreren GPU das DMI zum Flaschenhals werden lassen können.
Für die Anbindung von GPUs sind die Lanes des Chipsatzes nicht gedacht, die können auch nur maximal zu x4 zusammengefasst werden. Nur Miner hängen ihre Grakas an Lanes des Chipsatzes, aber für deren Anwendung wird ja auch kaum Bandbreite bei der Anbindung gebraucht, denen reicht eine PCIe 2.0 Lane locker.
Gamer hängen hier Grakas dagegen an die 16 PCIe 3.0 Lanes direkt von der CPU, egal ob S. 1151 oder AM4, die können bei den besten Chipsätzen (Z270 und X370) dann auch als x8/x8 aufgeteilt werden, bei Intel sogar auch als x8/x4/4. Wenn zwei Grakas dem Games dann immer noch reichen, sollte er zu einer HEDT Plattform wechseln, oder hat zumindest beim
S. 1151 auch ein paar Boards mit PLX8747 PCIe Lane Switch als Alternative zur Auswahl.
Leider ist bei diesen Konfigurationen die Ryzenplattform trotz der 4 zusätzlichen CPU-Lanes keinesfalls besser. Ein zweites 3.0x4 (M2)-SSD muss dort ja über die PCIe-2.0-Lanes des Chipsets angeschlossen werden. Der Transfer zwischen diesem und dem an die CPU-Lanes angebunden 3.0x4 (M2)-SSD wird dabei per se auf ca. 1,8 GB/s limitiert. Das schafft die Intelplattform auch trotz DMI.
Und mehr, da PCIe ja eben vollduplex ist und über DMI3 so etwa 3.5GHz in jede Richtung übertragen werden können und damit ingesamt 7GB/s über DMI3 gehen können. Intel hat früher auf Blockdiagrammen etwa für die ICH10 an die PCIe Lanes gerne "500MB/s each x1" geschrieben, obwohl dies ja noch keine 5Gb/s sondern 2,5Gb/s Lanes waren. Da hat man eben auch die Transferraten für beide Richtungen zusammengezählt. Später ist man dazu übergegangen Gb/s anzugeben und diese beziehe sich eben immer nur auf eine Richtung.