R5 1600X PCIe Lanes Bottleneck?

Avenor

Neuling
Thread Starter
Mitglied seit
11.06.2018
Beiträge
27
Ort
Bonn
Hey Leute,

in Zukunft plane ich den Sprung von SSD auf M.2 als OS Storage. Im Moment und hoffentlich für die nächste Zeit werde ich meinen R5 1600X als CPU benutzen. Ich habe bereits gegoogelt und möchte mich bei dem Forum meines Vertrauens nochmal absichern.

Laufe ich Gefahr, nicht die volle Geschwindigkeit einer M.2 nutzen zu können, weil zu wenig PCIe Lanes zur Verfügung stehen?

Meine Rechnung:

CPU hat 24 PCIe Lanes befeuern
- 16 für die GPU und 4 (ich glaube es sind so viele) für den Chipsatz
also bleiben doch eigentlich 4 über um die M.2 zu versorgen (eine Samsung)

Habe ich mich irgendwo vertan?

Gruß Avenor
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Musst du in der Spec deines Mainboards nachlesen, wie es genau verschaltet ist. Im Normalfall verlierst du bei nur Graka + NVMe SSD keine Leistung
 
Ryzen ist - anders als Intels 115x - speziell darauf ausgelegt, eine Grafikkarte und eine M2-PCIe-SSD mit voller Geschwindigkeit anzusprechen, selbst wenn noch weitere Peripherie an den Chipsatz-Lanes hängt. Es kommt aber aufs Mainboard an.
 
Eine M.2 SSD kann man an den 4 PCIe 3.0 Lanes des internen Chipsatzes (die RYZEN haben ja einen internen und die Boards noch mal einen externen Chipsatz) betreiben, sofern das Board diese an den M.2 Slot legt. Welches Board hast Du denn? Das MSI B350 PC Mate aus der Systeminfo? Dies hat:
Da kannst Du eine schnelle PCIe SSD wie z.B. die Samsung 970 Evo drin betreiben, dies kostet der Graka keine Lanes und denn wäre auch alle 24 PCIe 3.0 Lanes Deiner CPU belegt, nämlich die 16 mit der Graka, die 4 des internen Chipsatzes mit der SSD und die übrigen 4 zur Anbindung des externen B350 Chipsatzes.
 
Welchen Vorteil hat man durch eine PCI-E SSD als OS Platte im Vergleich zu einer SATA SSD?
 
Meiner Meinung und Erfahrung nach, fast keinen. Bei ist egtl nur deswegen ne NVMe M.2 SSD verbaut, weil ich dann endgültig keine zusätzlichen Festplatten mehr im Gehäuse habe.
 
Vielen Dank Holt!

Es spart Kabel und naja die Bootzeit wird nochmals verringert. Außerdem liebe ich PC Hardware und bastele immer wieder rum.

Beste Grüße
 
Wenn man sich die nackten Daten anschaut: Sata-SSD ca 500-550 GB/s lesen+schreiben; M2-SSD ca 1600-3200 GB/s lesen/schreiben. Das wären 3-6 mal schneller, je nach Hersteller, mehr oder weniger bzw je nach Anschluss.

Edit:

Hmm, der Intel I7 9700K hatt nur 16 Lanes......heisst das, das ich die Graka beschneide mit der Leistung?
 
Zuletzt bearbeitet:
@Mephiston: Ich kenne mich zwar nicht aus bei Intel, mutmaße aber dass der i7 9700K nur 16 PCIe Lanes hat, die direkt zur GPU bzw. den entsprechenden 16x Slot gehen. Der Rest wird über den Chipsatz angebunden und teilen sich weitere 8x PCIe Lanes?
 
Der 9700K hat insgesamt 20 PCIe-3.0-Lanes; 16 für die PEG-Slots und 4 für das Interface mit dem Chipsatz (DMI3). Üblicherweise nutzt die Graka erstere das M2-PCIe-SSD hingegen letztere.

Die Bootzeit eines PC hängt von der Initialisierung der Komponenten ab. Die Geschwindigkeit des Massenspeichers ist dabei so unbedeutend, dass sich die Bootzeit mit einem PCIe-SSD nicht mehr merklich verringert.
Beschleunigt werden u. U. initiale Ladesequenzen von Anwendungen und Games. Bei Foto- und Videobearbeitung kann der gesamte Workflow verbessert werden.
 
Zuletzt bearbeitet:
Diese Angaben beziehen sich auf die seq. Schreib- und Leseleistung, die fast nie als OS-Platte auftritt. Eine NVME lohnt sich als "Normalanwender" kaum. Weder lädt Windows noch andere Programme wesentlich schneller.
 
Die S.1151(v2) CPUs haben alle 16 Lanes für die Graka plus 4 für die Anbindung des Chipsatzes, die man bei Intel aber anderes als bei AMD eben nicht mitzählt, weil sie ja nicht zur freien Verfügung stehen sondern fest verplant sind. Diese Chipsätze haben dann selbst noch mal bis zu 24 PCIe 3.0 Lanes (Z270/370/390) und an denen hängen die M.2 Slots, so dass sich bei keinem S.1151 Board die M.2 Slots und die Slots für die Grakas Lanes teilen. Die ganze S.1151 Plattform biete also bis zu 40 PCIe 3.0 Lanes und damit wesentlich mehr als AM4!
 
Zuletzt bearbeitet:
Vielen dank für die Erklärung, wieder ein bischen schlauer geworden :)
 
Aber wenn sich die Geräte die PCIe-Lines beim 1151v2 vom Chipsatz teilen, dann steht doch theoretisch nicht die volle Leistung zur Verfügung bzw. sie haben höhere Latenz, oder nicht?
 
Solange die Daten nicht über die CPU müssen, sollte das im großen und ganzen kaum eine Rolle spielen. Sofern es aber CPU intensive Sachen sind, können die 4x Lanes zur CPU schnell ein Bottleneck werden.
 
Anderseits braucht eh kaum einer mehr als 16 Lanes für die GraKa und 4 für eine M.2.
 
Die volle Leistung von DMI3, also technisch PCIe 3.0 x4 (und PCIe ist vollduplex, also könnten real so 3,5GB/s pro Richtung und in beide Richtungen gleichzeitig, insgesamt als 7GB/s übertragen werden) jedem Gerät zu Verfügung. Die Chipsätze sind ja vor allem PCIe Lane Switches und wie beim Ethernet Switch kann jeder Port dort die volle Bandbreite bekommen, sofern eben nur zwei Ports sie brauchen. Wenn dann ein dritter mit einem der beiden Geräte Daten austauschen will, etwa ebenfalls Daten vom NAS lesen möchte, dann müssen zwei sich die Bandbreite des Upload Links vom NAS teilen, aber nur dann wenn eben beide zusammen mehr Daten übertragen möchten als übertragen werden können, die Bandbreite wird ja dynamisch und nicht statisch verteilt.

Das kommt aber bei DMI in Praxis nur vor, wenn man ein RAID 0 aus zwei schnellen PCIe SSDs baut, denn dann wird eben immer von beiden gleichzeitig gelesen, hat man zwei einzelne Laufwerke und kopiert von einem auf das andere, so ist die DMI Anbindung eben kein Flaschenhals, weil es eben vollduplex ist. Klar kann man sich auch andere Fälle konstruieren, etwa wenn von einer schnellen NVMe SSD gerade etwas in den Speicher geladen wird und die andere soll auf eine andere kopieren, aber wie realistisch kommt sowas vor und dauert dann auch noch so lange das die Verzögerung es wert wäre viel Geld in einen Plattform zu investieren bei der diese vermieden werden könnte? Immerhin kann eine richtig schnelle NVMe SSDs 32GB RAM in weniger als 10s füllen und wenn sie eben einmal 12s oder 15s braucht weil nebenbei noch was anderes kopiert wird, dann wird man den Unterschied auch kaum merken, außer man steht mit der Stoppuhr daneben.

Außerdem haben die meisten gar nicht so viele schnelle PCIe SSDs, entweder haben sie eine oder zwei, eine fürs System und die anderen für die Spiele oder wenn sie Videoschnitt machen, eine als Quelle und die anderen als Ziel und dazu vielleicht noch eine als Systemlaufwerk, aber von dem werden dann sicher nicht GB weise Daten gelesen während der Videoschnitt läuft.
 
Zuletzt bearbeitet:
@Holt: heisst also, wenn ich 1x 1TB NVMe SSD, 1x2TB HDD und 1x Graka PCIe 16x hab, kommt kein bottleneck zustande. Hab ich aber 3x500GB NVMe SSD (nur theoretisch :)) und 2x Graka PCIe 16x, dann kommt bottleneck zustande?

SLI im Sinne von 2 Graka's, je mit 16 fach angebunden?
 
Zuletzt bearbeitet:
Die Grakas wären dann über je 8 Lanes angebunden da diese nicht über den Chipsatz versorgt werden... und ja 3 NVME SSDs wären dann tatsächlich ein Bottleneck bei DMI 3.0 was man aber außerhalb von Benchmarks kaum merken dürfte.
 
Auch bei drei NVMe-PCIex4-SSD ergibt sich theoretisch nur dann ein Flaschenhals, wenn davon mindestens zwei SSD im RAID0 betrieben werden. Praktisch wird diese RAID-Betriebsart von LGA1151-Boards jedoch nicht unterstützt. Das worst case bei LGA1151 ist im Grunde der Transfer zwischen jeweils zwei NVMe-PCIex4-SSD mit maximaler sequenzieller Rate. Dafür reichen die vier PCie-3.0-Lanes des DMI3, welche simultan die volle Bandbreite in beide Richtungen bieten, aus.
 
Zuletzt bearbeitet:
Medi Terraner, bei SLI muss jede Karte im Verbund mit mindestens 8 PCIe Lanes angebunden sein, die Lanes des Chipsatzes können maximal zu x4 zusammengefasst werden (da der Uplink ja auch nicht breiter ist, würde alles andere ja auch keinen Sinn machen) und daher kann man bei S.1151(v2) und auch bei AM4 nur maximal zwei Grakas mit dann je 8 der 16 Lanes von der CPU im SLI Verbund laufen lassen und für den Rest ist dann da kein Unterschied gegenüber einer Graka mit allen 16 Lanes vorhanden.

wwwnutzer, eben in den Benchmarks merkt man es, vor allem wenn man sie im RAID 0 laufen lässt, aber da die meisten schon bei einer NVMe gegenüber einer SATA SSD kaum einen Unterschied im Alltag merken, werden die den Unterschied ob das RAID nur mit maximal 7GB/s oder nur mit 3,5GB/s lesen kann, auch kaum merken, zumal man dafür ja schon nicht mehr nur sehr lange lange, sondern schon viele parallele Zugriffe braucht. Bei einem seq. Zugriff alleine kommen die wenigsten NVMe SSDs an ihre Grenze, CrystalDiskMark brencht daher seit einigen Versionen ja auch sequentiell mit 32 parallelen 128k Zugriffen statt nur mit ich meine früher 512k oder waren es 2MB? Und bei einem RAID 0 braucht man noch mal längere bzw. mehr parallele Zugriffe ums erstmal über schneller als bei einer einzelnen SSD zu sein und dann erst recht ums an Limit zu kommen.

Aber wenn man die SSD einzeln betreibt, dann dürfte es im Alltag kaum mal vorkommen das DMI3 ein Flaschenhals ist, denn dann wird wohl kaum mal wirklich so viel von mehr als einer der SSDs gelesen, als dass die zusammen ans ihr Limit von DMI kommen und wenn eben von einer gelesen und auf die anderen geschrieben wird, dann ist DMI eben kein Limit, weil vollduplex.

MoBo 01/04, natürlich unterstützt Intel bei S.1151 RAID von NVMe SSDs am Chipsatz und zwar schon seit dem Z170.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh