PCI Express U.2 to M.2 adapter

krumBold

Neuling
Thread Starter
Mitglied seit
06.02.2024
Beiträge
16
Hallo liebe Leute,

ich spiele gerade in Gedanken damit, mir einen neuen All-In-Wonder-HomeLab-Server (Proxmox als Basis für Truenas-VM, etc.pp.) zusammenzustellen.

Background-Info:
Als Mainboard tendiere ich aktuell zum Supermicro X13SAE-F.
Das Mainboardboard bietet drei PCIe 4.0 2280 M.2 slots (einer direkt an die CPU, zwei über den Chipsatz angebunden), von denen ich denke - bitte korrigiert mich falls ich hier einem Denkfehler unterliege - gerne Gebrauch machen zu wollen.

Booten soll Proxmox von zwei einfachen SATA-SSDs (256GB) - angebunden via onboard-SATA.
Für die virtuelle Truenas Instanz soll ein exklusiv per IOMMU-passthrough an die Truenas-VM durchgereichter HBA (it-mode) zum Einsatz kommen an dem 4 SATA-HDDs (ZFS) hängen. Soweit so gut.
Als Storage für die VMs möchte ich zwei gespiegelte Datacenter SSDs verwenden. Ich hätte gerne die Samsung PM9A3 1,92 TB, die als NVMe allerdings 110mm lang sind und damit nicht in die m.2 2280 Slots passen.

Kern der Frage:
Da die NVMe-Variante der PM9A3 bauartbedingt nicht passt, es die PM9A3 jedoch auch als 2.5"-Variante (allerdings mit U.2 Schnittstelle!) gibt, suche ich eine Möglichkeit diese U.2-SSDs derart in Betrieb zu nehmen, dass ich möglichst weder Performace, noch einen PCIe-Slot verliere/verschwende. Deshalb würde ich gerne, anstelle eines PCIe-Adapters der 22110-NMVes aufnehmen kann, lieber die vorhandenen und ansonsten brach liegenden PCIe 4.0 4x 2280 M.2-Slots nutzbar machen, und zwar mithilfe von M.2 auf U.2 Adaptern (z.B. https://www.delock.com/produkt/63145/merkmale.html, gibt's auch von startech.com). Ist das machbar und vor allem vernünftig? Was spricht dagegen?

Edit machte mich gerade auf dieses Kabel (https://www.amazon.de/dp/B07KQNP47Z) aufmerksam. Wäre das gemäß Produktangaben ok für PCIe 4.0 4x? Wofür wird der am U.2-Kabelende ausgeleitete Power-Stecker benötigt?

Vielen Dank für Eure Unterstützung!

Beste Grüße
krumBold
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da die NVMe-Variante der PM9A3
Du meinst die M.2 Varianten, denn alle Varianten von denen sind NVMe SSDs, auch die U.2 Variante! NVMe ist der Name des Protokolls welches diese SSDs nutzen, nicht der für den Formfaktor!
Ist das machbar und vor allem vernünftig? Was spricht dagegen?
Prinzipiell schon, praktisch kann es Probleme mit der Signalqualität geben, wegen der vielen Übergänge und dann senkt PCIe die Geschwindigkeit der Lanes oder funktioniert schlimmstenfalls gar nicht. Achte also auf kurze Kabellängen.
dass zur Verbindung zwischen Adapter und PM9A3 (U.2) benötigte Kabel (https://www.delock.com/produkt/84821/merkmale.html) unterstütze laut Datenblatt max. PCIe 3.0. Kann das sein?
Ja, dies ist wieder eine Sache der Signalqualität und ggf. von Redrivern, die braucht man bei PCIe 4.0 in kürzeren Abständen als bei PCIe 3.0.
Wofür wird der am U.2-Kabelende ausgeleitete Power-Stecker benötigt?
Für die Stromversorgung der SSD, die erfolgt ja auch über Pins die an dem SFF-8639 Stecker (dem am Laufwerk) sind, aber SFF-8643 liefert nur Datensignale, also muss man die Spannungsversorgung über diese Stecker von einem SATA Stromstecker des Netzteils realisieren. U.2 ist ja eigentlich für Backplanes gedacht, da hat man dann die Spannungsversorgung über Leiterbahnen auf der Platine.
 
Du meinst die M.2 Varianten, denn alle Varianten von denen sind NVMe SSDs, auch die U.2 Variante! NVMe ist der Name des Protokolls welches diese SSDs nutzen, nicht der für den Formfaktor!
Da haste natürlich recht - danke!
Prinzipiell schon, praktisch kann es Probleme mit der Signalqualität geben, wegen der vielen Übergänge und dann senkt PCIe die Geschwindigkeit der Lanes oder funktioniert schlimmstenfalls gar nicht. Achte also auf kurze Kabellängen.
Das habe ich befürchtet, also: Versuch macht kluch; no risk ... hmmm. Frage: Woran lässt sich denn ein (zu) langsame Verbindung in Betrieb erkennen - nur via Benchmark oder meldet das das Bios z.B. während des POSTs?

Für die Stromversorgung der SSD, die erfolgt ja auch über Pins die an dem SFF-8639 Stecker (dem am Laufwerk) sind, aber SFF-8643 liefert nur Datensignale, also muss man die Spannungsversorgung über diese Stecker von einem SATA Stromstecker des Netzteils realisieren. U.2 ist ja eigentlich für Backplanes gedacht, da hat man dann die Spannungsversorgung über Leiterbahnen auf der Platine.
Oh, da muss ich mal sehen wo ich den Strom herbekomme. Das angedachte Netzteil (be quiet! Pure Power 11 400W) hat nur fünf SATA. Für die angedachten 2xConsumer-SSD (boot), 2xHDD (NAS) und 2xDatacenter-SSDs (VMs) muss ich mir wohl was [anderes] einfallen lassen. ;-)
 
Woran lässt sich denn ein (zu) langsame Verbindung in Betrieb erkennen - nur via Benchmark oder meldet das das Bios z.B. während des POSTs?
Das das BIOS dies anzeigt, glaube ich eher nicht. Benchmarks wäre eine Idee, unter Windows kann man es auch z.B. bei CrystalDiskInfo sehen, da steht bei Übertragungsmodus vorne die tatsächliche Anbindung und hinter dem | die maximal von der SSD unterstützte Anbindung.
 
Das das BIOS dies anzeigt, glaube ich eher nicht. Benchmarks wäre eine Idee, unter Windows kann man es auch z.B. bei CrystalDiskInfo sehen, da steht bei Übertragungsmodus vorne die tatsächliche Anbindung und hinter dem | die maximal von der SSD unterstützte Anbindung.
Nur deswegen Windows zu installieren hatte ich eigentlich nicht vor - wenn's aber sein muss, dann soll's so sein. Zuvor versuch ich mich aber noch schlau zu machen, ob Linux das evtl. nicht auch mit Boardmitteln kann, z.B. beim Booten (Initialisiern der Disks) meldet - hoffentlich.

Wenn ich den Versuch bezüglich des Adapters tatsächlich starten sollte (könnte ein teurer Fehlversuch werden), dann bestell' ich mir sicherheitshalber erstmal nur einen Satz (also einen Adapter + Kabel + SSD) und checke die Ports. Was ist'n [theoretisch] vorteilhafter: für den Mirror die beiden an der PCH angebundene m.2 Slots verwenden oder einen m.2 von der CPU und einen von der PCH? Ich vermute ersteres, wegen DMI-Link-Belastung, bin mir aber nicht sicher.
 
Nur deswegen Windows zu installieren hatte ich eigentlich nicht vor
Welches Tool sowas unter anderen Betriebssystemen auslesen kann, weiß ich leider nicht. Dann bleibt wohl nur einen Benchmark zu machen, dafür reicht im einfachsten Fall ja auch dd aus. Wenn man deutlich über so 3,5GB/s kommt, dürfte es eine PCIe 4.0 x4 Verbindung sein.
Was ist'n [theoretisch] vorteilhafter: für den Mirror die beiden an der PCH angebundene m.2 Slots verwenden oder einen m.2 von der CPU und einen von der PCH?
Das dürfte egal sein. Wobei man aber nicht weiß, ob nicht bei dem einen oder anderen M.2 Slot dann die Signalqualität schon am Slot ein klein wenig besser ist und genau dies dann den Unterschied macht, wenn man eben mit solchen Adaptern arbeitet.
Ich vermute ersteres, wegen DMI-Link-Belastung, bin mir aber nicht sicher.
Wieso`? Der W680 hat eine DMI x8 Anbindung, also PCIe 4.0 x8 und damit genug Bandbreite selbst wenn zwei PCIE 4.0 x4 im RAID 0 betrieben werden. DMI wird hier also sicher kein Flaschenhals.

W680_Blockdiagram.jpg
 
Wieso`? Der W680 hat eine DMI x8 Anbindung, also PCIe 4.0 x8 und damit genug Bandbreite selbst wenn zwei PCIE 4.0 x4 im RAID 0 betrieben werden. DMI wird hier also sicher kein Flaschenhals.

Anhang anzeigen 968161
Ich dachte weniger an die DMI-Bandbreite, als vielmehr an den längeren Weg. Über den DMI-Link ist's quasi nen Hop mehr.
Das Blockdiagramm kenn' ich. Leider ist das vom Supermicro X13SAE[-f] (s. Mainboard-Manual Seite 19, downloadbar unter Resources auf https://www.supermicro.com/en/products/motherboard/x13sae) etwas ungenau. Der Link zwischen m.2 und PCH ist einfach eingezeichnet und mit "PCH PE4 *4 /*4" beschriftet - werden vermutlich schon seperat sein, hätte mir aber der Deutlichkeit halber zwei eingezeichnete Links gewünscht - auch deshalb zögere ich etwas hinsichtlich der Testerei.
 
als vielmehr an den längeren Weg. Über den DMI-Link ist's quasi nen Hop mehr.
Nein, denn über DMI wird der PCIe Host Controller mit dem Chipsatz verbunden und der ist praktisch ein PCIe Lake Switch (aka PLX Chip) und fungiert damit als PCIe Host Controller für alle Geräte die an seinen Lanes hängen. Die Signale müssen die extra Hop nehmen, die Latenz ist daher ein klein wenig schlechter, aber die Länge der Wege für die elektrischen Signale beginnt dann bei dem Chipsatz.
Der Link zwischen m.2 und PCH ist einfach eingezeichnet und mit "PCH PE4 *4 /*4" beschriftet - werden vermutlich schon seperat sein, hätte mir aber der Deutlichkeit halber zwei eingezeichnete Links gewünscht
Ja die haben die beiden Slots da zusammen eingezeichnet, die Anagbe "PCH PE4 *4 /*4" bedeutet halt, dass es Lanes vom Chipsatz sind, die man ja auch im Diagramm sieht und das es PCIe 4.0 Lanes sind und eben jeweils 4 davon für jeden M.2 Slot.
 
Vielen Dank für Deinen Blick ins Manual und die ausführliche Erklärung - sehr freudlich und nützlich!

BTW: Hatte kurzzeitig gedacht das Adapterproblem mit dieser m.2 riser card (https://www.delock.de/produkt/64136/merkmale.html) lösen, bzw. zumindest signifikant abmildern zu können. Aber leider nimmt diese riser card nur m.2 bis 2280 auf :-( Mal sehen vielleicht finde ich irgendwo anders noch ne gescheite Alternative. Wer etwas in die Richtung (mit PCIe 4.0 support!) kennt, bitte melden. Danke!

Edit hat soeben diese riser card gefunden: http://www.adt.link/product/R44V4.html (keine Ahnung wo's die in D zu ordern gibt). Davon abgesehen, macht mich der verständliche und sicherlich ehrliche Hinweis auf die hohen Anforderungen hinsichtlich der Kabellänge und notwendigen Signalqualität für PCIe 4.0 trotzdem skeptisch. Und selbst wenn ich wüsste, wie ich die bekommen könnte, bereitet mir die Befestigung der Dinger im Gehäuse jetzt schon Kopfschmerzen - insbesondere hinsichtlich Kühlung.
 
Zuletzt bearbeitet:
Frage: Woran lässt sich denn ein (zu) langsame Verbindung in Betrieb erkennen - nur via Benchmark oder meldet das das Bios z.B. während des POSTs?
Lässt sich mit lspci -vv anzeigen, Zauberworte sind: "LnkCap" und "LnkSta"

Bash:
root@pve01:~# lspci -vv
01:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd NVMe SSD Controller PM9A1/PM9A3/980PRO (prog-if 02 [NVM Express])
        Subsystem: Samsung Electronics Co Ltd General DC NVMe PM9A3
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 16
        IOMMU group: 13
        Region 0: Memory at 81510000 (64-bit, non-prefetchable) [size=16K]
        Expansion ROM at 81500000 [disabled] [size=64K]
        Capabilities: [40] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [50] MSI: Enable- Count=1/32 Maskable- 64bit+
                Address: 0000000000000000  Data: 0000
        Capabilities: [70] Express (v2) Endpoint, MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s unlimited, L1 unlimited
                        ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 25W
                DevCtl: CorrErr- NonFatalErr- FatalErr- UnsupReq-
                        RlxdOrd+ ExtTag+ PhantFunc- AuxPwr- NoSnoop+ FLReset-
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr+ NonFatalErr- FatalErr- UnsupReq+ AuxPwr- TransPend-
                LnkCap: Port #0, Speed 16GT/s, Width x4, ASPM not supported
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 16GT/s, Width x4
                        TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Range ABCD, TimeoutDis+ NROPrPrP- LTR+
                         10BitTagComp+ 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- TPHComp- ExtTPHComp-
                         AtomicOpsCap: 32bit- 64bit- 128bitCAS-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR+ 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: ReqEn-
                LnkCap2: Supported Link Speeds: 2.5-16GT/s, Crosslink- Retimer+ 2Retimers+ DRS-
                LnkCtl2: Target Link Speed: 16GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+ EqualizationPhase1+
                         EqualizationPhase2+ EqualizationPhase3+ LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: Upstream Port
        Capabilities: [b0] MSI-X: Enable+ Count=130 Masked-
                Vector table: BAR=0 offset=00003000
                PBA: BAR=0 offset=00002000
        Capabilities: [100 v2] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 00, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap+ MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Capabilities: [168 v1] Alternative Routing-ID Interpretation (ARI)
                ARICap: MFVC- ACS-, Next Function: 0
                ARICtl: MFVC- ACS-, Function Group: 0
        Capabilities: [178 v1] Secondary PCI Express
                LnkCtl3: LnkEquIntrruptEn- PerformEqu-
                LaneErrStat: 0
        Capabilities: [198 v1] Physical Layer 16.0 GT/s <?>
        Capabilities: [1bc v1] Lane Margining at the Receiver <?>
        Capabilities: [3a0 v1] Data Link Feature <?>
        Kernel driver in use: nvme
        Kernel modules: nvme

03:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd NVMe SSD Controller PM9A1/PM9A3/980PRO (prog-if 02 [NVM Express])
        Subsystem: Samsung Electronics Co Ltd General DC NVMe PM9A3
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 16
        IOMMU group: 14
        Region 0: Memory at 81410000 (64-bit, non-prefetchable) [size=16K]
        Expansion ROM at 81400000 [disabled] [size=64K]
        Capabilities: [40] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [50] MSI: Enable- Count=1/32 Maskable- 64bit+
                Address: 0000000000000000  Data: 0000
        Capabilities: [70] Express (v2) Endpoint, MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s unlimited, L1 unlimited
                        ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 25W
                DevCtl: CorrErr- NonFatalErr- FatalErr+ UnsupReq-
                        RlxdOrd+ ExtTag+ PhantFunc- AuxPwr- NoSnoop+ FLReset-
                        MaxPayload 256 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr+ NonFatalErr- FatalErr- UnsupReq+ AuxPwr- TransPend-
                LnkCap: Port #0, Speed 16GT/s, Width x4, ASPM not supported
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 16GT/s, Width x4
                        TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Range ABCD, TimeoutDis+ NROPrPrP- LTR+
                         10BitTagComp+ 10BitTagReq- OBFF Not Supported, ExtFmt- EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- TPHComp- ExtTPHComp-
                         AtomicOpsCap: 32bit- 64bit- 128bitCAS-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR+ 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: ReqEn-
                LnkCap2: Supported Link Speeds: 2.5-16GT/s, Crosslink- Retimer+ 2Retimers+ DRS-
                LnkCtl2: Target Link Speed: 16GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+ EqualizationPhase1+
                         EqualizationPhase2+ EqualizationPhase3+ LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: Upstream Port
        Capabilities: [b0] MSI-X: Enable+ Count=130 Masked-
                Vector table: BAR=0 offset=00003000
                PBA: BAR=0 offset=00002000
        Capabilities: [100 v2] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
                AERCap: First Error Pointer: 00, ECRCGenCap+ ECRCGenEn- ECRCChkCap+ ECRCChkEn-
                        MultHdrRecCap+ MultHdrRecEn- TLPPfxPres- HdrLogCap-
                HeaderLog: 00000000 00000000 00000000 00000000
        Capabilities: [168 v1] Alternative Routing-ID Interpretation (ARI)
                ARICap: MFVC- ACS-, Next Function: 0
                ARICtl: MFVC- ACS-, Function Group: 0
        Capabilities: [178 v1] Secondary PCI Express
                LnkCtl3: LnkEquIntrruptEn- PerformEqu-
                LaneErrStat: 0
        Capabilities: [198 v1] Physical Layer 16.0 GT/s <?>
        Capabilities: [1bc v1] Lane Margining at the Receiver <?>
        Capabilities: [3a0 v1] Data Link Feature <?>
        Kernel driver in use: nvme
        Kernel modules: nvme
 
Kann das Board Bifurcation? Ich habe mir die Frage mal schnell selbst beantwortet:
🤦‍♂️ 🤦‍♂️ Sorry, aber für das Geld.. Anderes Board suchen und dann sowas verwenden:
Dann sieht das auch sauber aus und obendrein fliegt nichts lose rum.
Es gibt auch von Supermicro solche Adapter, wenn du denen mehr vertraust.
Auch für U.2 gibt es Adapter mittels Occulink, aber nochmal mindestens 50€ on Top für eine SSD drauflegen sehe ich nicht ein, wenn es auch andere Lösungen gibt.

Vollständigkeitshalber :d
 
Welches Kabel/Adapter ist das denn jetzt?
Adapter
Kabel (wichtig sind die 16G, gibt' nämlich auch als 12G)

Läuft das mit PCIe 4.0 oder 3.0?
Wenn ich die Ausgabe von lspci -vv (s. oben) richtig interpretiert habe läuft's mit PCIe 4.0 wegen "16 GT/s":

Code:
LnkCap: Port #0, Speed 16GT/s, Width x4, ASPM not supported
LnkSta: Speed 16GT/s, Width x4

Nur diese Zeile, genauer gesagt das "<?>" am Ende, wundert[e] mich:
Code:
Capabilities: [198 v1] Physical Layer 16.0 GT/s <?>

Deshalb habe ich den Speed der M.2-Slots im Bios von "Auto" auf "Gen4" festgenagelt - funktioniert immer noch, daher gehe ich davon aus, dass es PCIe 4.0 ist. Benchmarks habe ich keine gemacht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh