ASRock-Rack X570D4U : meine - etwas spezielleren - Erfahrungen....

Hmm, du adaptierst also M2 auf U2, um letztendlich wieder M2 zu betreiben - mit vermutlich deutlich besserer Kühlbarkeit
Genau, direkt unter einer GPU wie meiner 3090 zum Beispiel kannst du keine schnelle SSD sinnvoll betreiben. Kühlung klappt auf die Art super.
Wenn ichs mir aussuchen könnte, wären mir U.2/SFF-8643 Anschlüsse am Board direkt viel lieber als diese blöden M.2 Slots. Naja.

Da wird ja mal gar nichts angegeben, welche Chipsätze etc. unterstützt werden....
Du meinst Controller der SSDs? Oder Chipsätze auf dem Mainboard? Auf X570 Mainboards wird die schon laufen. Sowas baut Gigabyte ja selbst auch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Noch ein weiterer Nachtrag:

Ich habe die Samsung NVME jetzt noch am "ASUS Hyper M.2 X16 GEN 4" angeschlossen. Im Non Raid UEFI Modus gibt es jetzt eine NVMe Configuration, da wird die Samsung angzeigt
image56.jpg
Im Raidmodus erkenn RaidXpert2 diese ebenfalls als Laufwerk

Ich habe mal kurz mit den "Redriver" Werten gespielt, das hat aber nichts eingebracht - wäre sowieso die Frage, ob die Werte für die M2 Ports relevant sind, oder ganz woanders wirken. (sind aber wieder auf den voreingestellten Werten.)
image57.jpg

Es ist für mich mittlerweile nahezu gesicherte Erkenntnis, daß die Adaption von U2 auf M2 nicht 100% kompatibel ist, obwohl die technischen Voraussetzungen dieses suggerieren.

Für mich stellt sich jetzt nur noch die Frage, welche SSDs ich für das Bootlaufwerk im Raid1 nehme.

zwar nur SATA aber relativ hohe IOPs und ein weiterer Vorteil wäre, daß ich mit den beiden On Board M2 Ports auskommen würde.
bzw. das neuere Modell:
oder

oder NVMe
via "ASUS Hyper M.2 X16 GEN 4", da das Mainboard nur eine SSDs der Bauform 22110 kann

in Baugröße 2280 gäbe es noch diese, hat aber die deutlich schlechtesten IOPs Werte

und zu guter Letzt könnte ich noch die Optane nehmen
Da wäre das Raid 1 aber von vornherein recht gut belegt (ca. 65 GB sind derzeit belegt mit Windows Server 2012R2) und wäre natürlich deutlich performanter als der Mirror der beiden Kingston U2-SSDs, auf dem die Datenbank und das DMS von Agenda zu liegen kommt.... - umgekehrt wäre es sinnvoller 8-)


Der derzeitige Server hat im übrigen 4x https://www.heise.de/preisvergleich...x-118gb-ssdpek1a118ga01-a2590458.html?hloc=de
als 2x Raid 1 (System und Daten)
 
Zuletzt bearbeitet:
Und Nu ist das Board gestorben!

Ich habe gestern das System heruntergefahren um die "asus hyper m.2 x16 card v2" gegen den "Highpoint RocketStore SSD7120" zu tauschen. (Ich muß ja so langsam einw Entscheidung treffen, wie ich die U2 SSDs anbinde.)

Nach Wiedereinschalten des Systems bootet dieses nicht mehr!

- kein "Power Good Signal" (Pieps vom Speaker)
- kein Signal via VGA
- Login via IPMI möglich, aber das Dashboard wird nicht vollständig geladen bzw. wird mit einem "Grauschleier" verdeckt auf dem die "Sanduhr" und "Processing" steht - nach ca. 2 Minuten kommt dann der Timeout: "Session expired"
- Dr Debug bleibt auf folgenden Codes stehen: AA, AB, AE, 9A und weitere

Was ich zwischenzeitlich gemacht habe:

- sämtliche Peripherie abgeklemmt / ausgebaut - es ist jetzt nur noch das "Sockelsystem" (Mainboard, CPU, RAM) aktiv.

- BIOS Reset (Batterie raus, Netzteil abgeschaltet, Kontaktflächen für BIOS Rest mit Schraubendreher kurzgeschlossen, Power Switch betätigt)

- kleinen Lüfter auf dem X570 Chipsatz Kühler angebracht, da das Gehäuse derzeit offen ist und somit kein geregelter Airflow besteht (gesmessene ca. 55° halte ich jetzt allerdings auch nicht für überkritisch.)


Für mich sieht es so aus, als wenn die Kommunikation zwischen dem AST2500 (BMC und VGA) und dem "Rest" des Mainboards (Chipsatz etc.) gestört / unterbrochen ist!

EDIT:
Ich habe jetzt mal eine Grafikkarte eingesetzt und bekomme jetzt wieder ein Bild und kann auch soweit erstmal booten

Allerdings war mir zwischenzeitlich aufgefallen. daß im IPMI-Dashboard ide BMC Firmwareversion mit 1.00.00 angezeigt wurde.
Dieses hat sich jetzt auch im BIOS soweit bestätigt.
Ich hatte die BMC-Firmware allerdings schon via IPMI auf die Version 1.20.00 upgedatet, das Update wurde jedenfalls als Erfolgreich gemeldet.
Der Versuch die Firmware nochmals unter DOS upzudaten scheitert jedoch, da kein DEVICE gefunden wird
(Socflash if=X570D4~1.ima option=r)

Ich fürchrte, daß ich hier nicht um eine RMA herumkomme - es sei denn da hat noch jemand den ultimativen Tipp, wie man den BMC (AST2500) wiederbeleben kann....
 
Zuletzt bearbeitet:
Dann bekommst du hoffentlich nicht meine zurückgeschickten :-)
Also ich habe den Adapter jetzt mal eingebaut und meine Corsair MP600 PRO daran angeschlossen. Der Adapter selbst sitzt an einem M.2-Slot der über den TRX40-Chipsatz angebunden ist (nicht direkt an der CPU) und die SSD selbst sitzt in so einem ICY BOX U.2-Gehäuse für PCIe 4.0. Hier gibt es absolut keine Probleme. Keine Fehler im Windows Ereignis-Log (auch keine WHEA ID #17) und die zu erwartende Performance:
Corsair MP600PRO 2TB_SFF8654-Adapter_Chipsatz.png

Das ist jetzt etwas langsamer, als direkt an der CPU angesclossen, aber noch im Rahmen.

Direkt an der CPU (mit dem Delock Adapter in exakt dem selben ICY BOX U.2 Gehäuse) sieht es so aus:
Corsair MP600PRO 2TB_Threadripper-3960X.png


Ich vermute allerdings, dass die ICY BOX Gehäuse irgendwelche Signal-Auffrischungen machen, so komplett passiv ist das Gehäuse wohl nicht.
Wenn du allerdings direkt U.2 SSDs verwendest sollte das ja keine Rolle spielen.
 
Dann waren meine wohl tatsächlich nicht in Ordnung, ich kam sequentiell auf 700 , also etwa 1/10el, wenn denn überhaupt eine SSDs erkannt wurde.
 
Ein letztes Update von Mir!

Das Mainboard ist jetzt eingeschickt, da auch die Techniker von ctt/sona da nicht weiterkamen.
Ersatzboard ist gekommen und läuft soweit!

Ich konnte noch ein wenig testen, bevor das Gerät jetzt in Betrieb gegangen ist. Diesmal habe ich das BIOS und die BMC Firmware nicht angefasst (BIOS 1.10 / BMC FW 1.00.00)

Die zwei U2 SSDs an den beiden On-Board M2 Ports adaptiert wurden im UEFI/Non Raid-Modus wie es sich gehört unter "Advanced/NVME Configruation" aufgelistet und nicht wie vorher unspezifisch unter Advanced.
Im NVME-Raid Modus standen die SSDs wie gehabt nicht für ein Raid zur Verfügung.

2 NVME / M2 SSDs konnten im RaidXpert2 zu einem Raid konfiguriert werden. Im gebootetem Windows wurden die beiden SSds allerdings wierum nur als Einzellaufwerke angezeigt, Die Installation der AMD RAiID-Treiber und Verwaltungstools wurde mit der Meldung abgebrochen, daß das System nicht im Raid Modus konfiguriert sei. Lustigerweise waren bereits 2 SATA SSDs als Raid1 für das Betriebssystem eingerichtet und funktionierte tadellos.

Im Prinzíp selbes Spiel am "ASUS HYPER M.2 X16 GEN 4" mit dem Unterschied, daß auch die M2 SSDs im RaidXpert2 nicht zur Verfügung standen (Obwohl in der Beschreibung zu RaidXpert2 steht, daß bis zu 6 NVME-SSDs unterstützt werden sollen.)

Am Treffendsten hat es wohl der Mitarbeiter von DeLock formuliert:
"Die RAID Systeme unterstützten noch vor kurzer Zeit ausschließlich SATA Festplatten oder SSDs.
Sodass die RAID Software durch Updates zwar angepasst wurden aber nicht vollständig kompatible sein muss."

Das physikalische "Verbindungs-/Steckergewusel" für PCIe (M2, U2, Occulink/SFF-8611/2, MiniSAS/U2/SFF-8643, U2 2,5"/SFF-8643, Slimline SAS/SFF-8654) nebst dem "klassischem" PCIe Slot dürfte hier einen großen Anteil haben: Leitungslängen, zusätzliche Übergangswiderstände durch mehrfache Steckverbindungen etc.
In der Theorie entspricht das alles elektrisch PCIe.
Ich denke im Nachhinein, daß hier die schöne Theorie auf die knallharte Praxis trifft.

Konfiguriert habe ich jetzt zwei "Micron 5300 Max 3TBW Mixed Use" SATA-SSDs als Raid 1 via RaidXpert2 als Boot-/ Systemlaufwerk und die beiden U2-SSDs als gespiegelte Laufwerke über die Datenträgerverwaltung von Windows für Agenda.

Wenn ich das System nochmal bauen müßte, würde ich als Laufwerk für Agenda 2 kleine "Intel Optane SSD P1600X 118GB" nehmen mit der Option auf 4 zu erhöhen . vermutlich aber trotzdem wieder mit der "ASUS HYPER M.2 X16 GEN 4"
Wobei auch das Raid 1 aus den beiden Microns nicht schlecht bei den IOPs aussieht und sequentiell sogar etwas mehr Bums zu haben scheinen ggü dem alten Raid 1 aus 2 Kingston SSDNow DC 400.

Kingston DC1500M Data Center Series Mixed-Use U2-SSD.png

Kingston DC1500M Data Center Series Mixed-Use U2-SSD


Micron 5300 Max 3TBW Mixed Use SATA.png

Micron 5300 Max 3TBW Mixed Use SATA


Kingston SSDNow DC 400.png

Kingston SSDNow DC 400
 
War es aber nicht so, dass Windows selbst ein RAID1 als Bootlaufwerk mit Bordmitteln unterstützt? Konnte man glaube ich nachträglich einrichten, im Gegensatz zu RAID0.
Ja, die Möglichkeit besteht - ABER: wenn das "erste" Laufwerk aus dem Verbund ausfällt, ist das 2. nicht automatisch Bootfähig, da muß man dann erstmal mit der Reparaturkonsole ran.
Damit wird das Wort "Hochverfügbarkeit" konterkariert!

(Ich hatte natürlich auch schon den Fall, daß ein Intel Chipsatzraid nicht gebootet hat, bis die defekte SSD ausgebaut war - das betreffende System hing im Bootprozess fest.)
Aber wie gesagt, die ganzen RAID Sachen schaden mehr als sie helfen, bis auf die paar Ausnahmen.

Deine Meinung, widerspricht aber belegbaren Tatsachen!
 
Hallo, was habt ihr denn bei eurem Server an IDLE Verbrauch?
Ich habe unter Proxmox mit einer NVME und 4 HDD (per Passthrough an Truenas VM / Fesplatten gehen nach 30 min komplett schlafen) mit einem Ryzen 5650GE und 2x32GB ECC RAM ca. 40 WATT verbrauch. Eigentlich dümpeln eine LXC und VM's vor sich hin.
 
Etwa 55W für das Setup (ich hab ja das -2L2T), das bei mir unter "Meine Systeme" steht. wenn die HDDs schlafen. Sprich bei mir kommt idle der SAS2008 (~8W) dazu, +1,5W pro PM9A3 sowie der I/O-Die des 5950X (also auch ~7-10W). Auch eine HDD braucht nicht 0 wenn sie idle schläft, d.h. die 6 HC530 ziehen da auch 1-2W pro Stück.
Etwa 85W wenn die HDDs idle drehen. Im Prinzip genauso viel wie mein vorheriger E3-1240v5 auf X11SSH-CTF, nur halt mit viel mehr CPU- und I/O-Power.
Die Kiste ist nur an, wenn sie gebraucht wird, nicht 24/7.

Du musst dran denken, was da alles am Board drauf ist und immer zieht: IPMI (~5-6W) , 2x10G (10-12W) beim -2L2T , der X570-Chipsatz (~7-10W). Ziehst Du das ab, ist das vergleichbar zu einem üblichen B550 mit APU drauf. Btw, der GE ist nicht sparsamer als der G-Prozessor im Idle; der riegelt nur eher nach oben ab (=quasi der G, als wenn man im Bios den Eco-Modus aktiviert).

-> Für das Gebotene ist das Board sogar recht sparsam, insbesondere die 10G-Variante mit ner X-CPU.

Zum Vergleich: Deskmeet X300 , 4750G, 32GB ECC-Ram 3200, 1x Sata ssd, 1x DP dran, 1x Keybord+Maus, 1*NH-L9a : 17W Idle mit Win10 und Original-Netzteil, 15W mit BQ 300W TFX Gold.
Deskmini X300, 4350G, 32GB Non-ECC, 1x Sata SSD, Keyboard, Maus und H-L9a: Idle 7W Win10. Mit Proxmox 11-12W Powertop-optimiert.

Leider haben die Deskmini/meets nur den "kostenoptimierten" 1G Realtek Lan-Chip. Der Deskmeet kann mit Bios 1.20 nun auch Bifurcation, so dass man dem etwas nachhelfen kann bzgl. Storage und NIC. Mit ner Intel NIC (i350+ X540 getestet) statt dem Onboard-Gemüse läuft er auch wunderbar mit ESXI 7.
 
Zuletzt bearbeitet:
Evtl. hat hier noch jemand ein paar Tipps was man im Bios aktivieren/deaktivieren muss, um noch etwas den Stromverbrauch zu senken.
Mein System:
- Unraid 6.10.3
- ASRockRack X570D4U-2L2T
- Ryzen 5800x
- 64 GB 3200 MHz RAM (2x 32GB)
- 6x HDDs (gehen nach 15 Min schlafen)
- 2x SSDs
- 2x NVMe
- aktuell sind keine PCIe-Karten verbaut

Es laufen ca. 15 Docker und 1 VM mit Home Assistant. Davon wird nichts auf den HDDs geschrieben sondern auf den SSDs oder NVMe.
Aktuell habe ich ca. 44 - 51 W, im Idle mit schlafenden Festplatten.
Kann man bei AMD/bei dem Board irgendwie höhere Idle-Stats erreichen als "C2"?
Auf dem Board ist das neueste BIOS/BMC installiert.
 
Nein, weiter runter gehts nicht mit der Leistungsaufnahme. Für die verwendeten Komponenten ist das eh schon sehr niedrig.
Da sind ja IPMI (~5-6W) , 2x10G (10-12W) beim -2L2T , der X570-Chipsatz (~7-10W), die immer ziehen, dazu auch noch der I/O-Die des 5800X der auch 7-10W nuckelt.

Das Delta zu meiner Konfig entsteht i.W. durch ESXI statt Unraid (ESXI braucht idle etwas mehr als Linux weil weniger Stromsparmechanismen) und dem 9211-8i. Auch brauchen meine beiden NVMe (Enterprise-Laufwerke) zusammen 3W Idle.

> Signifikant weiter runter ginge es nur mit einem B550-Board. Dann verlierst Du aber PCIe Gen4 zum Chipsatz, 2x10G und die BMC. Noch weiter runter ginge es mit ner APU (und damit ganz ohne PCIe 4) statt dem Vermeer.
Mein B550M Tuf Gaming Plus mit 5600X + 32GB ECC 3200er (gerade am rumtesten mit Proxmox) braucht ohne Graka Idle etwa 25W mit 3xNVMe (1x970Evo+, 2xSN850). Nimmt man da einen 5750G statt dem 5600X, kommst auf etwa 18-19W.
 
Zuletzt bearbeitet:
Gibt es bei AMD eigentlich keine höheren C-Stats oder liegt das am Board?
 
Grundsätzlich gibt es die, aber (bislang) scheint das in Linux noch etwas hakelig zu funktionieren. Bei meinem ASRock B550m Pro4 erreiche ich zb nur höhere c-states wenn ich den Realtek nic deaktiviere. Da funkt also vermutlich der Treiber dazwischen. Insgesamt muss man da (leider) viel rumprobieren. Dafür empfiehlt sich ein Ubuntu Stick und so wenig anschließen wie möglich. Dann Powertop --autotune und gucken was passiert. Dann das nächste device anschließen/im BIOS aktivieren und wieder von vorne.
Was bei dir vielleicht helfen könnte wäre auszuprobieren ob du durch aktivieren von EEE noch bessere c-states erreichen könntest.
Und was spuckt eigentlich lspci bzgl aspm aus ?(hab gerade den genauen Befehl nicht griffbereit)
 
Dafür empfiehlt sich ein Ubuntu Stick und so wenig anschließen wie möglich. Dann Powertop --autotune und gucken was passiert.
powertop --auto-tune wird bei mir beim Start schon ausgeführt.
Was ich aber meine ist, dass mir nicht mehr als C2 angezeigt wird:
1658668251246.png


Was bei dir vielleicht helfen könnte wäre auszuprobieren ob du durch aktivieren von EEE noch bessere c-states erreichen könntest.
Was ist mit "EEE" gemeint? Steh da gerade auf'm Schlauch :d

Und was spuckt eigentlich lspci bzgl aspm aus ?(hab gerade den genauen Befehl nicht griffbereit)
Ist das gemeint?

Code:
00:01.1 PCI bridge: Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:01.2 PCI bridge: Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 16GT/s, Width x8, ASPM L1, Exit Latency L1 <32us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:07.1 PCI bridge: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
00:08.1 PCI bridge: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
01:00.0 Non-Volatile memory controller: Micron/Crucial Technology Device 5412 (prog-if 02 [NVM Express])
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L1 <8us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
20:00.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse Switch Upstream (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 16GT/s, Width x8, ASPM L1, Exit Latency L1 <32us
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
21:01.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <32us
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
21:04.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #4, Speed 16GT/s, Width x1, ASPM L1, Exit Latency L1 <32us
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
21:05.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #5, Speed 16GT/s, Width x1, ASPM L1, Exit Latency L1 <32us
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
21:06.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #6, Speed 16GT/s, Width x1, ASPM L1, Exit Latency L1 <32us
                LnkCtl: ASPM Disabled; Disabled- CommClk+
21:08.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
21:09.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
21:0a.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; Disabled- CommClk+
23:00.0 Non-Volatile memory controller: Micron/Crucial Technology Device 5412 (prog-if 02 [NVM Express])
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L1 <8us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
26:00.0 Ethernet controller: Intel Corporation I210 Gigabit Network Connection (rev 03)
                LnkCap: Port #4, Speed 2.5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <16us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
27:00.0 Ethernet controller: Intel Corporation I210 Gigabit Network Connection (rev 03)
                LnkCap: Port #5, Speed 2.5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <16us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
28:00.0 PCI bridge: ASPEED Technology, Inc. AST1150 PCI-to-PCI Bridge (rev 04) (prog-if 00 [Normal decode])
                LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <2us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
2a:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
2a:00.1 USB controller: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller (prog-if 30 [XHCI])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
2a:00.3 USB controller: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller (prog-if 30 [XHCI])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
2b:00.0 SATA controller: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] (rev 51) (prog-if 01 [AHCI 1.0])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
2c:00.0 SATA controller: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] (rev 51) (prog-if 01 [AHCI 1.0])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
2d:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Function
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
2e:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
2e:00.1 Encryption controller: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Cryptographic Coprocessor PSPCPP
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
2e:00.3 USB controller: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller (prog-if 30 [XHCI])
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
2e:00.4 Audio device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse HD Audio Controller
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
 
Was ist mit "EEE" gemeint? Steh da gerade auf'm Schlauch :d
Energy Efficient Ethernet
Jap genau das war gemeint. Und auch hier sieht man (Treiber?)Probleme. Diverse Geräte unterstützen zwar aspm l1, aber es ist nicht aktiviert. Und das wiederum verhindert oder zumindest beeinträchtigt dann tiefere c-states.
Dass allerdings grundsätzlich nur bis c2 angezeigt wird, ist auch schon Mal kein gutes Zeichen. Eventuell Mal mit der 2.14er Version gegenprüfen. Findet man auch im UNRAID Forum
Falls die dann allerdings auch grundsätzlich nur bis c2 anzeigt, wäre das nochmal etwas was man mit ASRock aufnehmen sollte. Vielleicht muss da im BIOS dann doch noch irgendwas eingestellt werden
 
Btw, Asrock Rack hat das X570D4U (-2L2T) nun in einer Variante X570D4U-2L2T/BCM mit Broadcom-Lan (BCM57416) statt Intel X550.
Ebenso ein paar andere AMD-Boards.
Kann/will Intel da nicht mehr liefern ? Oder nur zu Preisen, die Asrock Rack da nicht mitgehen will? Hmm..


Den BCM57416 kann ich nicht einschätzen bzgl. Performance/Kompatibilität; keine Erfahrung damit.
 
Hab ich schon seit Monaten nicht mehr lieferbar gesehn und wenn dann nur zu Mondpreisen.
cu
 
Yo, das 2L2T mit den beiden X550 hätt ich gleich zwei nehmen sollen. Schnapper aus heutiger Sicht für 450,- (brutto) gewesen.

Vielleicht war es wg. der Netzwerkchips nicht mehr lieferbar und Asrock musste für die 10G-Variante auf den BCM-Chip umdesignen.
 
Frage:

Hat schon mal jemand von euch U2 SSDs auf M2 Adaptiert und sind diese dann auch in der „Storage Abteilung“ und/oder den Bootdevices im BIOS aufgeführt worden – zumindest bei On-Board M2-PCIe/NVME Steckplätzen?
(M2 kann ja leider auch nur SATA bzw. AHCI sein.)
Jup, ne PM9A3 auf einem Asus Strix Z690-A Gaming Wifi D4. Könnte auch davon booten. Kabel war nen M.2 auf U.2 (SFF irgendwas) von Supermicro.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh