Gigabyte MJ11-EC1 NAS Server

wer schaut sich denn 45 seiten durch ...
Also ich habe dies gemacht und lese mir nun im Anschluss auch den im englischen Forum forums.servethehome.com durch. Das ist überaus interessant und nützlich denn beim Stöbern bin ich z.b. auf diese Kompatibilitätsliste gestoßen (siehe angehängte Datei), welche bestimmt gerade beim vollen Bestücken der 4 RAM Slots helfen kann, die richtigen Module herauszufinden.

Hier:
steht auch was zur Möglichkeit bifurcation zu nutzen und mit welchen Adaptern das möglich ist und welche nicht geeignet sind.
Beitrag automatisch zusammengeführt:

Slim-SAS auf PCI-E x16 Adapter:
Diesen Adapter hat oben genannter Blog als Kompatibel angegeben - aber ist denn Platz genug um den SFF einzustecken? Der SATA Stromanschluss ist übelst nah. Das Kabel (falls es keine gewinkelte Ausführung ist) muss doch ziemlich schwierig einzustecken zu sein. Hat jemand am Adapter mal so eine 90° Platine probiert? https://www.amazon.de/dp/B09H7CDVL1...d=39W3SJAZHVVFA&psc=1&ref_=list_c_wl_ys_dp_it

Ich habe nun auch zugeschlagen und die Bestellung beim RAM König ist erfolgt. Board ist auch schon unterwegs.Hoffe es sind nicht nur noch die kaputten Rückläufer welche da angeboten werden.

Beim RAM hoffe ich, dass diese laufen (2x 32GB habe ich bestellt, hatte die Module aber leider bestellt bevor ich die Kompatibilitätsliste gefunden habe, sonst wären es andere geworden...)

Das wird mein Setup für 8 SATA HDDs+SSDs und vier NVMe's ich werde unRAID mal ausprobieren).

-64 GB ECC (2x32GB) Kingston KTL-TS424/32G 32GB 2Rx4 PC4-2400T-RA1 Server https://www.ebay.de/itm/205151047078
-Fractal Design R5 Case
-Chieftec CMR-625 6x 2,5" HOT Swap Bay
-Silverstone 300W SFX PSU
-20TB Toshibas (und alle SATA SSDs + Platten die ich so noch im Haushalt finde).
-vier NVMe's 2TBs Samsung 980 Pro und 990 Pro
-SFF-8654 Kabel https://www.ebay.de/itm/134724326136
-SFF-8654 8i an PCIe Adapter https://www.ebay.de/itm/395317827513
-4x NVMe über die Karte vom AliExpress https://de.aliexpress.com/item/1005...st_main.5.21ef5c5fFOPPd2&gatewayAdapt=glo2deu
-4 Fach SATA Kabel https://www.amazon.de/gp/aw/d/B010PAP3O2?ref=ppx_pt2_mob_b_prod_image
-SATA SFF-8654 4i Breakout Kabel https://www.amazon.de/dp/B0C712HXCJ/ref=pe_27091401_487024491_TE_item
-VGA an HDMI Adapter https://www.amazon.de/dp/B07K14NR8P/ref=pe_27091401_487024491_TE_item

Falls ich die 4 mal NVMe im 8i Port zum Laufen bekomme rüste ich 10G im M.2 Slot nach.
Wenn nicht muss der M.2 geopfert und zu PCIe x4 adaptiert werden.
 

Anhänge

  • server_mb_qvl_MJ11-ECx_v1.0.pdf.pdf
    667,2 KB · Aufrufe: 34
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich habe beides ... sowohl den von dir genannten adapter + den anderen auf der website genannten adapter und bifurcation funktioniert nicht.


oGmlsHE.png
 
ich habe beides ... sowohl den von dir genannten adapter + den anderen auf der website genannten adapter und bifurcation funktioniert nicht.


oGmlsHE.png
Okay das stimmt so auch. Er schreibt ja:
However, I can demonstrate that bifurcation does work on the MJ11-EC1, and in fact it is possible to access all PCIe x16 lanes if you add the unpopulated U2_1 SFF-8654 connector. All the passive components for the SFF-8654 connector are already present on the motherboard, so only the physical connector needs to be added to unlock an additional 8 lanes of PCIe.

Also muss man wohl oder übel den zweiten Anschluss bestücken 😜😄

Das BIOS setting ist bei dir eingestellt?

Meine verlinkte Karte hat einen x4 Anschluss, deine im Bild schaut länger aus...
 
Zuletzt bearbeitet:
However, I can demonstrate that bifurcation does work on the MJ11-EC1, and in fact it is possible to access all PCIe x16 lanes if you add the unpopulated U2_1 SFF-8654 connector. All the passive components for the SFF-8654 connector are already present on the motherboard, so only the physical connector needs to be added to unlock an additional 8 lanes of PCIe.
Das Board ist schon absurd. Das bedeutet, dass die Bifurkation nur ordnungsgemäß funktioniert, wenn die ersten acht Lanes benutzt werden, sonst sind die anderen acht Lanes immer acht Lanes. Da das wohl kaum einer jemals getestet hat, ob das wohl eine übliche Funktionsweise ist, wenn man das an anderen Boards nutzt?

Aber zum Glück gibt es ja mittlerweile auch relativ günstige Karten mit pcie Switch. Ist zwar dann nicht exakt das Gleiche in Grün, aber immerhin etwas.
 
Ja, ich denke auch man kann bifurcation eher abschreiben. Klingt schon sehr schwierig und übelst aufwendig.
 
Hallo zusammen. Bin gerade drüber das Board in einen Microserver Gen8 zu pflanzen. Hab jetzt eine M2 NVME verbaut und an den 4i SlimSAS mit einem Adapter den SFF8087 vom Microserver angeschlossen und es funktioniert wunderbar.

PXL_20250208_083635451.MP.jpg

Ich plane aber auch den 8i Anschluss zu aktivieren mit einer Tesla P4, Weiter vorne habe ich gelesen, dass man das Bios vom EC0 hernehmen soll. Hat da soweit jemand schon "langzeit" erfahrungen. Also auch, ob das ohne Probleme funktioniert?
 
Hast du 4x 4x 4x 4x auch schon probiert? Wenn du den x8 für 2 NVMe aufteilen willst wäre das ja eher die richtige Einstellung oder?

ja habe auch noch 2 andere adapter hier gehabt und getestet , es läuft generell nicht mit bifurcation
kann aber nun auch nicht mehr weiter testen , hab das ding schon zerlegt

sowas hab ich aber nicht getestet :

iv7IwAV.png






ich hab mir jetzt das hier gekauft - das ist glaube der bessere allrounder

gKLi4xi.jpeg


am5
3x m2 (onboard)
4x sata (mit wifi to sata 6x)
ddr5 (bis 128gb)
ecc
bifurcation
2.5gbit
und thunderbolt
 
Zuletzt bearbeitet:


ich hab mir jetzt das hier gekauft - das ist glaube der bessere allrounder
gKLi4xi.jpeg


am5
3x m2 (onboard)
4x sata (mit wifi to sata 6x)
ddr5 (bis 128gb)
ecc
bifurcation
2.5gbit
und thunderbolt
Okay bissel mehr als 69,99 +RAM + die Adapter 😜
 
Wenn du wenig idle Verbauch möchtest, ist aber am5 leider echt die falsche Wahl.
 
Habe auch im Unraid Forum gelesen dass die meisten SATA Adapter (wie hier) tiefere C Staates verhindern
 
Okay bissel mehr als 69,99 +RAM + die Adapter 😜

naja geht eigentlich ...

ASRock B650M PG Lightning :

100euro board
200euro cpu (8 kerne 16 threads)
100euro ram


= ~400euro (komplette neuware) > aktuelle hardware

Gigabyte MJ11-EC1 :

70euro board/cpu (4 kerne 8 threads)
100euro ram
30 euro i8 kabel
30 euro i8 zu pcie adapter
20euro i4 zu sata adapter
10euro 3d druck


= ~260euro (komplette gebrauchtware bis auf ram) > veraltete hardware
 
Zuletzt bearbeitet:
"Veraltete Hardware" ist - gerade im Server Bereich - halt auch mal wieder so ein Feigenblaat-Argument. Du hast mehr Geld ausgegeben um... ein besseres Gefühl zu haben? Oooookay.
 
Tipp: Bei Kleinanzeigen gibt's momentan von Caseking einen Kingston Server Premier 32GB DDR5 4800 ECC UDIMM Riegel als B-Ware für 94€ + Versandkosten
 
"Veraltete Hardware" ist - gerade im Server Bereich - halt auch mal wieder so ein Feigenblaat-Argument. Du hast mehr Geld ausgegeben um... ein besseres Gefühl zu haben? Oooookay.

ich hab mehr geld ausgegeben für mehr leistung , zukunftssicherheit , und mehr möglichkeiten (man hat mehr anschlüsse) ... und ist es soviel mehr geld ? find ich jetzt nicht ...

ich bin jetzt aber auch nicht anti MJ11 , das MJ11-EC1 hat auch seine daseinsberechtigung.


Tipp: Bei Kleinanzeigen gibt's momentan von Caseking einen Kingston Server Premier 32GB DDR5 4800 ECC UDIMM Riegel als B-Ware für 94€ + Versandkosten

danke




mein hauptproblem am MJ11-EC1 ist quasi der pfusch ... man brauch 1337 verschiedene adapter (allein die kabel und adapter kosten mehr als cpu und board) ... die passen oft auch nicht einfach so ins case ... und dann hat man auch noch das problem das man nur einen pwm anschluss hat der bedienbar ist (auch da muss man erst handanlegen bevor alle anderen funktionieren) ... nutzt man eine neue bios/bmc version kommt man auch da nicht mehr einfach so ran (ipmi ssh) , ganz zu schweigen von den 1gbit netzwerk anschlüssen die fehler werfen ...

auserdem stört mich das man nur 1x m² ssd on board hat > raid1 also da nicht möglich ...

es ist also nicht nur das bessere gefühl ...

brauch man nur 4x sata , 1x m2 ... ist das MJ11-EC1 eine 10/10 (wenn man über die netzwerkprobleme hinweg sieht)
 
Zuletzt bearbeitet:
Hallo,
Ich bin neu hier und Deutsch ist nicht meine Sprache, deshalb verwende ich einen Übersetzer ... Ich besitze seit einiger Zeit einige MJ11-EC1-Motherboards und habe vor ein paar Tagen eines meiner Boards mit 4x16 GB RAM SK Hynix HMA82GR7AFR8N-VK gestartet, das BMC SSH-Board auf EC0 geändert, um die SYS FAN-Steuerung zu aktivieren und nicht funktionierende Sensoren zu entfernen, das neueste BMC geflasht, das BMC auf einen dedizierten Port eingestellt (Standard ist Failover), das F02-BIOS geflasht (modifizierte Version 2 aus diesem Forum) und TrueNAS Scale darauf installiert.
Der Stromverbrauch im Leerlauf beträgt 32–33 W, der maximale Spitzenwert lag bei 63 W:
MJ11-Motherboard (Original-CPU-Lüfter läuft mit 1500 U/min)
4 x 16 GB RAM SK Hynix HMA82GR7AFR8N-VK
1 x Toshiba XG5 256 GB NVMe
2 x BeQuiet Silent Wings 4 120 mm PWM High-Speed (läuft mit 600 U/min)
Altes LC Power LC6550 v2.2 Netzteil
BMC und 1 x LAN angeschlossen

Dann ersetze ich den CPU-Lüfter durch BeQuiet Silent Wings 4 120 mm PWM High-Speed und füge 1 x 3 TB Seagate IronWolf HDD hinzu, wodurch der Stromverbrauch auf 40 W steigt. Wenn die HDD in den Energiesparmodus wechselt (kein Spindown), beträgt der Stromverbrauch 38 W. Mit Spindown beträgt der Stromverbrauch 35 W.

Läuft derzeit 17 Stunden ohne Probleme. Etwa 15 Stunden führe ich einen iperf3-Test durch …

Welche Netzwerkprobleme haben Benutzer mit integrierten Netzwerkkarten? Ich frage das, weil ich in anderen Foren noch nie gesehen habe, dass es Probleme mit Netzwerkkarten gibt … Ich habe nicht vor, eine zusätzliche Netzwerkkarte zu verwenden, da dies den Stromverbrauch erhöhen würde und ich diese Bandbreite außerdem nicht benötige … Ein echtes NAS wird zum Filesharing und zum Teilen von Filmen/Serien mit Kodi (über WLAN) verwendet und das funktioniert derzeit problemlos über ein 1-GBit-Netzwerk …
 
hallo, schau mal in deine logs/console es sollte fehler die so aussehen auftreten :

Code:
AER: Multiple Corrected error received: 0000:00:1c.4
AER: PCIe Bus Error: severity=Corrected, type=Physical Layer, (Receiver ID)
....

midclt call system.advanced.update '{ "kernel_extra_options": "pci=noaer" }'

es gibt auserdem noch andere fehlermeldungen (die aber bei mir bisher nur bei proxmox aufgetreten sind und mit dem netzwerk zusammenhängen)

schau dir auserdem mal diesen link an : https://stoeckle.li/de/budget-heimserver--nas-auf-basis-einesgigabyte-mj11-ec1-boards-44.html
 
Die Verwendung von "pci=noaer“ ist keine option, da alle anderen fehler ausgeblendet werden ... Ich verwende nur die kerneloption "pcie_aspm=off“ ...
Ich sehe keine Fehler in "/var/log/messages“:
1739099155576.png


Kann der produktname in den BIOS-Informationen vielleicht von "G431-MM0-OT“ in "MJ11-EC0-00“ geändert werden?
 
Die Verwendung von "pci=noaer“ ist keine option, da alle anderen fehler ausgeblendet werden ... Ich verwende nur die kerneloption "pcie_aspm=off“ ...
Ich sehe keine Fehler in "/var/log/messages“:
Ganz genau! "pci=noaer“ deaktiviert nur das AER error reporting system, die Fehler bestehen aber weiterhin. Zum Beheben der Fehler hilft "pcie_aspm=off“.
 
beides fixt aber nicht alle probleme
pci=nommconf ahci.mobile_lpm_policy=0 pcie_port_pm=off pcie_aspm.policy=performance irqpoll

soll dann helfen:

 
Zuletzt bearbeitet:

"pcie_port_pm=off" scheint die tatsächliche Lösung zu sein. Dieser scheint den Energiesparmodus der PCI Brücken zu deaktivieren. Die tatsächlichen PCIe AER Fehler scheinen nämlich von den Brücken zu entstehen und nicht direkt von den NICs. Er hat also nur Energiesparen für die Brücken deaktiviert und hat für den Rest ASPM aktiviert. Ich kann es leider nicht mehr bestätigen, da ich nun zu FreeBSD gewechselt bin. Nun habe ich aber dort das selbe Problem... hier habe ich mein Problem geschildert:

 
Zuletzt bearbeitet:
Interessant wäre ja noch ob sich dadurch merklich was am Stromverbrauch ändert. Ich bezweifle es ja irgendwie..
 
Ich hatte es damals verglichen, und es hat keinen Unterschied gemacht.

Glaube aber auch nicht, dass ASPM bei diesem Board jemals richtig funktioniert hat…

Epyc ist da teilweise echt …
 
Einige von diesen powersave policys führen auch dazu, dass die LAN Anschlüsse Probleme machen. Für die 0,1W würde ich das nicht riskieren.
 
Ja EPYC oder generell Zen 1 war nicht grad toll mit ASPM. Bzw. sind so Powersaving Sachen bei der gesamten Zen Architektur irgendwie nicht ausgereift, sieht man ja am Idle Verbrauch.. Spielt bei großen EPYCs die eh fast immer ordentlich Last drauf haben halt keine Rolle mehr.
Bei nur <1W wär mir das auch reichlich egal. Wenn da aber >5W rumkommen ists was anderes.
Ich muss wohl mal mit dem zweiten Board mal wieder bisschen testen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh