Gigabyte MJ11-EC1 NAS Server

Ich habs befürchtet. Gibt es eine Möglichkeit die BMC Firmware auszulesen? Hab ja noch ein Unangetastetes Board ^^
Ich werde mich mal umsehen, wenn ich eine Lösung finde schreib ichs hier rein.
Höchstens den BMC Chip extern auslesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Huhu, ich stürz mich jetzt auch mal in das Abenteuer hier.
Folgendes möchte ich jetzt bestellen:
Board:
Case:
PSU:
Bootmedium:
SATA-Adapterkabel:

Vorhanden sind:
8 Sata Platten
4*16GB ECC RAM

Das ganze wird dann ein TrueNAS. Hab ich noch was vergessen an Kleinigkeiten?
Später soll dann noch das hier dazu:
Da fehlt dann noch ein Kabel, oder? Da soll dann ne Mellanox dran für 10G
 
Ich hab mir das Brett auch schon angeschaut, bin aber noch nicht 100% schlau draus.

Des sind 4x SATA am Brett und 1x SlimSAS, oder?
Also könntest du jetzt 8x SATA bekommen oder 4x SATA und 4x PCIe über irgend einen dubiosen SFF-PCIe Adapter deiner Wahl vom Chinamann, oder?

Für 8x SATA und PCIe für die NIC bräuchtest du doch 2x SlimSAS am Brett, oder? Sind da 2 und ich seh sie nicht?

Was evtl. auch ginge wäre nen HBA an den SlimSAS machen für mehr SATA und ne NIC auf den M.2? Auch Adapterhölle.

Eig. schade drum, aber wenn alle SATA voll sind, muss ja wohl :d.. Machst es dann so, dass dus "unsachgemäß" installierst und den Datenträger "teilst", damit du ihn auch als Laufwerk für die "Apps" verwenden kannst unter TrueNAS? Urbackup etc.? Oder verwendest da gar nix?
SATA-Adapterkabel:
Joa, DE Preise sind fies, auf ebay aus CN bekommst um zu 2 davon nen neuen HBA gartis dazu ^^... ja ne, kann man kaufen, ich mag diese hellblauen Kabel, hab die in SATA-SATA Ausführung als auch in SFF-SATA Ausführung. Finde die für unseren Heimgebrauch äußerst praktisch.

Case&PSU: Hab ich mir nie genauer angesehen. k.A. was die Case im verlinkten Thread können, habs nur überflogen. Mir hätte das "große" gefallen, werd aber die Finger sein lasse, weiterhin meinen Gebrauchtkram nehmen und mal auf 19" gehen. Zum PSU kann ich nix sagen, musst dir selbst raussuchen, gibt ja zum Glück schon massenhaft Messergebnisse, sonst robotR fragen, ob er ein gutes SFX im Kopf hat.
 
Wo ist das auf dem Brett?
Ich seh 4x einzelne SATA und 1x so einen SFF Slim-SATA, welcher 4 SATA Lanes oder 4 PCIe Lanes kann, zudem 1x M.2.

Dann seh ich am Produktfoto unten mittig noch irgend einen Stecker der ein bissl wie ein M.2 Connector aussieht, kA, was das ist.
 
Welches UEFI Update ?
Vlt ist Update in dem Fall nicht die richtige Wortwahl, man flasht das Uefi vom EC0.
Beitrag automatisch zusammengeführt:

Dann seh ich am Produktfoto unten mittig noch irgend einen Stecker der ein bissl wie ein M.2 Connector aussieht, kA, was das ist.
Das ist SlimSAS 8i/SFF-8654 8i der kleine entsprechend 4i. Kann aber leider kein Bifurkation, sind pcie x8, daher habe ich eine QNAP Karte mit PLX Chip an dem angeschlossen. So habe ich 2 ∗ 2.5 Gbit LAN und 2 m.2* Ports an dem.
 
Zuletzt bearbeitet:
Ist das nicht der Server, aus welchem das MJ11 kommt?
Mit 120€ inkl. Versand und 16GB Ram aktuell wohl recht günstig, wenn man Verwendung für den Rest haben sollte:


Zum Vergleich: Bei Ram König kostet das Board mit ATX Adapter alleine aktuell ~60€.
 
Der Preis ist phantastisch, wenn man sich anschaut, was manche hier an Adaptern betreiben und investieren, um PCIe-Slots zu realisieren.


Edit:
Ich möchte ergänzen, dass ich das Gehäuse und generell das System sogar äußerst interessant finde. Drei redundante 80+ Platinum Netzteile, dazu vier mal 2,5" HotSwap und eben 10 PCIe-Slots. Die drei 120mm Lüfter mit >8000 U/min sind zwar sicherlich nicht wirklich "Home-Server-tauglich", aber da sehe ich das geringste Problem, das umzubauen. Auch für den Lüfter auf der CPU finden sich ja bereits hier im Thread zahlreiche Alternativen. Mit 700mm Tiefe halt auch ein Brett für daheim, aber wenn ich so sehe, was einige hier so im Bilder-Thread zeigen, dürfte das wenige abschrecken :fresse:
1730231805897.png
 
Zuletzt bearbeitet:
Haja, naja... Mining-Abfälle...
Die PCIe sind ja schön und gut aber... naja. :d

Netzteile sind lustig, vllt. Schweißtrafo bauen oder so? :fresse2:
 
Für was soll man das Gigabyte G431-MM0 Server noch nutzen können, außer Mining? Spontan habe ich keine Ideen wozu das nützlich wäre🤔 Die PCIe können bestimmt kein Bifurkation, sodass man 10x 4x PCIe x4 hätte und somit 40 m2 SSDs einbauen könnte 😅
Da würde dann aber die PCIe des Boards und die CPU wahrscheinlich etwas limitieren 🤔
 
Die ganzen PCIe Steckplätze in dem Server müssen Bifurcation können, mit nem extra Chip. Sonst würden ja mehrere Grafikkarten gar nicht laufen.
Der Port auf dem Board für sich allein kann das nicht.
Und ja der Port würde limitieren.. ist halt nur PCIe 3.0 8x und der kleine ist 4x... Ich seh da auch keinen Sinn außer Mining.
 
Ich hab zwei von den Gigabyte Kisten hier stehen. Die PCIe Slots sind jeweils nur mit einer Lane angebunden.
Die System Lüfter lassen sich gut drosseln, da ist der kleine Quirl im Netzteil und der CPU Lüfter lauter.
Einzig bei Neustart drehen die Lüfter für 1 Minute oder so mal auf um dann auf den eingestellten Wert gedrosselt zu werden.
Ich hab eine Kiste als NVME Raid laufen; normale m.2 SSDs mit Adapter direkt in den Slot gesteckt.
Im moment limitiert da aber noch meine Nic, die Intel x540-T2 schafft über eine Lane nur knapp 200 MByte/sek.
Warte gerade noch auf eine andere Nic und Adapter um den onboard m.2 zu konvertieren 😁


Bezüglich dem Board mit dem kaputten IPMI bin ich noch nicht weiter, der Nand mit der Firmware ist im Chip integriert, nur ein Austausch des Chips hilft; die Uart wirft Fehler, Konfiguration nicht möglich. Und alle anderen flashbaren Chips hab ich schon ausprobiert, hilft nix.
 
Zuletzt bearbeitet:
Ich hab eine Kiste als NVME Raid laufen; normale m.2 SSDs mit Adapter direkt in den Slot gesteckt.
Im moment limitiert da aber noch meine Nic, die Intel x540-T2 schafft über eine Lane nur knapp 200 MByte/sek.
Warte gerade noch auf eine andere Nic und Adapter um den onboard m.2 zu konvertieren 😁

Wird das dann nur per PCIe 1.0 angesprochen?! PCIe 3.0 sollte ja pro Lane um die 10gbit schaffen.
 
Also, der Gigabyte G431-MM0 bietet laut Produktseite Anbindungen mit PCIe3 x1. Allerdings kann die x540-T2 wohl nur PCIe2, bei nur einer Lane bedeutet das also ~500 MB/s, könnte natürlich sein, dass die Karte diese nun auf die beiden RJ45 aufteilt :hmm:
 
Besorg dir ne Mellanox ConnectX3. Sind mittlerweile spottbillig, sind PCIe 3.0 und verbrauchen auch noch weniger :coolblue:
 
Und verhindert ASPM tiefere idle C zustände des Boards/CPU.
Aber ja günstig sind die.
Pci-e 3.0x4
Beitrag automatisch zusammengeführt:

Ich hab eine Kiste als NVME Raid laufen; normale m.2 SSDs mit Adapter direkt in den Slot gesteckt.
Ich finde die Idee dahinter ja eigentlich wirklich cool...
Aber 8TB SSDs sind nicht bezahlbar. Also bleiben noch 4TB für 200€ oder 2TB für 120€ (ca...) übrig.
IMHO sofern nicht ein ganz spezifisches anwewendungszenario vorhanden ist tuts HDD mit SSD caching wesentlich günstiger.
 
Aber jetzt mal allgemein gefragt, hat eigentlich jemand bei dem Board ASPM zum Laufen gebracht?

Ich habe jetzt mal etwas rum probiert, und konnte mit keiner PCIe karte ASPM zum laufen bringen. Nutze TrueNAS Scale. Im kernel ist aspm natürlich aktiviert.
 
ASPM ist im BIOS standardmäßig deaktiviert. Wenn man das ändern will muss man das BIOS modden.
Kann sein das es im F02 noch an ist. Da werfen mir nämlich beide Intel Onboard-NICs permanent Fehler im Terminal. Die NICs deaktivieren hilft, aber ist nicht so richtig zielführend.
Scheint aber nen allgemeines Problem zu sein, da findet man im Internet so etliche Einträge zu für Zen allgemein. Deswegen wurde das irgendwann mal mitm AGESA Update std. deaktiviert.

Wüßte auch nicht warum ne ConnectX3 die C-States der CPU behindern sollte. Wär mir auch noch nie aufgefallen. Und ich guck beim rumtesten über beide Boards ständig nach dem Stromverbrauch.
Kann ich aber auch nochmal testen.
 
Zumindest bei diesem Board wird das denke ich ziemlich egal sein, da es sowieso nur 3 C-States gibt. Das ist wohl eher ein Problem wenn es 7-8 States gibt.

Bei mir sieht es zum Beispiel so aus:

IMG_3160.jpeg


Zumindest mit dem Original BIOS ist ASPM aber definitiv deaktiviert. Also nicht nur die PCIe Karten, sondern auch alle internen Geräte. Auch pcie_aspm=force bringt da nichts.
 
Zuletzt bearbeitet:
Zen hat allgemein nur 3 P-States.
Braucht auch nicht wirklich mehr wenn die Kerne die meiste Zeit im C6 sind.
Das deaktivieren der Onboard-NICs drückt den Verbrauch aber definitiv noch runter. Hab da wegen diesen dussligen Fehlern die letzten Tage viel rumprobiert.
Das blöde ist halt das der SoC in der CPU halt das meiste verbraucht und man die Spannung nicht einstellen kann.
Wenn man hier aber mit dem RAM Takt runter geht verringert sich auch die SoC Spannung pro Stufe um 50mV, was schon ne ordentliche Einsparung bringt.
Hab dafür immer nochn Windows auf ner SSD am laufen wo man das in HWinfo nachverfolgen kann und eben auch die P-States per Software ändern kann.
 
Die Sideffects, die man sich mit Stromsparmaßnahmen bei diesem Board einhandelt, sind imho den marginalen Effekt an der Steckdose nicht Wert. Wer einen stromsparenden Server möchte, sollte einen Bogen um Epycs/Threadripper/Ryzen mit ECC machen und sich einen Intel N100 oä nehmen. Da klappt das auch sauber mit tiefen C-States und ASPM.
 
IDLE Verbrauch war halt nie AMD ihre Stärke. Dafür verbrauchen sie nicht viel unter Last. 25/30 Watt ohne HT mit rund 45 Watt.
Wenn man Overclocking bis auf das Max was geht einstellt "3,9/4 Ghz", hat man sogar ein Verbrauch von rund 80 Watt nur für die CPU. Ansonsten Stock finde ich die vom Verbrauch her schon gut. Mein Synology verbraucht auch über 40 Watt im IDLE mit dem Ryzen v1500b. :)
 
Bin auch bei unter 30W Idle ohne HDDs, aber mit 10G ConnectX3. Da kann ich gut mit leben.

C-States der CPU Kerne funktionieren auch seit jeher sauber. Beim SoC bin ich mir da unsicher..

@sch4kal welche Sideeffects meinst du genau? Bzw. welche Stromsparmaßnahmen?
Wirklich viele Optionen hat man ja nicht :fresse:
 
Woher hast du das denn?
Wüßte auch nicht warum ne ConnectX3 die C-States der CPU behindern sollte.
Hatte das Thema hier schon:
 
Das deaktivieren der Onboard-NICs drückt den Verbrauch aber definitiv noch runter
Das habe ich die Tage auch gemacht, einer der für mich etwas nicht nachvollziehbaren Sideeffects war, dass ich meinen PVE nicht mehr erreichen kann.
Obwohl ich die onboard Nics abseits der IPMI Schnittstelle gar nicht nutze - die auch dennoch weiterhin funktioniert hat. Schalte ich die beiden wieder im BIOS an, gehts wieder..

Die Sideffects, die man sich mit Stromsparmaßnahmen bei diesem Board einhandelt, sind imho den marginalen Effekt an der Steckdose nicht Wert.
Soviel dazu ^^.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh