[Sammelthread] Gigabyte Mainboard MC12-LE0 AM4, IPMI, Dual Intel GB Lan ECC fähig

------------- Vorwort, Credits und Angebote

Vorwort:


Wer mir ein vergleichbares NEUWARE Mainboard zu dem Preis mit den Features nennen kann, der darf dies gern tun.... bisher fand ich keines unter 200-400€
hingewiesen darauf hat @sch4kal zuerst im Marktplatz Link Thread

Vergleichbare MBs (ab 390€ mit PCIe 4.0):





Unterstützte CPUs: AMD 3000er und 5000er (und mit F15 wohl auch APUs mit intern - aka für VMs nutzbarer aber nicht extern - nutzbarer IGP)

Bestpreise lagen um die 35€ für das Board (ultra low war mal 27€ bei 4 Stück inkl kühler)


mit low profile Kühler:


ohne low profile Kühler

(hier die Gutscheine beachten!)



im Webshop von Pio (Ergänzung auf Userwunsch):

(hier die Widerrufsbelehrung beachten!)





------------- Zur Hardware

Gigabyte Mainboard MC12-LE0​


880.png


MC12-LE0_BlockDiagram-1027390689.png



mAtx B550 Am4 Board für 3000-5000er AMD CPUs
bis zu 128GB unbuffered ECC oder non ECC (DDR4 2133-3200) (ACHTUNG: KEIN REGISTERED ECC sondern unbuffered ECC)

2 x 1GbE LAN ports (Intel® I210-AT)
1 x 10/100/1000 management LAN

Integrated in Aspeed® AST2500
2D Video Graphic Adapter with PCIe bus interface
1920x1200@60Hz 32bpp


Expansion Slots

1 x PCIe x16 (Gen4 x16 bus) slot from CPU (Bifurcation 4/4/4/4 fähig mit NON -APUs)

Kommentar: setzt hier also normale CPUs ein . der 5600 (non x) ist imho hier ein sweetspot oder auch ein gebrauchter 3600x/3700x/3900x ...
generell würde ich bei 65W CPUs bleiben oder entsprechend die CPU limitieren (cTPU)

APUs können keine 4/4/4/4 bifurcation

1 x PCIe x4 (Gen4 x4 bus) slot from CPU (im Gegensatz zu anderen Boards direkt von der CPU = weniger Latenz und Probleme)
... die meisten Boards nutzen die Anbindung für die NVMe


1 x M.2 slot (über Chipsatz angebunden): (imho gut für ne kleine 128/256GB M2 SSD fürs OS - sowas bekommt ja nachgeworfen aus EDU stores und viele davon haben oft eh nur 2x PCIe 3.0)
- M-key
- PCIe Gen3 x1 (max brutto 0,97 GByte/s)
- Supports NGFF-2242/2280 cards




Board Management

Aspeed® AST2500 management controller
GIGABYTE Management Console (AMI MegaRAC SP-X) web interface


  • Dashboard
  • HTML5 KVM
  • Sensor Monitor (Voltage, RPM, Temperature, CPU Status …etc.)
  • Sensor Reading History Data
  • FRU Information
  • SEL Log in Linear Storage / Circular Storage Policy
  • Hardware Inventory
  • Fan Profile
  • System Firewall
  • Power Consumption
  • Power Control
  • LDAP / AD / RADIUS Support
  • Backup & Restore Configuration
  • Remote BIOS/BMC/CPLD Update
  • Event Log Filter
  • User Management
  • Media Redirection Settings
  • PAM Order Settings
  • SSL Settings
  • SMTP Settings

------------- Kühlerempfehlung

Top Blow der die Spawas links unter dem CPU Sockel abdeckt (Thermalright baut nette)
.. damit ist der silberne Kühlkörper links unter dem CPU Sockel gemeint

------------- Bios, BMC Firmware, Treiber

offizielle:

BMC: 12.61.21
Bios: F15


hier: https://www.gigabyte.com/de/Enterprise/Server-Motherboard/MC12-LE0-rev-1x#Support



die einfachste Weise das Board auf den aktuellen Stand zu bringen:

eine CPU die auf der QVL ist einsetzen (aber die meisten 3er und 5er non -APUs klappen)
einen Ramstick in Slot A1 (hier sind 2133er wohl problemfreier als 3200er)
Tast/Maus/mon anschließen
System starten und abwarten (erster Start dauert etwas)

Achtung: der Browser sollte keinen Popup/script Schutz haben (notfalls einfach kurz ausmachen)

dann entweder per BMC oder per UEFI den BMC updaten (kann locker > 15 Min dauern, achtet auf die grüne "Heartbeat LED") - Full Flash
dann (wenn nötig) kurz restarten
dann das Bios entweder per BMC oder per UEFI updaten
dann runterfahren
Power trennen vom Board für 1-2 Minuten (aka das Netzteil abziehen)
nach 1-2 Minuten wieder anstecken und Spass haben



es geht auch komplett per BMC aber für viele ist das schwieriger als es rein mit CPU und Ram gleich zu machen
ich z.B. hab grad 2 Boards von F06 (Auslieferungszustand) direkt auf aktuelle BMC und BIOS F15 per BMC (mit CPU/Ram eingesetzt) ohne Probleme geupdated (21-9-2024)


------------- Reset des BMC Passwort



... hier das PDF beachten


------------- Q&A


Passmark Scores ausgewählter CPUs zum Vergleich :

i5-8500: 9581 (6 Core S1151)
3600: 17776 (Zen2)
3600x: 18227 (Zen2)
i5-12400: 19557
E5-2690v4 : 19619 (S2011-3)
5600: 21592 <------ P/L

5600x: 21926
3700x: 22598 (Zen2)
5700x: 26738
i5-13500: 32250
3900x: 32678 (Zen2)
5950x: 45633 (hier muss aber wohl manuell die Spannung begrenzt werden (glaube unter 1,4V)) - aber gute Performance/W/€


------------- Links zu anderen Forendiskussionen


STH: https://forums.servethehome.com/ind...oard-mc12-le0-re1-0-amd-b550-am4-ryzen.42579/
L1T: https://forum.level1techs.com/t/gigabyte-mc12-le0/183692/21



------------- User Anmerkungen (selbst nicht geprüft)

@BobbyD:
  • Das BMC Passwort steht auf dem (Anmerkung: brauner Außenkarton an der Seite) Karton
  • Fürs BMC-Update über das BMC ist folgende Datei auszuwählen: "rom.ima_enc" Mode:BMC
  • Fürs BIOS-Update über das BMC ist folgende Datei auszuwählen: "image.RBU" Mode:Bios
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,
Das Problem lag am Speicher. Ich hatte einen Samsung 2400T 16GB ECC Speicher, aber laut Datenblatt unterstützt das Mainboard nur 3200MHz ECC und 2133MHz Non-ECC Speicher. Glücklicherweise hatte ich einen 8GB Non-ECC Speicher zur Hand. Nachdem ich diesen eingesteckt hatte, funktionierte alles einwandfrei. Ein erneutes BIOS-Update war nicht notwendig, da das Systeminventar und die BIOS-Version nach der Installation des 2133er RAM automatisch aktualisiert wurden.

Kann es sein das der 2400er Riegel registered ecc ist (die Bezeichnung 2400T bringt mich auf den Gedanken)

schreib mal die komplette Modell Nummer oder mach ein Foto
 
So, nun endlich dazu gekommen mit dem Einrichten.

Kein Bild ueber VGA, aber BMC erreichbar...
BMC update gestartet -> Verification ok -> Flash -> failed flash.

Ich hoffe nicht dass es dass bereits fuer das Board war - IP vom BMC ist im Switch sichtbar und aktiv und die LAN LEDs am Mgmt. Port zeigen Aktivitaet, aber BMC ist (noch) nicht erreichbar :(
Leider ist das BMC nicht erreichbar (1Gbit Verbindung wird im Switch angezeigt, aber bekommt keine IP) und weiterhin kein Bild ueber den VGA Ausgang...

Irgendwelche Ideen?
Wirklich zickig das Board...
 
@wddn Also BMC ging und dann, nach dem Updateversuch, nicht mehr? Hmmm.
 
@wddn Also BMC ging und dann, nach dem Updateversuch, nicht mehr? Hmmm.

Aber nun komme ich zumindest ins BIOS :)
Dauert zwar immer einige Minuten (wait for BMC ist disabled), aber Proxmox ist installiert - mal schauen ob ich das BMC wiede rzum Laufen bekomme

Weiß jemand wie sich das BMC per USB flashen lässt?
 
Zuletzt bearbeitet:
Nach vielem Gefummel letztlich Gigabyte angeschrieben, wie man RAIDXpert2 als Option im Bios erhält:

Antwort:
Im UEFI folgendes einstellen:
- Chipset->SATA-Mode und NVMe-Mode auf RAID
- bei Advances->AMD-CBS->FCH->SATA-Options->SATA-Mode auf RAID
- bei Advanced->AMD-CBS->Chipset Common Options-> SATA Options auf RAID und zusätzlich Agressive SATA Device Sleep Port = und 1 auf Enabled
- Boot auf UEFI statt Legacy

und dann gibt es nach dem Neustart unter Advanced ne RAIDXpert2-Option für SATA UND NVMe.

Muss man erstmal drauf kommen.

Nur kann ich zwar die NVMe dort sehen, aber nicht konfigurieren, nur SATA-Geräte :fresse:

Das klappt bei mir irgendwie nicht.
Habe alle Einstellungen vorgenommen, bekomme aber keine RAID-Konfigurationsmöglichkeit.
Seltsam finde ich, dass meine Änderungen unter "AMD-CBS" trotz Speichern beim nächsten BIOS-Aufruf wieder auf "Default" (d.h. "Auto") gestellt sind.

Habe eine Samsung M.2 NVMe SSD, zwei Samsung SATA SSDs an SATA Port 0 und 1.
Ziel ist es, die SATA SSDs als RAID1 anzulegen (Datastore eines esxi).

Gibt es in der Antwort von Gigabyte evtl. noch einen weiteren Hinweis?
 
Ich brauche Hilfe bei der Storage Planung des Servers auf unseren MC12 Boards,
im Gegenzug gibts von mir die Tage ausführliche Verbrauchswerte mit Shelly Messung und verschiedenen Storage-Installationen + 2.5Gig/10Gig Networking.

ich würde gerne erstmal von Hypervisor weg kommen und es nur mit TrueNAS Scale probieren, warum: Komplexitätsreduktion, ich weiß nicht ob ich die Zeit und Muße habe, mich in Proxmox einzuarbeiten.


Anspruch: Datengrab für Medienbereitstellung (Kodi, erstmal kein Jellyfin), Fotodatenbank für Lightroom Bildbearbeitung/Storage (die aktuellsten Fotos gerne auf schnellem Storage, die älteren Archive auf langsamerem Speicher), neuer zentraler Punkt um die aktuelle auf Raspberrys gehosteten Apps zu virtualisieren, dazu zählt aktuell Nextcloudpi (Nextcloud hosting), Home-Assistant, Pihole mit Wireguard VPN, DNS Crypt usw.

Storage den ich überlege zu nutzen/anzuschaffen für die nächsten 5-6 Jahre (hoffentlich mehr als ausreichend).

1) TrueNAS OS
1* 240GB SSD für TrueNAS Scale (Backups der Config entsprechend natürlich)

2) TrueNAS Apps und Data
TrueNAS Apps die ich gerne nutzen möchte (siehe oben) und deren Daten/Installation, die Planung hier fällt mir am schwersten
Frage: ist es sinnig den Speicherort der TrueNAS Apps und der TrueNAS Daten zu trennen auf verschiedene (zwei) ZPOOLs und (zwei) VDEVs, oder ist das nicht nötig?
da man auf dem MC12 ja bei meinem 5600x max. 4*NVME unter bekommt (der 1xNVME will ich potentiell für einen NVME auf SATA Adapter nutzen)

2.1 Trennung von Data und App-Installation
App-Installation
2* 512GB NVME SSD Gen3+Gen4 (vorhanden), Mirror, Installationsort für die Nextcloud Apps (Nextcloud Data kann dort nicht liegen da zu viele User mit zu vielen Daten ca. 600GB aktuell Nextcloud, stark steigend),
App-Data
SSD oder NVME Storage für Nextcloud Data und Lightroom Bilder der aktuellen Kundenprojekte/Fotos,
Option 1) 2*4TB NVME Mirror (2* nur weil 2 Steckplätze in PCIex16 von den 2*512GB NVME belegt wären, ist mir eigentlich für den weiter steigenden Datenverbrauch zu wenig Speicherplatz, günstiger 450 Eur ca.),
Option 2) 3*3.84TB RaidZ1 SSD (Kingston DC600M mixed usage, mehr sicherheit, mehr speicherplatz, aber auch deutlich teurer, 1000EUR)

oder
2.2 keine Trennung von Apps und Data
wenn TrueNAS App Speicherort und Data nicht getrennt werden müssen/sollten und alles auf einem Zpool+VDEV liegen kann

wie Option 2) 3*3.84TB RaidZ1 SSDs und sich die NVME Storage für zukünftige Entwicklungen offen halten
Option 3) 3*4TB RaidZ1 NVME (700EUR, keine Power-Loss Protection) dafür 1*NVME Storage frei bspw. für Optane NVME des HDD Mediengrabs (siehe unten),

3) Mediengrab
3*16TB RAIDz1 HDDs (Seagate),

4)
Backup: 1*16TB local + cloud/external
 
Kurze Frage in die Runde,
was macht denn der Backplane Connector auf dem Board? Führt der einen Teil der SATA Ports über ein Kabel durch?
Ist das ein Gigabyte eigenes Ding oder gibts da Adapter?

Ansonsten erst mal vielen Dank an die Infos hier. Das Board ist anfänglich etwas zickig - eine BMC und BIOS Update hat dann aber geklappt, jetzt läuft es unauffällig.


Edit: Screenshot aus dem Handbuch hinzugefügt
 

Anhänge

  • Unbenannt.PNG
    Unbenannt.PNG
    24,1 KB · Aufrufe: 110
Zuletzt bearbeitet:
Was denn für nen Backplane connector?
Bild aus Post 1 nehmen und einmalen ggf.

Wenn du auf den beim PCIe x4 anspielst, dann ist der für GB Chassis gedacht.
 
Zuletzt bearbeitet:
Kannst du mal im BIOS schauen, ob dort der Controller dort bei den PCIe Karten konfigurierbar ist. Ich kenne des eigentlich nurnoch so, dass man so in die RaidController Menüs kommt.

E: Aber kann das Board wirklich keinen Sleep? Kann ich garnicht glauben. Ich kenne es nur, dass die dummen Intel NIC Treiber vom Windows beim runterfahren die BIOS Settings mit ihren eigenen Treibersettings überschreiben. Wenn man den PC dann vom Stromnetz trennt, wieder einsteckt funktioniert WOL. ohne Probleme.
So, einen Schritt weiter bin ich nun. Im BIOS gibt es tatsächlich einen Menüpunkt für die Konfiguration der Arrays des RAID Controller.
Unter Proxmox wird der Adaptec 6405E auch erkannt und unter ESXi 6.7 auch. ESXi 7.0 unterstützt den Adaptec leider nicht mehr.
Nur unter Windows bekomme ich den Controller nicht ans Laufen. Im Geräte-Manager bleibt das gelbe Ausrufezeichen und Code 10 Objekt nicht gefunden.

Was mit auch nicht gelingt ist die Grafikeinheit des 5600G ans Laufen zu bekommen. Die AMD Treiber Installation bricht mit Fehler 182 ab.
Im Gerätemanager wird nur der Standard Windows Grafikkartentreiber installiert. Mit einer Auflösung von 800x600 macht das nicht wirklich Spaß.
 
@mitch1101 Die Grafikeinheit der CPU kann auf dem Board kein Bild ausgeben.
 
@mitch1101 Die Grafikeinheit der CPU kann auf dem Board kein Bild ausgeben.
APUs sind auf dem Board nur für Transcoding (Plex, Jellyfin,…) interessant, da das Mainboard keine Video-Ausgänge hat (VGA ist nur für den AST2500 Chip).
Falls nicht relevant: Ryzen 5600 (der auch nicht auf 8x4x4 bifurcation limitiert ist)


Andere Frage:
Hat schon jemand das BMC und BIOS per USB Stick geflasht?
 
Zuletzt bearbeitet:
Bezüglich Transcoding für Plex/Jellyfin, hat das jemand mit dem Board und einer G CPU schon zum laufen gebracht? Im Bios war die interne GPU auf disabled gestellt, schau ich in Proxmox die Devices durch, sehe ich dort auch die interne GPU nicht, sondern nur die Aspeed.
Schalte ich die interne GPU im Bios ein (Advanced -> AMD CBS -> GFX ), fährt das Board gar nicht mehr hoch.
 
Unter Proxmox wird der Adaptec 6405E auch erkannt und unter ESXi 6.7 auch. ESXi 7.0 unterstützt den Adaptec leider nicht mehr.
Ich hoffe Du kommst nicht auf die Idee, da dran ein ZFS-Array betreiben zu wollen. Für ZFS haben Hardware-Raidcontroller nichts zu suchen, dort brauchst Du dumme Hostbusadapter ohne jede Logik und ohne Cache.

Abgesehen davon: in der 4Port-Variante wäre der 6405E zusätzlich noch ein richtiger Bremsklotz; den der hat nur eine Anbindung mit PCIe gen2 mit 1 Lane. Viel zuwenig für 4 aktuelle HDDs, wenn dort sequentieller Datentransfer stattfindet. Bzgl. Random-IOPS kann ich ihn nicht einschätzen, was der SoC da drauf kann.
> Das hat schon seine Gründe, warum der vor langem bei ESXI ausgelistet wurde. ESXI 7 gibts ja nun schon längere Zeit.

Wenn Du noch ältere SAS-Laufwerke nutzt => dringend nachdenken, deren Daten auf SSDs zu migrieren. Viel weniger Lärm/Vibration und Stromverbrauch bei um Magnituden besserer Leistung.
 
Zuletzt bearbeitet:
Ich hoffe Du kommst nicht auf die Idee, da dran ein ZFS-Array betreiben zu wollen. Für ZFS haben Hardware-Raidcontroller nichts zu suchen, dort brauchst Du dumme Hostbusadapter ohne jede Logik und ohne Cache.

Abgesehen davon: in der 4Port-Variante wäre der 6405E zusätzlich noch ein richtiger Bremsklotz; den der hat nur eine Anbindung mit PCIe gen2 mit 1 Lane. Viel zuwenig für 4 aktuelle HDDs, wenn dort sequentieller Datentransfer stattfindet. Bzgl. Random-IOPS kann ich ihn nicht einschätzen, was der SoC da drauf kann.
> Das hat schon seine Gründe, warum der vor langem bei ESXI ausgelistet wurde. ESXI 7 gibts ja nun schon längere Zeit.

Wenn Du noch ältere SAS-Laufwerke nutzt => dringend nachdenken, deren Daten auf SSDs zu migrieren. Viel weniger Lärm/Vibration und Stromverbrauch bei um Magnituden besserer Leistung.
Hast du einen Vorschlag für einen guten und günstigen Hostbusadapter?
Wäre der hier eine gute Wahl?
 
(die aktuellsten Fotos gerne auf schnellem Storage, die älteren Archive auf langsamerem Speicher)
Wenn du sowieso TrueNAS Scale mit ZFS nutzt könntest du mal Prüfen ob dir ein SSD Cache die manuelle Aufteilung auf einen langsamen und einen schnellen Pool automatisiert überflüssig machen kann. Ich stelle mir es nervig vor eine Bilddatenbank auf mehrere Pools je nach Alter der Fotos aufzuteilen und später zu verschieben. Oder sind die eh separat?
 
Zuletzt bearbeitet:
Habe eine Samsung M.2 NVMe SSD, zwei Samsung SATA SSDs an SATA Port 0 und 1.
Ziel ist es, die SATA SSDs als RAID1 anzulegen (Datastore eines esxi).
Die Mühe kannst du dir sparen, bis auf Intel VROC für NVME (da aber auch nur Raid1) kann ESXi nicht mit Software RAID umgehen. Weder mit der AMD Variante noch mit dem Intel Pendant. Da brauchst einen Hardware RAID Controller.
 
Die Mühe kannst du dir sparen, bis auf Intel VROC für NVME (da aber auch nur Raid1) kann ESXi nicht mit Software RAID umgehen. Weder mit der AMD Variante noch mit dem Intel Pendant. Da brauchst einen Hardware RAID Controller.
Alternativ: eine Storage VM mit durchgereichten Ports/SSDs/Disks mit ZFS-Pool (die hierzuforum bekannte ESXI "All-in-one" Variante).
 
@FM4E Kann der Thread mit in die Mobo-Sammelthread-Liste aufgenommen werden, auch wenn er im Server-Forum liegt?
 
was macht denn der Backplane Connector auf dem Board? Führt der einen Teil der SATA Ports über ein Kabel durch?
Sehr gute Frage...
Sata eher weniger.
Da werden BPMI, SMB_U2_TMP und BP drüber fliessen gemäss Pin Belegung. Aber KA was die sind ^^ scheint was Gigabyte Spezifisches zu sein.
 
@FM4E Kann der Thread mit in die Mobo-Sammelthread-Liste aufgenommen werden, auch wenn er im Server-Forum liegt?
Wir können den Thread gerne dort hin verschieben, wenn soweit alle damit einverstanden sind.
 
Wir können den Thread gerne dort hin verschieben, wenn soweit alle damit einverstanden sind.
sobald das Board nicht mehr zu kaufen ist gern

bis dahin bitte hier belassen (könnt es aber gern solange sticky setzen)
 
Kurze Frage, da das Manual keine Auskunft gibt:

2x RAM Sticks sollten in A0 & A1 stecken (blaue Baenke) fuer Dual-Channel?
 
... ist aber eh B550 üblich, was da zu sehen ist.
Ich kenne es mit versetzen Farben, aber erinnere mich nicht, ob das ein Gesetz ist. Bei den Consumer-Boards ist inzwischen eh alles mehr oder minder schwarz. 😁
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh