[Sammelthread] Gigabyte Mainboard MC12-LE0 AM4, IPMI, Dual Intel GB Lan ECC fähig

------------- Vorwort, Credits und Angebote

Vorwort:


Wer mir ein vergleichbares NEUWARE Mainboard zu dem Preis mit den Features nennen kann, der darf dies gern tun.... bisher fand ich keines unter 200-400€
hingewiesen darauf hat @sch4kal zuerst im Marktplatz Link Thread

Vergleichbare MBs (ab 390€ mit PCIe 4.0):





Unterstützte CPUs: AMD 3000er und 5000er (und mit F15 wohl auch APUs mit intern - aka für VMs nutzbarer aber nicht extern - nutzbarer IGP)

Bestpreise lagen um die 35€ für das Board (ultra low war mal 27€ bei 4 Stück inkl kühler)


mit low profile Kühler:


ohne low profile Kühler

(hier die Gutscheine beachten!)



im Webshop von Pio (Ergänzung auf Userwunsch):

(hier die Widerrufsbelehrung beachten!)





------------- Zur Hardware

Gigabyte Mainboard MC12-LE0​


880.png


MC12-LE0_BlockDiagram-1027390689.png



mAtx B550 Am4 Board für 3000-5000er AMD CPUs
bis zu 128GB unbuffered ECC oder non ECC (DDR4 2133-3200) (ACHTUNG: KEIN REGISTERED ECC sondern unbuffered ECC)

2 x 1GbE LAN ports (Intel® I210-AT)
1 x 10/100/1000 management LAN

Integrated in Aspeed® AST2500
2D Video Graphic Adapter with PCIe bus interface
1920x1200@60Hz 32bpp


Expansion Slots

1 x PCIe x16 (Gen4 x16 bus) slot from CPU (Bifurcation 4/4/4/4 fähig mit NON -APUs)

Kommentar: setzt hier also normale CPUs ein . der 5600 (non x) ist imho hier ein sweetspot oder auch ein gebrauchter 3600x/3700x/3900x ...
generell würde ich bei 65W CPUs bleiben oder entsprechend die CPU limitieren (cTPU)

APUs können keine 4/4/4/4 bifurcation

1 x PCIe x4 (Gen4 x4 bus) slot from CPU (im Gegensatz zu anderen Boards direkt von der CPU = weniger Latenz und Probleme)
... die meisten Boards nutzen die Anbindung für die NVMe


1 x M.2 slot (über Chipsatz angebunden): (imho gut für ne kleine 128/256GB M2 SSD fürs OS - sowas bekommt ja nachgeworfen aus EDU stores und viele davon haben oft eh nur 2x PCIe 3.0)
- M-key
- PCIe Gen3 x1 (max brutto 0,97 GByte/s)
- Supports NGFF-2242/2280 cards




Board Management

Aspeed® AST2500 management controller
GIGABYTE Management Console (AMI MegaRAC SP-X) web interface


  • Dashboard
  • HTML5 KVM
  • Sensor Monitor (Voltage, RPM, Temperature, CPU Status …etc.)
  • Sensor Reading History Data
  • FRU Information
  • SEL Log in Linear Storage / Circular Storage Policy
  • Hardware Inventory
  • Fan Profile
  • System Firewall
  • Power Consumption
  • Power Control
  • LDAP / AD / RADIUS Support
  • Backup & Restore Configuration
  • Remote BIOS/BMC/CPLD Update
  • Event Log Filter
  • User Management
  • Media Redirection Settings
  • PAM Order Settings
  • SSL Settings
  • SMTP Settings

------------- Kühlerempfehlung

Top Blow der die Spawas links unter dem CPU Sockel abdeckt (Thermalright baut nette)
.. damit ist der silberne Kühlkörper links unter dem CPU Sockel gemeint

------------- Bios, BMC Firmware, Treiber

offizielle:

BMC: 12.61.21
Bios: F15


hier: https://www.gigabyte.com/de/Enterprise/Server-Motherboard/MC12-LE0-rev-1x#Support



die einfachste Weise das Board auf den aktuellen Stand zu bringen:

eine CPU die auf der QVL ist einsetzen (aber die meisten 3er und 5er non -APUs klappen)
einen Ramstick in Slot A1 (hier sind 2133er wohl problemfreier als 3200er)
Tast/Maus/mon anschließen
System starten und abwarten (erster Start dauert etwas)

Achtung: der Browser sollte keinen Popup/script Schutz haben (notfalls einfach kurz ausmachen)

dann entweder per BMC oder per UEFI den BMC updaten (kann locker > 15 Min dauern, achtet auf die grüne "Heartbeat LED") - Full Flash
dann (wenn nötig) kurz restarten
dann das Bios entweder per BMC oder per UEFI updaten
dann runterfahren
Power trennen vom Board für 1-2 Minuten (aka das Netzteil abziehen)
nach 1-2 Minuten wieder anstecken und Spass haben



es geht auch komplett per BMC aber für viele ist das schwieriger als es rein mit CPU und Ram gleich zu machen
ich z.B. hab grad 2 Boards von F06 (Auslieferungszustand) direkt auf aktuelle BMC und BIOS F15 per BMC (mit CPU/Ram eingesetzt) ohne Probleme geupdated (21-9-2024)


------------- Reset des BMC Passwort



... hier das PDF beachten


------------- Q&A


Passmark Scores ausgewählter CPUs zum Vergleich :

i5-8500: 9581 (6 Core S1151)
3600: 17776 (Zen2)
3600x: 18227 (Zen2)
i5-12400: 19557
E5-2690v4 : 19619 (S2011-3)
5600: 21592 <------ P/L

5600x: 21926
3700x: 22598 (Zen2)
5700x: 26738
i5-13500: 32250
3900x: 32678 (Zen2)
5950x: 45633 (hier muss aber wohl manuell die Spannung begrenzt werden (glaube unter 1,4V)) - aber gute Performance/W/€


------------- Links zu anderen Forendiskussionen


STH: https://forums.servethehome.com/ind...oard-mc12-le0-re1-0-amd-b550-am4-ryzen.42579/
L1T: https://forum.level1techs.com/t/gigabyte-mc12-le0/183692/21



------------- User Anmerkungen (selbst nicht geprüft)

@BobbyD:
  • Das BMC Passwort steht auf dem (Anmerkung: brauner Außenkarton an der Seite) Karton
  • Fürs BMC-Update über das BMC ist folgende Datei auszuwählen: "rom.ima_enc" Mode:BMC
  • Fürs BIOS-Update über das BMC ist folgende Datei auszuwählen: "image.RBU" Mode:Bios
 
Zuletzt bearbeitet von einem Moderator:
Das stimmt, aber wenn man versucht die Personen Erkennung zu optimieren, da es die Kinder immer mal verwechselt, ist es hilfreich.

Aber ansonsten läuft es wirklich Klasse auf dem System.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...aber wofür transcoding? Ist euer Netzwerk so dünn? Streamt ihr an 30 Geräte gleichzeitig? Ich verstehe den Sinn dahinter nicht ganz im "Homelab" setting. KI Sachen und (mit Einschränkungen) Zeugs wie OCR seh ich ja noch ein (wobei ich auch da denke dass das bisschen CPU-Zeit günstiger wäre als die GPU und ihre zusätzlichen Stromkosten), ansonsten finde ich aber eine dedizierte GPU gerade nur fürs transcoding doch irgendwie übertrieben, oder nicht?
Aber wer basteln will und einen großen Geldbeutel hat... (dann würde ich aber auch ein anderes Mainboard nehmen :-P)
 
...aber wofür transcoding? Ist euer Netzwerk so dünn? Streamt ihr an 30 Geräte gleichzeitig? Ich verstehe den Sinn dahinter nicht ganz im "Homelab" setting. KI Sachen und (mit Einschränkungen) Zeugs wie OCR seh ich ja noch ein (wobei ich auch da denke dass das bisschen CPU-Zeit günstiger wäre als die GPU und ihre zusätzlichen Stromkosten), ansonsten finde ich aber eine dedizierte GPU gerade nur fürs transcoding doch irgendwie übertrieben, oder nicht?
Aber wer basteln will und einen großen Geldbeutel hat... (dann würde ich aber auch ein anderes Mainboard nehmen :-P)

ich hab "transcoding" auch noch nie wirklich verstanden
... mag sein weil ich keine "Heimvideosammlung" hab und alles was ich ansehe in der Freizeit gestreamed wird (Waipu+Netflix HD 12,x€)
ist aber wohl mein "Ding" da ich nebenbei immer etwas laufen lassen muss (Waipu tut das ok) und selten Zeit hab mich wirklich zu konzentrieren (netflix ohne Werbung macht das gut, da ich Werbung hasse - man bezahlt werbung über den Kaufpreis des Produktes mit obwohl einen die Werbung anpisst)

Alle Clients/TVs hier können nativ alle Formate bis 4K (nutze aber meisst nur HD/FHD)

ein 720p/1080p Video kann wohl jeder client abspielen ohne transcoding

ich glaub das kommt aus der Blueray rip Szene die wohl auch einen langsamen qualvollen Tod stirbt (und teils von externen Quellen /addons zu mediaplayern/Grau- und Schwarzmarkt )

imho is FHD (1080p) erstmal ok für fast alles "daheim" solange man kein Heimkino betreibt

:)
Beitrag automatisch zusammengeführt:

Wobei Immich selbst mit dem 5600 fliegt.
Das Initialisieren der Bibliothek ging bei mir extrem fix. Da muss man schon sehr viele Videos umkonvertieren damit sich ne GPU da lohnt.
Und vor allem müsste das immer wieder gemacht werden... das passiert ja eigentlich nur 1x und dann die 50-100 Fotos die frisch hinzu kommen beim Sync.
ein 5600 non x ist schneller als ein Xeon 2690-v4 der heut noch viele Server antreibt :)
 
Zuletzt bearbeitet:
Transcoding kann durchaus Sinn machen. Hängt halt davon ab welches Datenmaterial vorliegt, wie viel verschiedene Geräte versorgt werden sollen und ob eventuell auch übers Internet gestreamed werden soll.
4k mit modernen Codec kann da schnell Mal nen Problem für verschiedene Clients sein. Ebenso die untouched high Bitrate Blueray per wlan an nen mobilen Client.
Und ja das passiert immer wieder. Ziel ist ja häufig on the fly. Wenn man "nur" seine Sammlung transkodiert um sie anders zu speichern macht Transcoding per CPU eh mehr Sinn, da per GPU mehr Platz für die gleiche Qualität gebraucht wird
 
...wenn ich es also richtig verstanden habe (übertrieben gesagt):
Leute rippen Blurays o.ä. in Originalquali und streamen es dann auf Geräte, die die Auflösung nicht ruckelfrei abspielen können. Deswegen muss der Server, von dem gestreamt wird das hochqualitative Ausgangsmaterial auf Kartoffelqualität runterkodieren, damit es auf dem Gerät läuft (oder alternativ eben durch das "WLan-Kabel" passt). Die CPU vom Server ist zu schwachbrüstig um es selber hinzukriegen, deswegen muss eine ded. GPU herhalten.

Ist auf jeden Fall ein valider Anwendungsfall, auch wenn ich der Meinung bin dass man das Problem anders lösen könnte.
 
Das ist falsch verstanden. Endgeräte unterstützen nicht immer alle Codecs (z.B. aus Lizenzgründen). Einen Film hält man nur in einem Codec vor, dementsprechend muss man transkodieren. Viele haben halt DVDs und Blu Rays gekauft und warum dann nicht diese zur Verfügung haben ohne lästiges wechseln, mit einer Weboberfläche/ UI wie im Streaming Dienst und ohne Werbung :-)

Deshalb sind die iGPU Prozessoren hier so gefragt, weil die das mit sehr geringem Stromverbrauch können.
 
...wenn ich es also richtig verstanden habe (übertrieben gesagt):
Leute rippen Blurays o.ä. in Originalquali und streamen es dann auf Geräte, die die Auflösung nicht ruckelfrei abspielen können. Deswegen muss der Server, von dem gestreamt wird das hochqualitative Ausgangsmaterial auf Kartoffelqualität runterkodieren, damit es auf dem Gerät läuft (oder alternativ eben durch das "WLan-Kabel" passt). Die CPU vom Server ist zu schwachbrüstig um es selber hinzukriegen, deswegen muss eine ded. GPU herhalten.

Ist auf jeden Fall ein valider Anwendungsfall, auch wenn ich der Meinung bin dass man das Problem anders lösen könnte.
das und wohl einige "plex addons" sind wohl der Grund aus dem rechtlichen grau/schwarz Bereich
Beitrag automatisch zusammengeführt:

Das ist falsch verstanden. Endgeräte unterstützen nicht immer alle Codecs (z.B. aus Lizenzgründen). Einen Film hält man nur in einem Codec vor, dementsprechend muss man transkodieren. Viele haben halt DVDs und Blu Rays gekauft und warum dann nicht diese zur Verfügung haben ohne lästiges wechseln, mit einer Weboberfläche/ UI wie im Streaming Dienst und ohne Werbung :-)

Deshalb sind die iGPU Prozessoren hier so gefragt, weil die das mit sehr geringem Stromverbrauch können.
wenn man @ Home Linzenzfrei filme hat sind die immer in codecs die frei verfügbar sind .... frag dich warum manche es wohl nicht sind :)
 
Für mich ist Transcoding auch ein PaL (Problem anderer Leute - oder noch hübscher auf Englisch: Poop - Problem of other people). ;) Wer mit irgend'nem Codec komprimiert, hat einfach nur nicht genug Speicherplatz... :d

Scherz beiseite: soll jeder machen wie er mag, mein Usecase ist das einfach nicht - ich guck' die wenigsten Sachen mehr als 1x, d.h. eine große Sammlung lohnt für mich eh nicht.
 
Ich verwend gern Desktop-VMs, also einfach per Spice nen Remote Desktop aufmachen, auf dem ich halt gewisse Arbeiten durchführen kann auf dem virtuellen OS dort.
Ist für mich praktisch so, das soll die CPU und den RAM vom Server belasten, außerdem kanns dort in Ruhe durchlaufen, auch wenn ich meinen Desktop abdrehe, abschieße oder sonst was.

Hatte da aber diese und jene Probleme mit Performance und Abstürzen (also in der VM, der Host selbst war stabil), hab das auf diese virtuellen Grafikbeschleunigungen (QXL) zurückgeführt, hatte da aber auch TrueNAS als Hypervisor, was wohl nicht ideal ist (obwohl KVM/Qemu... aber wohl von der Konfiguration her.. Proxmox läuft ersten Versuchen nach stabiler).
Auch für Virtual-GL braucht man ja ne GPU... muss zwar nicht "spaltbar" sein (SR-IOV), aber immerhin noch ne GPU, der AS2500 allein reicht dafür nicht. Die iGPU vom 5650G tuts wohl.

Bisher ist der große Erfolg aber ausgeblieben, ich fürchte, dass das (auch) an der Refresh-Rate von Qemu liegt, die wohl bei 33 Hz liegt und nicht einstellbar ist (weil hardcoded), ohne Qemu custom zu kompilieren.

So viel von mir zur iGPU.
 
Ich verwend gern Desktop-VMs, also einfach per Spice nen Remote Desktop aufmachen, auf dem ich halt gewisse Arbeiten durchführen kann auf dem virtuellen OS dort.
Ist für mich praktisch so, das soll die CPU und den RAM vom Server belasten, außerdem kanns dort in Ruhe durchlaufen, auch wenn ich meinen Desktop abdrehe, abschieße oder sonst was.

Hatte da aber diese und jene Probleme mit Performance und Abstürzen (also in der VM, der Host selbst war stabil), hab das auf diese virtuellen Grafikbeschleunigungen (QXL) zurückgeführt, hatte da aber auch TrueNAS als Hypervisor, was wohl nicht ideal ist (obwohl KVM/Qemu... aber wohl von der Konfiguration her.. Proxmox läuft ersten Versuchen nach stabiler).
Auch für Virtual-GL braucht man ja ne GPU... muss zwar nicht "spaltbar" sein (SR-IOV), aber immerhin noch ne GPU, der AS2500 allein reicht dafür nicht. Die iGPU vom 5650G tuts wohl.

Bisher ist der große Erfolg aber ausgeblieben, ich fürchte, dass das (auch) an der Refresh-Rate von Qemu liegt, die wohl bei 33 Hz liegt und nicht einstellbar ist (weil hardcoded), ohne Qemu custom zu kompilieren.

So viel von mir zur iGPU.

Moonlight
 
Ja, Transkoding ist für viele keine notwendige Sache, aber dieses Rumgelaber ala transkodieren in Kartoffelqualität nervt etwas. Es gibt dafür Anwendungsfälle (brauche es selber nicht mehr). Wenn's bei einem selbst nicht so ist, super. Aber man ist halt nicht jeder.
 
Find die Diskussion hier auch verkehrt, passt nicht ins Thema.
Wenn jemand ne iGPU/GPU/vGPU will oder braucht, dann will oder braucht er sie eben.

Die Frage ob man das wirklich braucht ist ja durchaus legitim, wenn es nämlich so ein großes kaum lösbares Problem ist (reset bug, fehlende SR-IOV Möglichkeit, Verfügbarkeit Pro-CPU), dass das Weglassen die Lösung ist.
=> Die Frage nach dem Bedarf ist nicht falsch, aber ne Grundsatzdiskussion draus zu machen halte ich für unangebracht.

Nicht vergessen, in diesem Unterforum haben wir uns lieb und helfen einander, wir sind hier ja nicht im Prozessor-Forum oder im OT... ❤️
 
sollte von euch noch jmd netzteile für das gigabyte brett suchen, schaut euch mal die anzeige an:
netzteile
hab mir gerade 4 sf450 für 180.- geholt
der hat aber auch noch etliche 650er, ein 1000er seasonic prime, einige gx650 ... aber fragt einfach selbst nach, was sonst noch da ist
 
sollte von euch noch jmd netzteile für das gigabyte brett suchen, schaut euch mal die anzeige an:
netzteile
hab mir gerade 4 sf450 für 180.- geholt
der hat aber auch noch etliche 650er, ein 1000er seasonic prime, einige gx650 ... aber fragt einfach selbst nach, was sonst noch da ist

Wo sind die denn vom LKW gefallen? :eek:
 
Ja, Transkoding ist für viele keine notwendige Sache, aber dieses Rumgelaber ala transkodieren in Kartoffelqualität nervt etwas. Es gibt dafür Anwendungsfälle (brauche es selber nicht mehr). Wenn's bei einem selbst nicht so ist, super. Aber man ist halt nicht jeder.
Dich nervt, dass ich in meinem Beispiel (angekündigt!) übertrieben habe?

Was viele bei der APU Geschichte vergessen, ist dass die APUs iirc nur 16 Lanes PCIe Gen 3 (!) haben. Damit beschneidet man potentiell auch sehr viel Performance.
 
Ne, haben schon genug Lanes, nur halt x8x4x4 Bifurication und kein x4x4x4x4
Das mit 3.0 stimmt natürlich.

In den meisten Fällen aber wohl keine "Bremse", am MC12LE0 sicher nicht.

Man bekommt immerhin nen ausgewachsenen HBA rein, 2 M.2 an der CPU Lane, 1x M.2 Bootdrive und eine NIC.
Dafür reicht PCIe 3.0 eigentlich auch aus.

Mehr Lanes hat der "normale" Zen 3 auch nicht, nur Bifurication ist etwas flexibler (man bekommt halt 4 M.2 in den x16 Slot).

=> Halb so wild.
Aber ja, wenn man keine iGPU braucht, ist der "normale" natürlich besser.
 
GA MC12-LE0 mit 5950X
ja. Hätte ich vor zwei Stunden gesagt. Aber um 18:45 ist das Ding plötzlich stehen geblieben. Ich konnte noch in der BMC sehen, dass er meldete "VCORE low 0,0V" osä. Der Rechner ließ sich über BMC weder resetten, noch powercyceln, noch ausschalten. Noch habe ich den ECO-Modus nicht drin. Aber ich könnte mir vorstellen, dass die VRMs nicht gut genug gekühlt wurden und habe, weil die Kühlung Potential (2x Front-, 1x CPU und 1x Backside-Fan) hat, ein neues Lüfterprofil erstellt und gestartet. Zumindest grafisch sehen die VRM-Temperaturen jetzt deutlich besser aus (stabil 40-43°C). Muss man beobachten.
Wahrscheinlich will ich aber sowieso zu der ECO-Einstellung. Ich verwende F15. Proxmox-UI meldet 2-10% Load.
root@ppve:~# uptime
17:54:42 up 6 days, 7:36, 2 users, load average: 2.59, 3.04, 3.27
(und vor 6 Tagen war das ein absichtlicher Reboot)

Zusätzlich habe ich den ECO-Mode (65W) drin. Aber ich glaube, es war der Luftstrom um die VRMs.

Seitdem das Ding läuft, habe ich aber den Eindruck, dass ich ein Spulenfiepen höre. Bin dem noch nicht nachgegangen, aber wüsste nicht, was es anderes sein sollte.

Zu den Leuten, die (wahrscheinlich aus Kostengründen) WD SN700 oder SN770 nehmen wollen - an anderer Stelle hatte ich damit Probleme mit ASPM (musste ordentlich abgeschaltet werden oder das Log wurde zugespammt, vielleicht war das auch ein Bug, aber schon das Logzumüllen kann die System-SSD schnell kaputtmachen). Von daher, Samsung 990 Pro oder NM790.
 
Bis jetzt habe ich hier noch niemandem gesehen, bei dem ASPM tatsächlich auf dem Brett lief.
Code:
dmesg | grep ASPM
 
Zuletzt bearbeitet:
Bis jetzt habe ich hier noch niemandem gesehen, bei dem ASPM tatsächlich auf dem Brett lief.
Code:
dmesg | grep ASPM
ich hab mir gerade mal die letzten Seiten durchgelesen und bin hier drüber gestolpert: ich hab eine Arc A310 im PCIe x4 slot, welche laut verschiedener Quellen (bspw. Jellyfin) was den Energieverbrauch angeht massiv von ASPM profitieren sollte.
Ich hatte schonmal im BIOS gesucht, konnte aber nichts dazu finden.
(Wie) Kann ich überhaupt ASPM auf dem MC12-LE0 konfigurieren?
Okay, nachdem ich jetzt einen reichlichen Monat zurückgelesen habe, scheint es keine BIOS Option für ASPM zu geben.
Mit echo powersave > /sys/module/pcie_aspm/parameters/policy wird ASPM aber tatsächlich bei einigen PCIe Geräten aktiviert... bin gespannt, ob das Strom spart.

Und da ja hier viel über Transcoding und die Notwendigkeit dazu diskutiert wurde: Ich habe mir ein NAS auf Basis des MC12-LE0 gebaut
Ryzen PRO 4650G
32GB ECC RAM
4x18TB HDDs
2x1TB (WD SN700)
LSI 9211-8i HBA
I225-V NIC
SATADOM zum Boot von TrueNAS SCALE
und eben seit Kurzem: Sparkle A310 Eco.

Die SSDs sitzen auf einem Splitter, an dem auch der HBA steckt.
Der NIC ist eine M.2 Karte (und hat interessanterweise auch nur einen PCIe 3.1x1 Anschluss).
Mein Plan war, die iGPU des 4650G an meine mediastack VM (Ubuntu 24.04) durchzureichen, die auf dem TrueNAS läuft.
Das hat leider nicht funktioniert. Ich habe dazu im TrueNAS Forum einen Thread verfasst...
Ich brauche Transoding auch nicht, weil man Netzwerk zu schwach wäre.
Ich möchte aber in der Lage sein, auch unterwegs per VPN Inhalte von meinem NAS aufs Smartphone oder den Laptop zu streamen, dabei ist die Bandbreite dann durchaus begrenzt.
Außerdem kann es vorkommen, dass mein TV (LG 55" OLED B9) den einen oder anderen Codec nicht selbst kann. Auch da muss Jellyfin transcoden (und sei es nur wegen Untertiteln, auch das hatte ich schon).
Auf der CPU macht das keinen Spaß...
Deshalb lebt seit Kurzem die A310 im PCIe x4 Slot (auch wenn sie offenbar nur mit PCIe 1.0x1 läuft - keine Ahnung wieso).
Diese an die Ubuntu VM zu reichen funktioniert im Gegensatz zur iGPU problemlos und trotz der geringen Linkgeschwindigkeit habe ich schon 4 Streams gleichzeitig von 30-80Mbps HEVC Quelldateien auf 4-20Mbps H264 und AV1 getestet.

Das Board ist jetzt also sozusagen voll bestückt und macht seine Sache dabei wunderbar.
 
Zuletzt bearbeitet:
Bis jetzt habe ich hier noch niemandem gesehen, bei dem ASPM tatsächlich auf dem Brett lief.
Code:
dmesg | grep ASPM
Welche Ausgabe ist denn dort erwartet?

Code:
root@prox1:~# dmesg | grep ASPM
[    1.016320] acpi PNP0A08:00: _OSC: OS supports [ExtendedConfig ASPM ClockPM Segments MSI EDR HPX-Type3]
root@prox1:~# lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.] +| ASPM )' 
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCap: Port #0, Speed 16GT/s, Width x8, ASPM L1, Exit Latency L1 <32us
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s unlimited, L1 unlimited
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <2us, L1 <32us
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <2us, L1 <32us
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <2us, L1 <32us
                LnkCap: Port #6, Speed 8GT/s, Width x1, ASPM L1, Exit Latency L1 <64us
                LnkCap: Port #7, Speed 8GT/s, Width x1, ASPM L1, Exit Latency L1 <64us
                LnkCap: Port #8, Speed 8GT/s, Width x1, ASPM L1, Exit Latency L1 <64us
                LnkCap: Port #9, Speed 8GT/s, Width x1, ASPM L1, Exit Latency L1 <64us
                LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <2us
                LnkCap: Port #0, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <8us
                LnkCap: Port #8, Speed 2.5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <16us
                LnkCap: Port #9, Speed 2.5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <2us, L1 <16us
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                LnkCap: Port #0, Speed 16GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
 
Der NIC ist eine M.2 Karte (und hat interessanterweise auch nur einen PCIe 3.1x1 Anschluss).
Logisch, 1 GB/s reicht ja für 280 MB/s.
Mein Plan war, die iGPU des 4650G an meine mediastack VM (Ubuntu 24.04) durchzureichen, die auf dem TrueNAS läuft.
AMD Reset-Bug...
Ist am Ende nur für Virtual-GL zu brauchen, welches aber vom TrueNAS Hypervisor nicht unterstützt wird (und inwiefern das Virtual-GL tatsächlich was kann, kann ich nicht sagen.. meine Versuche waren eher ernüchternd, was aber an anderen Dingen liegen könnte, namentlich der Refresh-Rate des Qemu Displays, welche hardcoded 33Hz ist.).
Deshalb lebt seit Kurzem die A310 im PCIe x4 Slot (auch wenn sie offenbar nur mit PCIe 1.0x1 läuft - keine Ahnung wieso).
Wie ist der Verbrauch von dem Kram so?


Mich wundert, dass du nen HBA verwendest, wenn du TNS offenbar eh baremetal laufen hast, genug SATA hättest ja. Aber warum auch nicht, wird schon einen Grund haben, mag da gar nicht rein reden.
 
Wie ist der Verbrauch von dem Kram so?
Zusatzinfo: das Netzteil ist ein be quiet System Power 9 400W CM. Das ist leider nur 80+ Bronze zertifiziert, wird also bei der Auslastung nur ca. 83-84% effizient sein schätze ich.
Außerdem habe ich noch 3 120mm Lüfter verbaut.
Ein TP-Link Tapo P110 misst den Energieverbauch.
Vor Einbau der A310 lag das NAS im Idle durchschnittlich bei 57W, jetzt eher bei ca. 66W.
Unter Last (mehrere Jellyfin Streams mit Transcoding, Datenverkehr...) geht der Verbrauch aber auch deutlich nach oben.

ja, ich meine mich an Fehlermeldungen zum Reset zu erinnern 😅

Mich wundert, dass du nen HBA verwendest, wenn du TNS offenbar eh baremetal laufen hast, genug SATA hättest ja.
In der TrueNAS Community wird immer wieder dazu geraten, einen "ordentlichen" HBA zu verwenden.
Vor dem MC12-LE0 lief das NAS auf einem ASUS B450M-K II. Das hat leider nur 4 SATA Ports und ich brauchte damals mehr (ich hatte noch 2 500GB MX500 als SSD-Mirror).
Ich habe also eine klassische ASM1166-basierte PCIe x1 Karte gekauft...und hatte massive Probleme mit CRC Fehlern und spontan nicht mehr erkannten Geräten.
Also ich das Board gewechselt und die MX500s durch SN770s ersetzt hatte, hätte ich den HBA nicht mehr dringend gebraucht, ich hatte so aber ein deutlich sichereres Gefühl aufgrund meiner vorherigen Erfahrungen.
Außerdem bootet mein TrueNAS jetzt wie gesagt von einem SATADOM. Vor Kurzem war im M.2 Slot noch ein 16GB Optane Modul verbaut und ich hatte eine normale PCIe Karte mit RTL8125 als NIC.
Um Platz für die A310 zu machen, musste ich aber den PCIe x4 Slot frei kriegen.
Jetzt habe ich also 5 SATA Geräte in Nutzung. Das DOM steckt direkt auf dem Board, die HDDs am HBA.
 
ja, ich meine mich an Fehlermeldungen zum Reset zu erinnern 😅
Ist der Error 127, meine ich.
In der TrueNAS Community wird immer wieder dazu geraten, einen "ordentlichen" HBA zu verwenden.
Halte ich für unnötig, wenn TNS direkt installiert ist, in der VM per Passthrough natürlich was anderes, wenn die Onboard SATA Controller in einer ungünstigen IMMOU Gruppe sind, was wohl gern der Fall ist (weiss gerade nicht wie das beim MC12 ist, glaube aber leider recht schlecht).

Imho kannst den genau so gut weglassen, spart dir wsl 7-10W. Soll aber keine negativ-Kritik sein... nur falls du noch Platz fürn PCIe Gerät brauchst, kannst das in Betracht ziehen.
Ich habe also eine klassische ASM1166-basierte PCIe x1 Karte gekauft...und hatte massive Probleme mit CRC Fehlern und spontan nicht mehr erkannten Geräten.
Hm spannend, könnten auch ranzige Kabel sein... ASM1166 hab ich leider keinen hier, würde den aber gern mal testen. Ist mir aber keine 30-40€ wert, um die ich auf ebay aus China nen 9207-9300 8i mit Kabeln und it-Firmware bekomme. Hätte aber gern mal beim ASM1166 das PCIe Passthrough probiert, der ähnliche JMB585 dürfte auch ne Art Reset-Bug haben.
 
Imho kannst den genau so gut weglassen, spart dir wsl 7-10W. Soll aber keine negativ-Kritik sein... nur falls du noch Platz fürn PCIe Gerät brauchst, kannst das in Betracht ziehen.
ist prinzipiell sicherlich eine Idee, aktuell habe ich aber wie gesagt eh 5 SATA Geräte....
Falls ich tatsächlich noch mehr PCIe frei bräuchte, könnte ich TNS sicher auch von einer USB SSD booten, die A310 an den PCIe Splitter stecken und den HBA weglassen, sobald ich aber vielleicht doch noch eine Platte dazustecken wöllte, bräuchte ich wieder einen HBA...

Hm spannend, könnten auch ranzige Kabel sein... ASM1166 hab ich leider keinen hier, würde den aber gern mal testen. Ist mir aber keine 30-40€ wert, um die ich auf ebay aus China nen 9207-9300 8i mit Kabeln und it-Firmware bekomme. Hätte aber gern mal beim ASM1166 das PCIe Passthrough probiert, der ähnliche JMB585 dürfte auch ne Art Reset-Bug haben.
Sicherlich möglich mit den Kabeln, waren aber eigentlich recht ordentliche...
ASM1166 Karten kann ich aber allgemein nicht empfehlen. Ich hatte auch eine in meinem alten PC (Ryzen 3600, ASRock Fatal1ty B450 Gaming K4...), die sich geweigert hat, eine Crucial MX500 zu erkennen. Eine andere MX500 hat wunderbar funktioniert. Beide MX500 wurden mit den selben Kabeln übrigens vom ASM1061 auf dem Mainboard erkannt.
Kann natürlich auch sein, dass ich mit ASM1166 bisher einfach Pech hatte...
Beitrag automatisch zusammengeführt:

Gute Frage, aber Du bist der erst mit nem Screenshot dazu, hast es also erfolgreich hinbekommen.
Nach echo powersave > /sys/module/pcie_aspm/parameters/policy habe ich jetzt auch einige Geräte mit ASPM, hier beispielhaft die Ausgabe von lspci -vv für meine A310:

Code:
03:00.0 VGA compatible controller: Intel Corporation DG2 [Arc A310] (rev 05) (prog-if 00 [VGA controller])
        Subsystem: Device 172f:4019
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR+ FastB2B- DisINTx-
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin ? routed to IRQ 150
        IOMMU group: 14
        Region 0: Memory at ed000000 (64-bit, non-prefetchable) [size=16M]
        Region 2: Memory at fe00000000 (64-bit, prefetchable) [size=4G]
        Expansion ROM at ee000000 [disabled] [size=2M]
        Capabilities: [40] Vendor Specific Information: Len=0c <?>
        Capabilities: [70] Express (v2) Endpoint, MSI 00
                DevCap: MaxPayload 128 bytes, PhantFunc 0, Latency L0s <64ns, L1 <1us
                        ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 0W
                DevCtl: CorrErr- NonFatalErr- FatalErr- UnsupReq-
                        RlxdOrd+ ExtTag+ PhantFunc- AuxPwr- NoSnoop+ FLReset-
                        MaxPayload 128 bytes, MaxReadReq 128 bytes
                DevSta: CorrErr- NonFatalErr- FatalErr- UnsupReq- AuxPwr- TransPend-
                LnkCap: Port #0, Speed 2.5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <64ns, L1 <1us
                        ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk-
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 2.5GT/s, Width x1
                        TrErr- Train- SlotClk- DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Range B, TimeoutDis+ NROPrPrP- LTR+
                         10BitTagComp+ 10BitTagReq+ OBFF Not Supported, ExtFmt+ EETLPPrefix-
                         EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
                         FRS- TPHComp- ExtTPHComp-
                         AtomicOpsCap: 32bit- 64bit- 128bitCAS-
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR- 10BitTagReq- OBFF Disabled,
                         AtomicOpsCtl: ReqEn-
                LnkCap2: Supported Link Speeds: 2.5GT/s, Crosslink- Retimer- 2Retimers- DRS-
                LnkCtl2: Target Link Speed: 2.5GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
                LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete- EqualizationPhase1-
                         EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
                         Retimer- 2Retimers- CrosslinkRes: unsupported
        Capabilities: [ac] MSI: Enable+ Count=1/1 Maskable+ 64bit+
                Address: 00000000fee00000  Data: 0000
                Masking: 00000000  Pending: 00000000
        Capabilities: [d0] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold-)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [100 v1] Alternative Routing-ID Interpretation (ARI)
                ARICap: MFVC- ACS-, Next Function: 0
                ARICtl: MFVC- ACS-, Function Group: 0
        Capabilities: [420 v1] Physical Resizable BAR
                BAR 2: current size: 4GB, supported: 256MB 512MB 1GB 2GB 4GB
        Capabilities: [400 v1] Latency Tolerance Reporting
                Max snoop latency: 0ns
                Max no snoop latency: 0ns
        Kernel driver in use: vfio-pci
        Kernel modules: i915

In dmesg sind dabei keine neuen Meldungen aufgetaucht.
 
Zuletzt bearbeitet:
Bei den bifurcation Karten PCIe x8x4x4 wie macht ihr das mit den Slotblenden? Ich würde gerne ein HBA in dem PCIe x8 Slot betreiben. Das ist aber recht instabil, ohne Slotblende.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh