Gigabyte Mainboard MC12-LE0 AM4, IPMI, Dual Intel GB Lan ECC fähig

Mal eine kurze Rückmeldung bei was für Verbauchswerte meine Kiste läuft:
  • Ryzen 5650G
  • 4x Kingston 32GB 3200 ECC
  • Gigabyte MC12-LE0
  • 2x Intel S4510 3,84 TB SATA SSD (ZFS Data Pool)
  • Seagate Firecuda 530 1 TB NVME SSD (ZFS VM Pool)
  • Gigabyte Aorus 1 TB NVME SSD (ZFS VM Pool)
  • Samsung EVO 860 500 GB SATA SSD (ZFS Root)
  • BeQuite Pure Power 10 400W
Komme mit PVE 8.2.x ohne VMs oder LXCs auf etwa 26 - 27 W im Idle. Mit VMs und LXCs aktiv bin ich im Durchschnitt bei etwa 33 W.
AMD Pstate als "active" konfiguriert. Default PPT. iGPU deaktiviert. Noch ein paar kleinere Einstellung im UEFI.

Ich denke mit einer Pico PSU würde man Richtung 22 - 23 W, bzw. 28 - 29 W kommen. Aber egal, alleine die Rack APC spuckt mir mit einem Verlust von 30 saftig in mein Gesicht. Und nein, sie ist nicht steinalt oder defekt. Sie ist einfach für einen anderen Lastbereich ausgelegt. Daher weniger Last, änhlich wie bei normalen ATX Netzteilen im Homeserver. :)

Wenn jemand einen guten Tuip für eine USV mit etwa 200 bis 250W Leistung und Monitoring Möglichkeit über TCP/IP, wäre ich sehr dankbar! :)

Ich möchte auch gerne nochmal auf meine Bitte ein paar Post vorher verweisen. :P

EDIT: Wundert euch nicht über die bunt gemischten SSDs, sind alt Bestände die zu Schade sind zum lagern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dank Pauls Hilfe hab ich es gerade geschafft, den iKVM-Viewer fuer RFB/VNC mit einem neu gebackenen OpenBMC-Image zum Laufen zu bekommen. Das ist so schoen, ich muss das erstmal per einschlaegigem Screenshot teilen :'D

Screenshot_20240601_174328.png
Beitrag automatisch zusammengeführt:

@techsolo12 zwar nicht *genau* das, was du suchst, aber mein Desktop (hat auch einen 5650G auf einem ASRock B550M-ITX/AC im Bauch und bootet momentan Linux 6.9) zeigt mir das hier:

Code:
$ grep . /sys/devices/system/cpu/cpu0/cpufreq/{scaling_driver,scaling_governor,energy_performance_preference,energy_performance_available_preferences}
/sys/devices/system/cpu/cpu0/cpufreq/scaling_driver:amd-pstate-epp
/sys/devices/system/cpu/cpu0/cpufreq/scaling_governor:powersave
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference:performance
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_available_preferences:default performance balance_performance balance_power power
 
Dank Pauls Hilfe hab ich es gerade geschafft, den iKVM-Viewer fuer RFB/VNC mit einem neu gebackenen OpenBMC-Image zum Laufen zu bekommen
Ich kann fast fühlen, wie du ein Tränchen rausgedrückt hast :-) Jetzt dokumentier mal den Stand bis dahin, damit es nicht wegen nem Blitzeinschlag alles weg ist!!! :-) Falls du Hilfe brauchst, einfach Bescheid geben, dokumentieren kann ich gut.
 
Hab ich heute schon auf HN gesehen, ja, danke ;) Morgen kommt hoffentlich mein SPI-Programmer - bin schon gespannt, damit erste Experimente zu wagen. Ist wohl nur eine Frage der Zeit, bis ich den mal wirklich brauche - bis jetzt konnte ich meinen Firmware-Kopf aber immer noch mittels u-boot oder culvert/gigaflash am Host irgendwie aus der Schlinge ziehen!

Heute hab ich mal nichts in Richtung Portierung geleistet - aber ich hab mich mal drangesetzt, mein Dev-Environment in eine eher dauerhafte Loesung umzuwandeln (momentan lebt das alles nur in einem 110GB tmpfs, weil mein Buildhost keine vernuenftige Disk hat...), damit ich alle die Hacks, die momentan gegen vorhandene OpenBMC-Komponenten aufgehaeuft habe, in ein eigenes Device Tree-Machwerk ueberfuehren kann (frueher oder spaeter). Ich glaube, dass ich damit auch einer ersten Veroeffentlichung von konkreten Arbeitsschritten bzw. Artefakten zur Nachvollziehbarkeit der bisherigen Arbeit naeher kommen werde.

Die Yocto-Workflows sind leider immer noch etwas undurchschaubar fuer mich, sodass ich mir massiv mit Cheatsheets und der Shell History behelfen muss... aber es wird langsam besser. Ich hoffe sehr, dass auch die I2C/Sensor-Thematik geloest werden kann, und dass, sobald das ganze auch gegen aktuelles git HEAD richtig baut, mit dem OpenBMC-vue-WebUI auch wieder alles in Ordnung kommt. Aber ehrlich gesagt haette ich mir urspruenglich nicht gedacht, ueberhaupt bis hierher, zum momentanen Status Quo, kommen zu koennen - und absolut nicht zuletzt dank Pauls kompetenter Hilfe (und auch dank seines extrem ansteckenden Enthusiasmus :d) hab ich mittlerweile stark das Gefuehl, dass am Ende der bemuehungen eine voll funktionsfaehige OpenBMC-Firmware fuer den MC12-LE0-BMC stehen wird :d
 
@techsolo12 zwar nicht *genau* das, was du suchst, aber mein Desktop (hat auch einen 5650G auf einem ASRock B550M-ITX/AC im Bauch und bootet momentan Linux 6.9) zeigt mir das hier:

Code:
$ grep . /sys/devices/system/cpu/cpu0/cpufreq/{scaling_driver,scaling_governor,energy_performance_preference,energy_performance_available_preferences}
/sys/devices/system/cpu/cpu0/cpufreq/scaling_driver:amd-pstate-epp
/sys/devices/system/cpu/cpu0/cpufreq/scaling_governor:powersave
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference:performance
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_available_preferences:default performance balance_performance balance_power power

Danke für die Werte, leider hilft mir das nicht ganz weiter. Auf meinem ASRock Rack X570D4U hatte ich die Parameter auch, aber auf dem MC12-LE0 leider nicht mehr. Kann dies vielleicht bitte noch jemand verifizieren?
 
FTR, das MC12-LE0, das ich hier zum Herumhacken an OpenBMC mit einem 4560G betreibe, wirft mit dem aktuellen grml das hier:

Code:
# uname -r && grep . /sys/devices/system/cpu/cpu0/cpufreq/{scaling_driver,scaling_governor,energy_performance_preference,energy_performance_available_preferences}
6.6.15-amd64
/sys/devices/system/cpu/cpu0/cpufreq/scaling_driver:amd-pstate-epp
/sys/devices/system/cpu/cpu0/cpufreq/scaling_governor:powersave
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference:performance
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_available_preferences:default performance balance_performance balance_power power
 
welche Werte hast Du nicht (mehr)?
FTR, das MC12-LE0, das ich hier zum Herumhacken an OpenBMC mit einem 4560G betreibe, wirft mit dem aktuellen grml das hier:

Code:
# uname -r && grep . /sys/devices/system/cpu/cpu0/cpufreq/{scaling_driver,scaling_governor,energy_performance_preference,energy_performance_available_preferences}
6.6.15-amd64
/sys/devices/system/cpu/cpu0/cpufreq/scaling_driver:amd-pstate-epp
/sys/devices/system/cpu/cpu0/cpufreq/scaling_governor:powersave
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference:performance
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_available_preferences:default performance balance_performance balance_power power
Dickes Danke fürs checken! :)
Bei mir fehlen einige der "energy_performance_available_preferences". Meine Aussabe sieht wie folgt aus.

Code:
/sys/devices/system/cpu/cpu0/cpufreq/scaling_driver:amd-pstate-epp
/sys/devices/system/cpu/cpu0/cpufreq/scaling_governor:performance
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference:performance
/sys/devices/system/cpu/cpu0/cpufreq/energy_performance_available_preferences:performance

Ich würde gerne "power" oder "balanced_power" fahren. Hast du das Board komplett auf "default" laufen?
 
Ich würde gerne "power" oder "balanced_power" fahren. Hast du das Board komplett auf "default" laufen?
Ich hab jetzt alles nochmal durchgeschaut (CMOS-Setup-Zugriff via VNC regelt! :d), und mir waere in Sachen Powermgmt nix aufgefallen, was nicht auf "Auto" oder "Default" steht. BIOS-Release ist bei mir F14 uebrigens (die Version mit iGPU-Support, aber die iGPU ist hier deaktiviert).
 
Verwendet ihr eigentlich alle ein Storage Controller

Ich habe aktuell vier SATA Datenplatten. Eigentlich habe ich mir überlegt den Pool direkt in Proxmox mit raid zu erstellen und einzelne Ordner direkt einzubinden. Ich denke so habe ich die bessere Performance als wenn ich NFS/SMB verwende.
Für SMB hätte ich ein kleinen Container erstellt da das wenig benötigt.

Nun habe ich erneut mehrere Beiträge gefunden das man darauf in Proxmox verzichten soll und den Controller durchzureichen. Wie seht ihr das?
Hat schon jemand den Delock SATA Controller PCI-Ex4-6x verwendet?
 
@Pixolantis
Ich habe an meinem Proxmox-Host auch 4 SATA-Platten und Proxmox kümmert sich um ZFS. Ich habe einfach ein Subvolume angelegt, was ich direkt in meinen kleinen SMB-Container kippe. Bisher nichts negatives aufgefallen dazu. Ich spare mir die eventuell nötigen Klimmzüge mit dem IOMMU-Gruppen und was einem sonst noch in die Parade fahren könnte. Und habe dank LXC einen minimalen Overhead und muss keine vollwertige VM nur für eine SMB-Freigabe bereitstellen.
 
Verwendet ihr eigentlich alle ein Storage Controller

Ich habe aktuell vier SATA Datenplatten. Eigentlich habe ich mir überlegt den Pool direkt in Proxmox mit raid zu erstellen und einzelne Ordner direkt einzubinden. Ich denke so habe ich die bessere Performance als wenn ich NFS/SMB verwende.
Für SMB hätte ich ein kleinen Container erstellt da das wenig benötigt.

Nun habe ich erneut mehrere Beiträge gefunden das man darauf in Proxmox verzichten soll und den Controller durchzureichen. Wie seht ihr das?
Hat schon jemand den Delock SATA Controller PCI-Ex4-6x verwendet?
ich reiche den kompletten controller durch; hab aber auch ein "paar" platten mehr dran. ist nicht wirklich aufwändig und hat den vorteil, dass ich in der vm volle kontrolle inkl herunterfahren, trim etc. über die platten habe
 
Zuletzt bearbeitet:
ich reiche den komplette controller durch; hab aber auch ein "paar" platten mehr dran. ist nicht wirklich aufwändig und hat den vorteil, dass ich in der vm volle kontrolle inkl herunterfahren, trim etc. über die platten habe
Was für ein Controller verwendest du?
Bei dem Board ist glaub die M.2 sowie SATA auf dem selben Controller und müsste im Bios angepasst werden.
Da ich für Proxmox ein Mirror verwende würde es bei mir nur mit externem Controller gehen oder ich steige auf eine M.2 fürs System ohne Mirror um.
 
Was für ein Controller verwendest du?
Bei dem Board ist glaub die M.2 sowie SATA auf dem selben Controller und müsste im Bios angepasst werden.
Da ich für Proxmox ein Mirror verwende würde es bei mir nur mit externem Controller gehen oder ich steige auf eine M.2 fürs System ohne Mirror um.
ich hab einen asm1166 im pcie x4 dran
edit: den hier habe ich dran
 
Zuletzt bearbeitet:
ich hab einen asm1166 im pcie x4 dran
edit: den hier habe ich dran
Interessante Karte. Merkst du bei so vielen Platten auf dem x4 keine Geschwindigkeitseinbussen?
In was für einer VM reichst du denn die Karte durch und was für ein RAID setzt du da ein? Wen ein Container Daten benötigt, gibst du das einfach als NFS durch?
Ich glaube da kommt der Bastler zum Vorschein :d

Edit: Gerade in einer Amazon Gewertung gesehen:
In Proxmox konnte ich die Karte nicht einfach als PCIE Gerät weiterreichen sondern hab der TrueNAS VM die Festplatten einzeln geben müssen.
Wie hast du das bei dir?
 
Zuletzt bearbeitet:
ich hab an der karte 6 x 16tb + 2x sata ssds unter einem virtuellen unraid dran. das durchreichen war überhaupt kein problem und performanceeinbußen -dank der pcie x2 anbindung des controllers- beim paritycheck sehe ich immo auch noch keine.
ich denke mal, dass der rezensent von amazon ein paar sachen nicht beachtet hat oder im netz die anleitungen nicht gelesen hat. (wahrscheinlich hat er vergessen iommu zu aktivieren oder kernelparameter beim start mit zu geben :confused:)

und solltest du es brauchen .... es gibt sogar die möglickeit die iommu gruppen aufzubrechen und den onboard sata controller durchzureichen (guckst du hier)

edit: und hier die anleitung, wie du smb oder nfs an einen unprivilegierten container durchreichst guckst du hier
edit2: und hier der link zum script, welches die ganze sache automatisiert und hier das script
 
Zuletzt bearbeitet:
Danke. Vielleicht teste ich das mal klingt Interessant.
Hat das ein Grund weshalb du Unraid verwendest? Ich nehme an dann wirst du dort die Docker Container (Falls vorhanden) verwenden anstelle in Proxmox mit einem Portainer?
(wahrscheinlich hat er vergessen iommu zu aktivieren oder kernelparameter beim start mit zu geben :confused:)
Das ist natürlich gut möglich. IOMMU ist bei mir aktiviert. Von welchen Kernelparametern sprichst du genau? Hast du zufällig eine Anleitung zur Hand falls ich es teste? Dann muss ich da nicht suchen :d

Bei dir machst du folglich alles mit NFS Share wenn ein Container Daten benötigt? Ich nehme an für die Container selber verwendest du trotzdem die Platten direkt in Proxmox?
 
Danke. Vielleicht teste ich das mal klingt Interessant.
Hat das ein Grund weshalb du Unraid verwendest? Ich nehme an dann wirst du dort die Docker Container (Falls vorhanden) verwenden anstelle in Proxmox mit einem Portainer?

Das ist natürlich gut möglich. IOMMU ist bei mir aktiviert. Von welchen Kernelparametern sprichst du genau? Hast du zufällig eine Anleitung zur Hand falls ich es teste? Dann muss ich da nicht suchen :d

Bei dir machst du folglich alles mit NFS Share wenn ein Container Daten benötigt? Ich nehme an für die Container selber verwendest du trotzdem die Platten direkt in Proxmox?
nope ... habe nur ganz wenige docker unter unraid laufen, das meiste habe ich in container unter dockge am laufen. unraid ... ganz einfach ... unterschiedliche plattengrößen möglich, ich hab alle platten am "schlafen", wenn ich sie nicht brauche (und das ist die meiste zeit) und ich komme mit wenig ressourcen aus .... unterm strich energiesparsam.
bzgl. modulen und kernelparametern hab ich ich mich an die proxmoxanleitung und dem hier gehalten
ich hab aktuell 8tb an nvme's bei mir drin ... ich reiche zu den containern, wenn überhaupt, nur backupshares über cifs durch. wenn ich was größeres bräuchte, dann über iscsi von meinem backupnas
 
Zuletzt bearbeitet:
Ich schreib mal hier rein, weils hier AM4 lastiger ist als überall anders.

Hab da ne Frage zu den Power-States S 0,1,2,3... ( https://learn.microsoft.com/de-de/windows/win32/power/system-power-states )

Wie war denn das mit SMT deaktivieren, irgendwelche Vorteile dadurch? Ich bin nämlich auf der Suche nach nem Crash-Grund für VMs (TrueNAS Scale als Host, ja, ist nicht ideal...).
Bzw. geht dann ja der Sleep-State nicht, verzeiht meine blöde Frage, aber was ist mit dem State genau gemeint? Gehts darum im Betrieb "Schlafzyklen" zu machen um Energie zu sparen? Oder geht es da jetzt rein ums "quasi Abschalten" wie mans bei Notebooks gern macht?
 
Ach, also nix, was einem fehlen würde.

So allgemein ganz interessant, hab in letzter Zeit öfter gelesen, dass es wohl teilweise nicht schlecht sein soll, SMT abzuschalten, wenn man genug Cores hat. Was dran ist, kein Plan.
 
dass es wohl teilweise nicht schlecht sein soll, SMT abzuschalten, wenn man genug Cores hat. Was dran ist, kein Plan.
Ich vertrete das lautstark hier, aber für Abstürze wird SMT nicht verantwortlich sein.
 
War allgemeine Neugier. Auch, obs am Desktop (5900X) eventuell sinnvoll sein könnte...

Ist das in gewissen Situationen tatsächlich so vorteilhaft?
 
Ach, also nix, was einem fehlen würde.

So allgemein ganz interessant, hab in letzter Zeit öfter gelesen, dass es wohl teilweise nicht schlecht sein soll, SMT abzuschalten, wenn man genug Cores hat. Was dran ist, kein Plan.
Angefangen hat das mit den Spectre und Meltdown Bugs. Um die auszumerzen musste Intel den Microcode ändern mit dem Ergebnis dass insbesondere die Leistung mit SMT massiv einbrach. Hat man bei diesen Prozessoren SMT abgeschaltet liefen die besser, vor allem im Hypervisor (ESXi Umfeld). Zukünftig wird Intel auf SMT sogar ganz verzichten (die E-Cores können ja jetzt schon kein SMT mehr).
Bei bestehenden aktuellen Systemen gibt es kein richtig oder falsch, da kommt es auf die Anwendung an. Ist sie gut skalierend kann SMT schon nützlich sein, benötigt man eher Single Core Leistung dann ausschalten.
Beitrag automatisch zusammengeführt:

War allgemeine Neugier. Auch, obs am Desktop (5900X) eventuell sinnvoll sein könnte...

Ist das in gewissen Situationen tatsächlich so vorteilhaft?
Am Desktop würde ich es tatsächlich mal ohne SMT probieren, die zwölf echten Kerne sollten für Desktop Aufgaben locker reichen.
 
@Pixolantis
Ich hab jetzt alles nochmal durchgeschaut (CMOS-Setup-Zugriff via VNC regelt! :d), und mir waere in Sachen Powermgmt nix aufgefallen, was nicht auf "Auto" oder "Default" steht. BIOS-Release ist bei mir F14 uebrigens (die Version mit iGPU-Support, aber die iGPU ist hier deaktiviert).
Ich habe jetzt das UEFI nochmal zurück gesetzt und nur die aller nötigsten Settings angepasst. Leider erhalten ich die dir angezeigten Optionen nicht.
Kannst du mir bitte die Microcode Version deiner CPU raussuchen? Vielleicht liegt dort der Hase im Pfeffer. UEFI Version ist die selbe wie bei dir.

Kann jemand mit einem 5650G bitte aus dem UEFI seine Microcode Version posten?
Endweder unter Linux mit dem Command:
Code:
dmesg | grep microcode
Oder im UEFI im CPU Info Reiter.

Vielen Dank schonmal sofern jemand dafür Zeit findet. :)
 
Zuletzt bearbeitet:
Kann jemand mit einem 5650G bitte aus dem UEFI seine Microcode Version posten?
Achtung, bei einem korrekt aufgesetzten GNU/Linux kann der ucode fuer die CPU auch aus der/einer initrd kommen.

Hier bei mir:
Code:
# Arch Linux (Desktop)
$ awk '/^microcode|^model name/{if(!a[$0]++){print $0}}' /proc/cpuinfo 
model name      : AMD Ryzen 5 PRO 5650G with Radeon Graphics
microcode       : 0xa50000f

Code:
# Debian 12 (anderes System, aber mit Gigabyte MC12-LE0 als Board)
$ awk '/^microcode|^model name/{if(!a[$0]++){print $0}}' /proc/cpuinfo
model name      : AMD Ryzen 5 PRO 5650G with Radeon Graphics
microcode       : 0xa50000f

Code:
# grml
$ awk '/^microcode|^model name/{if(!a[$0]++){print $0}}' /proc/cpuinfo 
model name      : AMD Ryzen 5 PRO 4650G with Radeon Graphics
microcode       : 0x8600109

Ich glaube nicht, dass deine ucode-Version mit den verfuegbaren PStates viel zu tun haben wird. Ist aber nur ein Bauchgefuehl, Belege habe ich keine :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh