[Kaufberatung] Heimserver Build

Traijan

Neuling
Thread Starter
Mitglied seit
13.03.2022
Beiträge
6
Hallo,
da mein Raspberry Pi mir mittlerweile zu schwach ist, bzw. manche Dinge für ARM Linux doch etwas zu schwer zu bekommen sind, wollte ich mir einen kleinen Heimserver bauen.
Ich hab noch einen Ryzen 5 5600G rumliegen, auf dessen Basis ich gerne aufbauen würde. Nach meinen Recherchen liegt der wohl so bei 20-23 Watt im Idle, das ist in Ordnung oder? (Kann man da noch mit meinem Mainboard nachhelfen?)

Natürlich soll er 24/7 laufen und dabei nicht zu viel Strom fressen, ich hoffe da könnt ihr mir weiterhelfen, da ich nicht viel Ahnung im dem Gebiet habe ^^'

Ich hab schonmal selber versucht mir Teile anzuschauen und bin bei diesen angekommen:

CPU: Ryzen 5 5600G

Mainboard: Asus Prime B450M-A II

HDDs: Seagate IronWolf 4 TB (aktuell erstmal eine, da ich zumindest gerade noch nicht mehr brauche, werden aber aufjedenfall noch mehr)

SSD (OS and VMs): SanDisk Ultra 3D SSD 500GB

Memory/RAM: Crucial Ballistix 32 GB

Netzteil: BN296 be Quiet! Pure Power 11 400W cm

PC Part Picker: https://pcpartpicker.com/list/kM2D2m


Ist das schon gut genug um Energieeffizient zu sein, oder kann man da noch mehr rausholen? Und kann sich einer vorstellen wie viel es im Idle wäre? Wenn es (ohne Festplatten) schon auf max. 40 Watt käme, wäre es ideal. Wenn die CPU zu viel Strom frisst wäre es auch kein Problem diese zu ändern, auch wenn ich natürlich lieber etwas nehmen würde was schon rumliegt ^^'

Der Server würde für das übliche genutzt werden: Media, NAS, Backup, Tasks, Webserver, VMs zum testen, vllt auch um damit dann einen Fernseher im Wohnzimmer zu nutzen (muss ich noch schauen) aber auch um darüber zu programmieren, da würde ich mir ein schönes Remote Setup machen.

Vielen Dank schonmal für jede Hilfe! :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist das schon gut genug um Energieeffizient zu sein, oder kann man da noch mehr rausholen?
Ne PicoPSU wäre noch ne Möglichkeit mehr Effizienz rauszuholen. Musste aber vor allem auf die Effizienz deines Steckernetzteils achten.

Ansonsten wäre die nächste Einsparung auf HDDs zu verzichten und direkt auf SSDs zu setzen. Vor allem wenn du nur kleinere Speichermengen im ein bis niedrigen zweistelligen TB Bereich benötigst.
 
PicoPSUs hab ich nicht wirklich verstanden wie die gehen, weil sah aus als wären die nur ein kleiner Chip, oder?
Ja, das könnte ich auch machen.

Würdest du sagen der Rest passt so?

Und vielen Dank :)
 
PicoPSUs hab ich nicht wirklich verstanden wie die gehen, weil sah aus als wären die nur ein kleiner Chip, oder?
Du hast nen externes Steckernetzteil was die Wandlung von 230V AC auf meist 19V DC vornimmt. Die PicoPSU wandelt dann die 19V DC auf 12V, 5V und 3.3V DC für deinen Rechner.

Würdest du sagen der Rest passt so?
Ich würde ne B550 Platine nehmen, so viel teuerer sind die nicht und der Chipsatz bietet endlich PCIe 3.0 an den Chipsatz Lanes.
 
Du hast nen externes Steckernetzteil was die Wandlung von 230V AC auf meist 19V DC vornimmt. Die PicoPSU wandelt dann die 19V DC auf 12V, 5V und 3.3V DC für deinen Rechner.


Ich würde ne B550 Platine nehmen, so viel teuerer sind die nicht und der Chipsatz bietet endlich PCIe 3.0 an den Chipsatz Lanes.

Okay danke, an den Rest hast du nichts auszusetzen? Wäre eine andere CPU vllt doch effektiver oder komme ich mit der schon gut mit?
 
Ich würde auch zu B550 greifen; man ärgert sich später fürchterlich wenn man was erweitern will und noch PCIe Gen 2 Slots hat.
Ferner würde ich nicht zu superbillig-Boards greifen. Typischerweise sind dann für die Effizienz eher suboptimale VRMs (Spannungsversorgung) drauf
B550M Tuf Gaming z.B. kann ich empfehlen und ist im Einsatz. Ordentliches Board, hat gut nutzbare Aufteilung der PCIe-Lanes und gute VRM. Downside ist: nur 4 Sata (dafür keine shared).

Wenn Du Storage ausbauen willst und das Ding mal 24/7 laufen soll: ECC-Ram und eine Pro-APU (4650G/4750G/5650G/5750G) andenken. Teilw. gehen für ECC aber die Menungen im Heimbereich auseinander.
Ohne ECC: 5600G+5700G sehr gute und sparsame CPUs. 20-25W Idle passt für eine Grundausstattung (HDD nicht mit einbezogen).

Pure Power 11 400W: hab ich auch im Einsatz.
Die Ultra 3D SSD kann man nehmen, wenn Du nicht zuviel Schreibvolumen auf den virtuellen Disks VMs hast. 500GB? Hm, Wäre mir tendenziell zu klein. Und den Sata-Port würde ich mir aufsparen für HDD-Storage.
=> Eine 1TB 970er Evo Plus m.2 NVME wäre da eher meine Wahl fürs System.

Ausserdem solltest Du wenn Du möglich wenig Leistungsaufnahme willst dann nicht anfangen, einen Stapel kleiner HDDs zu sammeln. Sondern gleich ordentlich mit HDD-Speicherplatz und Helium-Laufwerken einsteigen. Letztere sind gerade im Idle schön sparsam.

Welches Betriebssystem denkst Du an?
 
Zuletzt bearbeitet:
Ist es dieses hier? Oder ist es das nicht Plus Board was du gemeint hast?

Gut, wenn du sagst die 5600G die ich habe passt, dann behalte ich sie für's erste :) Sollte ich dann mein Storage ausbauen, würde ich mir eine CPU mit ECC holen, danke schonmal!

Tatsächlich kann ich nicht einschätzen wie viel ich brauchen werde für das OS + VMs. Vermutlich werden die VMs aber keine 250GB verbrauchen, da ich nur eine VM will an der ich testen kann und eine kleine Windows VM auf der ich für Windows builden kann, sollte ich den Sprung wagen auf Linux für meinen Desktop zu wechseln. Ansonsten müsste ich schauen, hab aber oft gelesen das man den M.2 Slot lieber für eine SATA-Erweiterung nutzen soll, womit man mehr SATA Ports gewinnt. Ist das doch eher zu vermeiden?
Und ist die Ultra 3D schlecht wenn viele Writes passieren?

Gut zu wissen, woran erkennt man das es Helium-Laufwerke sind? Steht das mit dabei oder hat es irgendeine Bezeichnung die das angibt? Ansonsten war ich am überlegen mir etwas zu installieren wo ich einstellen kann ab wann die HDDs in den Idle sollen, weil ich diese ja nicht immer brauche.

Ich hab mir überlegt erstmal mit Arch zu gehen, einfach weil ich gerne mit Linux arbeite und ich das was FreeNAS, unRAID, etc bieten nicht unbedingt benötige. Wird sich sehen ob es sich rentiert, probieren würde ich es aber sehr gerne :) (Bin auch kein Linux Neuling)

Kannst du dir vorstellen wie viel es im Idle brauchen wird oder bezogen sich die 20-25W schon auf das System ohne die HDDs? ^^'
PC Part Picker behauptet z.B.: 29W beim RAM, was ich mir nicht vorstellen könnte o_O
Laut Recherchen sollen Mainboards auch ganz schön viel verbrauchen, auch im "Idle"?

Bin neu im Hardware Bereich, deswegen diese ganzen Rückfragen, vielen Dank! :)
(Hab schon einen PC alleine zusammengebaut, die Teile hat aber ein Freund für mich rausgesucht damals)
 
Das "Plus" schreib ich immer nicht dazu. Ich meinte das B550M Plus Tuf Gaming . M = ist die MicroATX-Variante, ohne M ist es die ATX.

Mit 20-25W meinte ich das System im Idle, ohne verbaute HDD. Die exakte Leistungsaufnahme hängt im Detail von den Komponenten ab. FreeBSD-Systeme oder ESXI brauchen mehr.
Windows braucht in der Regel am wenigsten, Linux kannst ja ggü der Basisinstallation etwas optimieren.

Übrigens, wenn Du ohne 3,5"-Storage und Ausbaumaßnahmen auskommst und z.b. nur SSDs nimmst, kannst den Asrock Deskmini X300 mit dem 5600G ansehen.
Der hat dann etwa 7W im Idle unter Windows Desktop, Linux etwa 11W. Der hat halt keinen Chipsatz und kaum andere Verbraucher onboard, leider aber halt auch einen besch.....eidenen Netzwerkchip
und keinen Slot, eine ordentliche Netzwerkkarte nachzurüsten.

Demnächste soll noch der DeskMeet kommen, der ist dann miniITX-Format und hat nen Slot. Aber wird dann vmtl. etwas mehr Strom brauchen als der original X300, denn der hat ein normales ATX-Netzteil. Dafür aber Platz für bissl Storage. Leistungsaufnahme wird dann wohl, in die Glaskugel schau, irgendwo zwischen Deskmini X300 und B550 liegen. Muss man erste Reviews abwarten, sobald der erschienen ist.
Wenns Dir also noch nicht zeitlich knapp ist, könntest ggf. ja auf den warten.

Btw, 29W braucht das Ram alleine sicher nicht, das ist BS. Für Dein zusammengestelltes System in Summe passt das etwa für Idle.

Aktuelle Helium-HDDs sind meist 12TB+ und haben Idle-Leistungsaufnahme von etwa 4-5W. Konventionelle Platten eher 7-10W wenn Du nicht gerade die ganz kleinen Größen wählst.
 
Zuletzt bearbeitet:
Zum Vergleich: Supermicro Board mit IPMI, Xeon E2146G (6c/12t), 32GB Ram + 2x 2TB SSD, 1x 4TB SSD, -> ca. 27-30w im Idle. Ohne Pico PSU.
 
Mhm, zieht man da die IPMI ab, entspricht das über den Daumen etwa dem B550+5600G. Hat aber halt echte servergrade Hardware.

@Traijan : wichtig: Effizienz ist wichtig, aber versuche im x86-Bereich nicht jedes letzte Watt mit irgendwelchen Spezialsetups einzusparen, das bezahlst Du in der Regel mit deutlich teuren Hardwarepreisen.
 
Das "Plus" schreib ich immer nicht dazu. Ich meinte das B550M Plus Tuf Gaming . M = ist die MicroATX-Variante, ohne M ist es die ATX.

Mit 20-25W meinte ich das System im Idle, ohne verbaute HDD. Die exakte Leistungsaufnahme hängt im Detail von den Komponenten ab. FreeBSD-Systeme oder ESXI brauchen mehr.
Windows braucht in der Regel am wenigsten, Linux kannst ja ggü der Basisinstallation etwas optimieren.

Übrigens, wenn Du ohne 3,5"-Storage und Ausbaumaßnahmen auskommst und z.b. nur SSDs nimmst, kannst den Asrock Deskmini X300 mit dem 5600G ansehen.
Der hat dann etwa 7W im Idle unter Windows Desktop, Linux etwa 11W. Der hat halt keinen Chipsatz und kaum andere Verbraucher onboard, leider aber halt auch einen besch.....eidenen Netzwerkchip
und keinen Slot, eine ordentliche Netzwerkkarte nachzurüsten.

Demnächste soll noch der DeskMeet kommen, der ist dann miniITX-Format und hat nen Slot. Aber wird dann vmtl. etwas mehr Strom brauchen als der original X300, denn der hat ein normales ATX-Netzteil. Dafür aber Platz für bissl Storage. Leistungsaufnahme wird dann wohl, in die Glaskugel schau, irgendwo zwischen Deskmini X300 und B550 liegen. Muss man erste Reviews abwarten, sobald der erschienen ist.
Wenns Dir also noch nicht zeitlich knapp ist, könntest ggf. ja auf den warten.

Btw, 29W braucht das Ram alleine sicher nicht, das ist BS. Für Dein zusammengestelltes System in Summe passt das etwa für Idle.

Ah danke!
Selbst wenn es 30W sind, wäre es viel besser als ich erwartet habe o_O Hab irgendwas mit 40W erwartet.
Linux verbraucht mehr? Ich hab tatsächlich mal bei meinem Desktop gemessen und da hat Windows mehr verbraucht. Aber gut zu Wissen das es eigentlich andersrum ist!

Die fertigen Varianten sind denke auch die besten wenn es um Stromkosten geht aber ich würde mich gerne selber daran wagen einen Server zu bauen, trotzdem vielen Dank :)
Okay, hätte mich schon stark gewundert.
Beitrag automatisch zusammengeführt:
 
Zuletzt bearbeitet:
Linux und ganz besonders die anderen Unixoide (FreeBSD,ESXI) haben in all meinen Setups stets mehr als Windows gebraucht, yup.
Ich erhebe aber keinen Anspruch auf allgemeine Gültigkeit. Ausser bei FreeBSD +ESXI, da ist es so, dass die nicht besonders bzw. gar nicht (ESXI) auf Stromsparen ausgelegt sind.

Solaris oder OmniOS, auch Unix-Systeme, z.b. kann ich nicht einschätzen, ebenso nicht Arm-Plattformen.
 
Zuletzt bearbeitet:
Linux und ganz besonders die anderen Unixoide (FreeBSD,ESXI) haben in all meinen Setups stets mehr als Windows gebraucht, yup.
Ich erhebe aber keinen Anspruch auf allgemeine Gültigkeit. Ausser bei FreeBSD +ESXI, da ist es so, dass die nicht besonders bzw. gar nicht (ESXI) auf Stromsparen ausgelegt sind.

Solaris oder OmniOS, auch Unix-Systeme, z.b. kann ich nicht einschätzen, ebenso nicht Arm-Plattformen.
Okay, danke :)

Zu deiner anderen Aussage noch:

Mhm, zieht man da die IPMI ab, entspricht das über den Daumen etwa dem B550+5600G. Hat aber halt echte servergrade Hardware.

@Traijan : wichtig: Effizienz ist wichtig, aber versuche im x86-Bereich nicht jedes letzte Watt mit irgendwelchen Spezialsetups einzusparen, das bezahlst Du in der Regel mit deutlich teuren Hardwarepreisen.
Heißt, mit meinem jetzigen Build komme ich da noch gut mit? Weil wenn das jetzige 25-30W im Idle braucht (ohne HDDs, weil die würde ich iwann dann eben in meinem PC haben, deswegen ziehe ich die nicht mein rein) wäre ich schon sehr zufrieden :) Kann man da noch im BIOS sowas wie einen Eco Mode einstellen oder ist das eher nicht zu empfehlen?
 
Klar, kannst du machen. Und stelle dort auch alle Maßnahmen zu C-Stats auf ein.
 
Hallo,
da mein Raspberry Pi mir mittlerweile zu schwach ist, bzw. manche Dinge für ARM Linux doch etwas zu schwer zu bekommen sind, wollte ich mir einen kleinen Heimserver bauen.
Ich hab noch einen Ryzen 5 5600G rumliegen, auf dessen Basis ich gerne aufbauen würde. Nach meinen Recherchen liegt der wohl so bei 20-23 Watt im Idle, das ist in Ordnung oder? (Kann man da noch mit meinem Mainboard nachhelfen?)

Natürlich soll er 24/7 laufen und dabei nicht zu viel Strom fressen, ich hoffe da könnt ihr mir weiterhelfen, da ich nicht viel Ahnung im dem Gebiet habe ^^'

Ich hab schonmal selber versucht mir Teile anzuschauen und bin bei diesen angekommen:

CPU: Ryzen 5 5600G

Mainboard: Asus Prime B450M-A II

HDDs: Seagate IronWolf 4 TB (aktuell erstmal eine, da ich zumindest gerade noch nicht mehr brauche, werden aber aufjedenfall noch mehr)

SSD (OS and VMs): SanDisk Ultra 3D SSD 500GB

Memory/RAM: Crucial Ballistix 32 GB

Netzteil: BN296 be Quiet! Pure Power 11 400W cm

PC Part Picker: https://pcpartpicker.com/list/kM2D2m


Ist das schon gut genug um Energieeffizient zu sein, oder kann man da noch mehr rausholen? Und kann sich einer vorstellen wie viel es im Idle wäre? Wenn es (ohne Festplatten) schon auf max. 40 Watt käme, wäre es ideal. Wenn die CPU zu viel Strom frisst wäre es auch kein Problem diese zu ändern, auch wenn ich natürlich lieber etwas nehmen würde was schon rumliegt ^^'

Der Server würde für das übliche genutzt werden: Media, NAS, Backup, Tasks, Webserver, VMs zum testen, vllt auch um damit dann einen Fernseher im Wohnzimmer zu nutzen (muss ich noch schauen) aber auch um darüber zu programmieren, da würde ich mir ein schönes Remote Setup machen.

Vielen Dank schonmal für jede Hilfe! :)
Hast Du dein System mit dem 5600G und dem Mainboard so aufgebaut? Welches OS verwendest Du?
Ich verwende eine ähnliche Config mit TrueNas und erhalte immer wieder Kernel Panics und Fehler im ZFS.
 
Weird. Ich hatte weder mit FreeBSD noch Proxmox/Debian bisher Kernelpanics auf meinen AMD-Systemen.
( 4750G, 4350G, 5750G, 5600X, 5950X , B550, X570 , Deskmeet, Deskmini).
 
Sowohl Linux wie auch Unix gelten als sehr stabile Betriebssysteme egal ob mit AMD oder Intel. Open-ZFS unter BSD und Linux ist praktisch identisch. Lediglich Solaris Unix mit Original ZFS wie auch der Solarisfork OmniOS mit Open-ZFS nehmen durch die stärkere ZFS Integration (Solaris wurde mit und um ZFS herum entwickelt) und den in das OS/ZFS integrierten SMB Server (als SAMBA Alternative) eine Sonderrolle ein.

Wenn es da Kernelpanics oder ZFS Prüfsummenfehler gibt, ist sicher weder das OS noch ZFS sondern die Hardware meist Speicher, Stromversorgung, Verkabelung/Stecker das Problem (in der Reihenfolge). Das mal testen oder z.B. RAM hälftig rausnehmen. Wenn das nichts bringt bräuchte man ein anderes Board/CPU zum Testen.
 
Zuletzt bearbeitet:
Yup, ich würde da auch als erstes an den Ram denken. Mit grenzwertigen/zu scharfen Timings z.B. oder schlicht Defekten oder Inkompatibilitäten. Oder Firmwareproblemen. B450 war ursprünglich sowieso nicht für die 5000er APUs freigegeben.
(Bei mir sind das alles ECC-Module UDimms, maximal auf 3200 CL22 eingestellt, obwohl man mit den auf den Modulen verbauten Chips sicher schärfer takten könnte. Macht aber für Serverzwecke eh keinen Sinn und würde nur Datenintegrität ggf. gefährden.)
 
Was Ihr geschrieben habt ist ja auch meine Einschätzung.

Ich nehme mal kurz die Checkliste der Reihenfolge nach her:
  1. Hardware meist Speicher
    Den Speicher hatte ich von ursprünglich 3200MHz auf 2400MHz runtergetaktet. Leider nur mit mäßigen Erfolg. Ich werde noch die Timings mit den Herstellerangaben kontrollieren / anpassen.

  2. Stromversorgung
    PCU: 450W beQuiet, an den beiden SATA-Power Strängen hängen je 3 Samsung SSDs. Sorry, aber das kann doch wohl kaum ein Problem sein.

  3. Verkabelung/Stecker das Problem (in der Reihenfolge)
    Hier sind sicher die SATA Kabel gemeint? Ich habe in einem anderen Forum gelesen, dass dies Probleme verursachen kann/soll. Hätte kein Problem die Kabel zu ersetzen, wenn ich denn wüsste, dass es bessere Kabel, als die aktuellen sind. Hat hier jemand nen Hinweis, worauf ich achten muss (evtl Schirm).

Was noch für die Kabel spricht, dass sich bereits 5 mal im laufenden Betrieb eine der SSDs (immer die selbe SSDs) sich vom System "getrennt" hatte => Pool degraded. Erst nach einem Reboot war die wieder da. Um andere Probleme auszuschließen, habe ich die SATA Ports geswitcht - bisher trat dieses Phänomen nicht mehr auf.

Aktueller Stand: Ich habe testweise die aktuelle TrueNAS SCALE Cobia BETA installiert und den Pool bereinigt und wieder unter Last gesetzt. Bisher keine Abstürze - aber der Tag ist ja noch jung. ;-)
 
RAM Probleme können verschwinden wenn man langsamer taktet oder die Spannung erhöht.
Defekten RAM kann man durch einen Speichertest entdecken oder indem man die Hälfte dann die andere Hälfte rausnimmt und schaut wie die Stabilität sich darstellt.

Stromversorgung kann defekt sein. Spannung läßt sich im Bios oder mit ipmi kontrollieren. Oft sind aber auch nur die Stecker das Problem. Ausstecken und neu einstecken kann helfen. Wenn man anders steckt und das Problem wandert ist das auch ein Hinweis. Ansonst wenn vorhanden ein Reservenetzteil versuchen.

Wenn man Sata Kabel verdächtigt, neue versuchen oder umstecken (Problem bleibt oder wandert)

Wenn man Stabilitätsprobleme hat sollte man eine Beta statt einer stable nur nehmen wenn es Indizien gibt dass damit ein Bug behoben wurde der Ursache sein könnte. Ansonst erhöht man nur die Anzahl möglicher Probleme statt das Problem einzukreisen.
 
Das klingt in der Tat nach SATA Kabel Problemen.
Mich irritiert nur die Tatsache, dass es nen Kernel-Absturz gibt. Ich bin ja selbst Softwareentwickler und muss mich ständig darum kümmern, dass meine Software fehlertolerant ist - also bei auftreten von Fehlern in einer bestimmten definierten Art und Weise reagiert. Hat ein Kabel ne Macke, würde ich die Platte offline nehmen. Wenn im ZFS korrupte Daten angekommen sind, dann würde ich den Pool offline nehmen und den Admin bitten, dass Problem manuell zu überprüfen. Dass es hier zu Kernel Panics kommt erschließt sich mir einfach nicht.

Kann das mit der Tatsache zusammenhängen, dass Linux auf einen monolythischen Kernel setzt?

TrueNAS Core (FreeBSD) oder TrueNAS Scale (Debian Linux) wäre noch eine hilfreiche Angabe.

RAM Probleme können verschwinden wenn man langsamer taktet oder die Spannung erhöht.
Defekten RAM kann man durch einen Speichertest entdecken oder indem man die Hälfte dann die andere Hälfte rausnimmt und schaut wie die Stabilität sich darstellt.

Stromversorgung kann defekt sein. Spannung läßt sich im Bios oder mit ipmi kontrollieren. Oft sind aber auch nur die Stecker das Problem. Ausstecken und neu einstecken kann helfen. Wenn man anders steckt und das Problem wandert ist das auch ein Hinweis. Ansonst wenn vorhanden ein Reservenetzteil versuchen.

Wenn man Sata Kabel verdächtigt, neue versuchen oder umstecken (Problem bleibt oder wandert)

Wenn man Stabilitätsprobleme hat sollte man eine Beta statt einer stable nur nehmen wenn es Indizien gibt dass damit ein Bug behoben wurde der Ursache sein könnte. Ansonst erhöht man nur die Anzahl möglicher Probleme statt das Problem einzukreisen.
Werde ich alles noch checken! Auch mit der BETA... völlig richtig. Ist ja auch nur ein Strohhalm, wegen des deutlich aktuelleren Kernel. Seit ich vorhin (ca. 8:20) meine Nachricht geschrieben hatte, ist bis jetzt (10:50) durchgehend etwas Last auf der Kiste. Hatte auch meine VMs (u.a. BuildServer) testweise migriert und nen kompletten Komplierlauf meiner Projekte gestartet.

In der Cobia BETA gibt es jetzt die Option einen Debug-Kernel zu starten (siehe Screenshot), wäre das zur Fehleranalyse hilfreich? Ich will jetzt nicht an 1000 Stellschrauben parallel herumdrehen, daher nur vorab die Frage.
 

Anhänge

  • Unbenannt.png
    Unbenannt.png
    1,5 KB · Aufrufe: 49
  • Unbenannt2.png
    Unbenannt2.png
    37,1 KB · Aufrufe: 49
ZFS Fehler können zu keinem Kernel Panic führen können solange nicht ein ZFS Bug beteiligt ist (unwahrscheinlich). Worst case ist normalerweise z.B. "pending io" wenn eine single vdev Platte ausfällt. Da wartet ZFS einfach bis der Fehler verschwindet bzw bis reboot oder bis zu einem Timeout bei anderen Problemen. Das OS bleibt aber am Laufen, lediglich der Pool Zugriff ist betroffen. Ein defektes Kabel kann lediglich zu einem disk removed oder disk offline (too many errors) oder einzelnen checksum errors führen, nicht zu einem Panic.

Um einen Kernel Panic zu erzeugen müssen privilegierte Prozesse z.B. Treiber oder kritische Hardware wie RAM, CPU, Netzteil oder HBA beteiligt sein. ZFS und das OS selber würde ich da eher nicht in Verdacht haben. Besser einen Betriebszustand suchen der relativ sicher Probleme macht und dann im Ausschlußverfahren mögliche Ursachen untersuchen. OS Debugging bringt einen weiter wenn es hilft den Fehler einzugrenzen, bei Kernelpanic wäre ich da eher skeptisch sofern man kein OS developer ist und den Crash gezielt auslösen kann. Das OS ist sonst oft bereits tot bevor es feststellen kann woher der Schuß kam.

Wenn das Problem zu sporadisch auftritt, würde ich die wahrscheinlichsten Ursachen RAM, Netzteil, Plattencontroller mit Kabeln testweise tauschen (gut wenn man Ersatzteile hat).
 
hab nun grad mal einfach Parts hier welche ich evtl anraten würde wenn es rein nur um "Heimbedarf" / evtl später mehr / viel Optionen / angemessenes Idle geht

ASUS Prime Z690-P D4 CSM (ab 150€ grad) - im Bios das Armory Crate deaktivieren und natürlich evtl den soundchip​

mehr Erweiterbarkeit kann man sich nicht wünschen


Mushkin Redline White DIMM Kit 64GB, DDR4-3200, CL16-18-18-38 (ab 105€ grad) - zuviel Ram gibts nicht​


Intel Core i3-12100, 4C/8T, 3.30-4.30GHz, tray (ab 105€ grad) - tray 12xxx haben volle Garantie​

Mehr CPU lohnt kaum derzeit, evtl auf dem Gebrauchtmarkt nach 12400/12500/12600 suchen wenn nicht mehr als 120-140€


Dazu ein 0815 S1700 Kühler frei nach Wahl /Platz


Ad:
Passmark
5600g: 19930- Single Thread Rating: 3188
12100: 14270- Single Thread Rating: 3491
12400: 19680- Single Thread Rating: 3540
 
Zuletzt bearbeitet:
Sowohl Linux wie auch Unix gelten als sehr stabile Betriebssysteme egal ob mit AMD oder Intel. Open-ZFS unter BSD und Linux ist praktisch identisch.
Seit FreeBSD 13.0 benutzt FreeBSD OpenZFS, was von Linux, FreeBSD, illumos, MacOS und Windows benutzern entwickelt wird. Davor nutze FreeBSD einen ZFS fork von illumos, was selbst ein direkter fork von SUN's OpenSolaris ZFS war. So lange man die selben ZFS Feature Flags aktiviert hat, kann man also seinen ZFS Pool zwischen Linux und FreeBSD etc. migrieren wie man lustig ist.

Wegen der OS Stabilität, ein Bekannter von mir betreibt seinen Home Server mit vanilla Debian Linux, der hatte auf seinem AMD Ryzen System (Server und Desktop) öfters Probleme wegen Bugs mit Ryzen Ernegiesparmodis, vielleicht kannst du mal versuchen alle im BIOS zu deaktivieren und schauen ob die Abstürze aufhören.
Lediglich Solaris Unix mit Original ZFS wie auch der Solarisfork OmniOS mit Open-ZFS nehmen durch die stärkere ZFS Integration (Solaris wurde mit und um ZFS herum entwickelt) und den in das OS/ZFS integrierten SMB Server (als SAMBA Alternative) eine Sonderrolle ein.
FreeBSD hat auch eine sehr starke ZFS Integration, der Installer z.B. unterstützt seit langer Zeit Root on ZFS, man kann ZFS Boot Environments (bootbare ZFS Snapshots) nutzen und auch Features wie Jails und Poudriere (automatischer Paket Builder) nutzen stark ZFS.
Kann das mit der Tatsache zusammenhängen, dass Linux auf einen monolythischen Kernel setzt?
Linux und FreeBSD nutzen beide einen Monilytischen Kernel, beide haben auch Unterstützung für Kernel Module, aber in dieser hinsicht sind sie identisch.

Aber zurück zu den System Abstürzen, was sagen denn die Kernel Logs (z.B. /var/log/dmesg)?
Ohne Logs anzuschauen wird es sicher schwierig herauszufinden was die Crashes verursacht.

Du könntest auch einmal mit dem Programm smartctl die SMART Werte deiner Laufwerke anschauen, ob z.B. CRC Fehler aufgetreten sind.
 
Seit FreeBSD 13.0 benutzt FreeBSD OpenZFS, was von Linux, FreeBSD, illumos, MacOS und Windows benutzern entwickelt wird. Davor nutze FreeBSD einen ZFS fork von illumos, was selbst ein direkter fork von SUN's OpenSolaris ZFS war. So lange man die selben ZFS Feature Flags aktiviert hat, kann man also seinen ZFS Pool zwischen Linux und FreeBSD etc. migrieren wie man lustig ist.

Die Pools selber lassen sich zwischen der Plattformen BSD/Linux und dem Solaris Fork Illumos meist gut austauschen (Open-ZFS). Lediglich Solaris mit Original ZFS läßt sich nicht mit Open-ZFS tauschen. Bei SMB Rechten sieht es anders aus. Solaris/ Illumos mit dem kernelbasierten SMB Server nutzen ntfs artige nfs4 ACL und Windows SID als ZFS Datei Attribut/Security Referenz. BSD und Linux mit SAMBA nutzen Unix uid/gid mit Posix ACL und idmapping. Die SMB Rechte gehen daher beim Wechsel verloren.
FreeBSD hat auch eine sehr starke ZFS Integration, der Installer z.B. unterstützt seit langer Zeit Root on ZFS, man kann ZFS Boot Environments (bootbare ZFS Snapshots) nutzen und auch Features wie Jails und Poudriere (automatischer Paket Builder) nutzen stark ZFS.

ZFS lebt von seiner intensiven Speichernutzung. Unter Solaris/Illumos ist ist die Speicherverwaltung des OS in ZFS integriert da beides gemeinsam entwickelt wurde. Unter BSD und Linux ist das nicht ganz so. Da ist ZFS einfach ein Dateisystem unter anderen. Man merkt das aber allenfalls an dem etwas geringeren Speicherbedarf (ab 2GB, egal wie groß der Pool) von Solaris und Illumos.

Insgesamt ist ZFS Mainstream aktuell Linux, da sind die meisten Nutzer und Entwickler. Die Unixe BSD/OSX/Solaris/Illumos sínd allerdings nach wir vor interessant als Spezialisten die manches besser machen.
 
Ich möchte zuerst einmal Danke für die vielen Gedanken & Hinweise sagen.

Ich hatte ja die eine SSD im System, welche sich immer wieder aus dem System trennte. SATA-Ports, Kabel etc waren im Gespräch, hatte ich auch untereinander gewechselt. Jedoch trennte sich immer die selbe SSD.
Daraufhin habe ich eine neue bestellt - die alte ging zurück.
Im Nachgang muss man sagen, wenn es hier Probleme auf Hardwareebene gibt, könnte das doch sicher einen Kernel Panic auslösen... Genug der Mutmaßungen, weiter mit den Fakten:
Seit dem Austausch der SSD traten keine Abstürze bisher auf! Auch andere Platten sind nicht aus dem System "geflogen", wie es die Defekte tat.
Die Smartctl Werte hatte ich geprüft. Tatsächlich war bei der defekten Platte auch der CRC Counter ungleich Null (keine Ahnung mehr wie der war). Das spricht ja irgendwie alles für ne Platte aus dem Schrott-Lager.

Ich würde gerne die Logs analysieren / hier einstellen, aber es gibt keine. z.B. gibt es kein /var/log/dmesg. Keine Ahnung, was die Leute von ixSystems sich dabei gedacht haben... :unsure:

Was jetzt aber noch erschwerend hinzukommt - es wurde relativ weit oben schon als Fehlerquelle vermutet und von mir erst jetzt geprüft:
Das RAM wurde mit 3200MHz betrieben. Es verträgt aber den SPECs nach nur 2933MHz. Dies fiel mir auf, nachdem ich die neue SSD erfolgreich einige Zeit im System hatte und im BIOS wieder die Defaults geladen hatte (zuvor auf 2400 runtergetaktet). Auch die Timings werden falsch gesetzt - da sie aber einen Takt höher liegen, werde ich die wohl so lassen, da es "hoffentlich sicherer" ist.

Ein anderer Hinweis weiter oben waren die Energiesparoptionen im BIOS - die sind erstmal auf Default. Was auch immer das bedeutet. ;-)

Zum Thema ZFS und Stabilität möchte ich mich auch noch mal für Eure aufbauenden Worte bedanken. Es hätte mich auch sehr verwundert, wenn ZFS so buggy ist, wie ich fast vermutet habe.
 
Verdammt. Zu früh gefreut. Gerade gab es wieder einen neuen Absturz... :cry:

Anbei ein Foto kurz bevor das System neu startete. Alle Logs beginnen dann wieder mit dem Neustart. Es steht nichts älteres da drin. Ich kläre mal im TrueNAS Forum ab, was das für ein Murks ist.

Außer, dass der Fehler im smbd auftrat, kann ich aus dem "Dump" nichts herauslesen. Ihr vielleicht?


Nachtrag zu den Abstürzen. Die Abstürzte häuften sich mit der Laufzeit - also wenn die Kiste durchgewärmt war, war das nur noch ein Dauerabsturz. Ich habe neuen RAM bestellt, der auf der Kompatibelitätsliste steht - wenn das nicht klappt, verkloppe ich die Einzelteile und besorge mir was "servermäßig" Korrektes. z.B. was Pumuckel geschrieben hatte.

Zur Info: Im Truenas Forum hatte ich den >völlig korrekten< Hinweis gelesen, dass Gaming Boards ungeeignet sind. Ich dachte mir vor dem Kauf nichts dabei, denn ich kann ja auch mit nem Ferrari sinnig fahren. Jedoch stellte sich heraus, dass die "Default Settings" von diesem Board bereits ne Übertaktung (auf mehreren Ebenen) aktiv haben ("asus precision boost overdrive"). So ein Schrott... Das zu deaktivieren ist gar nicht so einfach, weil einige der Settings, gar nicht so klingen, als hätten die was mit Übertaktung zu tun.
 

Anhänge

  • IMG_20230824_134615.jpg
    IMG_20230824_134615.jpg
    223,2 KB · Aufrufe: 56
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh