DIY NAS - HW Empfehlung für TrueNAS oder Unraid

eehm

Enthusiast
Thread Starter
Mitglied seit
13.09.2011
Beiträge
595
Hallo,

nach langem Einlesen habe ich mich dazu entschlossen ein Eigenbau-NAS nochmals in Angriff zu nehmen, weil ich mich bei fertigen Lösungen wie der Synology DS1821+ preislich ein wenig veräppelt vorkomme!

Inzwischen haben sich bei mir zwei HW-Optionen herauskristallisiert:
  1. Option ECC
    Supermicro-x11sch-f
    Intel-core-i3-9100
    32 GB ECC RAM

  2. Option ohne ECC
    Asus-prime-a320m
    Ryzen-3-3200g
    8 GB RAM
Die Option 1 wäre sowohl für True NAS mit ZFS als auch Unraid aus meiner Sicht sinnvoll! Die Version zwei ist wegen dem Mangel an ECC Support nicht für ZFS sinnvoll nutzbar.

Angestrebt werden würde ein Raid 6 oder ein Raid-Z2 aus 8 Festplatten. Am ehesten wohl 4-6 TB Platten. Dann hätte ich sicher die nächsten 5-10 Jahre genug Speicher (24 oder 36 TB) und müsste mich nur noch um die Backups kümmern.

Was haltet ihr von diesen Zusammenstellungen?
Würdet ihr sowas einsetzten oder gibt es hier bessere und günstigere Alternativen? - Von gebrauchter HW bin ich auch nicht wirklich abgeneigt!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gute Wahl, Option Nr. 1.

Nach Überfliegend des Handbuches sind alle 8 SATA Ports an dem Intel C246 Chipsatz angebunden, sodass du diese 1:1 durchreichen kannst an deine zukünftige Storage-VM (bspw. TrueNAS).

Würde einzig und alleine überlegen, ESXI als Basis zu nutzen und dort TrueNAS als VM laufen zu lassen.
Die CPU hat so viel Bumms, dass der reine Nutzen als bare-metal-storage schon fast zu schade ist und du dir somit Möglichkeiten offen hältst, mit anderen VM's zu spielen.

Tip, wie immer:
Handbuch VOR dem Kauf genauestens studieren, ob irgendwelche Kombinationen / Möglichkeiten nicht drin sind, die eventuell gewünscht sind.
Bspw. ENTWEDER PCIe Slot ODER NVME etc.
 
ECC ist kein Zwang für ZFS; das ist eine Legende. Aber andersrum gilt: ECC ist gut für jede größere Storage egal welches Filesystem.

Für AM4 kannst Du auch wunderbar die kleinen Pro APUs einsetzen, einen Pro 4350G z.B. . Bekommst Du normal problemlos (beachte: nicht alle Händler sind auf Geizhals!). Die sind sehr sparsam und können mit dem richtigen Board auch ECC.
Supermicro mit passendem i3 oder Xeon ist natürlich der klassische Goldstandard. Es gibt aber durchaus AM4-Alternativen.

Generell würde ich eher weniger und dafür größere HDD einsetzen; das ist meist energieeffizienter, Egal welche Größe: "hands off" von SMR-HDDs bei Raidpools. Das kann zu größeren Problemen führen. Ausserdem sollte man immer einen Sata-Port (oder einen Slot für einen HBA) freihaben, um eine Disk schnell mit "zfs replace" ersetzen zu können.

Viel wichtiger als Intel oder AMD ist letztlich noch das Backup-Konzept. Raid(z) ist kein Backup. Und ein Backupkonzept für (für zuhause) relativ große Datenmengen will gut überlegt sein. Dabei gehts nicht nur um ausfallende Hardware, sondern auch Malware oder einfach Userfehler. Bedenke: mit ZFS reicht ein Befehl auf der Shell und der Pool mit Deinen Daten ist "gonski". Denn Fehler passieren immer mal, gerade zum Einstieg.

Der Trambahner hat deshalb zwei ZFS-Filer (beide mit 10Gbit-Lan). Ein Hauptsystem und ein Backup-System. Dann kann man wunderbar mit ZFS send/receive arbeiten.
 
Zuletzt bearbeitet:
Ich finde ECC Ram schon sehr wichtig bei ZFS. Muss nur mal beim schreiben im Ram ein Bit oder mehrere kippen. Schon hast du Korruption, jede Datei geht einmal durch den Arbeitsspeicher.
Wenn dir deine Daten so scheiß egal sind, kannst du auch jedes andere File System verwenden. Beispielweise UnRaid mit XFS oder Windows mit NTFS oder Linux mit EXT3/4.
Ich selber nutze selbst unter Windows mit SnapRaid ECC Ram, damit es zu keine Datenkorruption kommt.
 
Zuletzt bearbeitet:
Würde einzig und alleine überlegen, ESXI als Basis zu nutzen und dort TrueNAS als VM laufen zu lassen.
Danke für den Hinweis. Das werde ich mir mal genauer ansehen! :)

Generell würde ich eher weniger und dafür größere HDD einsetzen;
Mein Gedanke war, dass ich bei einer größeren Anzahl an Platten im Raid-Z2 den günstigeren Netto-Speicheplatz bekomme!
  • 8x4 TB im Raid-Z2
    24 TB Netto
    8 TB für Redundanz (ca. 200 Euro)
  • 6x6 TB im Raid-Z2
    24 TB Netto
    12 TB für Redundanz (ca. 300 Euro)
  • 4x12 TB
    24 TB Netto
    24 TB für Redundanz (ca. 600 Euro)
Mache ich jetzt hier einen Denkfehler oder in welchem Fall wären weniger Große Platten von Vorteil?

Ein Hauptsystem und ein Backup-System.
Und was nutzt du als HW für deine Systeme, wenn man fragen darf? ;)

Muss nur mal beim schreiben im Ram ein Bit oder mehrere kippen. Schon hast du Korruption, jede Datei geht einmal durch den Arbeitsspeicher.
Wenn dir deine Daten so scheiß egal sind, kannst du auch jedes andere File System verwenden.
Ja das stimmt leider. Aber leider hat z.B. auch meine DSLR keinen ECC-RAM. Somit muss man bis zu einem gewissen Punkt leider immer mit dem Risiko leben.
Mir sind meine Daten zum Großteil wichtig bis sehr wichtig. Aus diesem Grund habe ich alles noch einmal auf externen Festplatten und die aller wichtigsten Sachen noch doppelt auf Blu-Rays (eine davon noch an einem anderen Ort).
Aber ich möchte besser werden und deshalb die Daten in ferner Zukunft auf einem NAS liegen haben, wo ich sicher sein kann, dass die Daten bis zum Ziehen des Backups ohne Schaden sind!
 
Grundsätzlich stimme ich dem Gedanke zu, dass du direkt auf größere Platten setzen solltest.
Mehr Speicherplatz, keine Gedanken um etliche Snapshots machen, weniger Stromverbrauch (da du auf weniger Platten bei gleicher Endkapazität setzen kannst) &&&.

Aber um es leider mal klipp & klar zu sagen:
Scheiss Zeiten für einen NAS / Homeserver-Bau, bei den derzeitigen Festplattenpreisen. Insbesondere wenn es 8 Festplatten sein sollen.

Von daher, sofern dir 4TB Platten reichen und du dort gute Angebote hast, schlag dort erstmal zu. Aufstocken kannst du dann noch in einigen Jahren / Monaten, wenn die Festplattenpreise mal wieder von ihrem Ausflug zum Mond zurück sein sollten. Gebrauchtpreise für gute Festplatten (Sprich: Marke ; insbesondere NAS, Helium etc. zieht immer), sind angemessen und du könntest dann für einen kleinen Obulus aufstocken.
 
Das passiert so nicht, weil ZFS nach einer Anzahl von Fehlern, falls sie auftreten (was ja bei Ram-Fehler gar nicht sicher ist) das Device und dann auch den Pool offline setzen wird.
Abgesehen davon, bei mir läuft alles auf ECC. :-)

Wenn die Daten wichtig bis sehr wichtig sind: egal welches Filesystem oder OS immer ECC nehmen.

Du musst pro Platte über den Daumen einfach 5W (Helium) oder 7-10W (Luftfüllung) Idle-Power rechnen. Wenn Du 24/7 rennen lässt, kannst Du derzeit, ebenso als Schätzung, Watt *2,5 Eur/Watt rechnen und hast die Kosten pro Jahr.
Ferner geht die Brutto-Netto-Rechnung so nicht ganz auf, da ZFS bei nicht idealer Plattenzahl (2 zur Potenz plus Anzahl Paritiätsplatten, also 6 oder 10 HDD bei Raidz2) Verschnitt erzeugt. Das gleiche gilt, wenn man nicht mit Block-Komprimierung arbeitet.
ZFS kann ja auch on-the-fly Medien 1:1 durch größere Ersetzen. Sobald alle HDD/SSD durchersetzt sind, erweitert sich die Pool-Größe automatisch (sofern property gesetzt). Die kleinere Zahl von Platten hat dann den Vorteil, dass Du in der Zukunft weniger Platten durch dann größere ersetzen müsstest. Auch das hat Gen8 Runner ja gerade erwähnt.


Meine Konfig:
Asrock Rack X570D4U-2L2T mit Ryzen 5600X und 64GB ECC, 6x14TB HC530 als HDD-Raidz2, 6xSM863/883 als SSD-Pool (Stripe über 3 Mirror-Pärchen), Broadcom 9400-16i HBA. ESXI 7 mit Xigmanas-VM (=FreeBSD) als Storage-Appliance. Die Storage gibt dann per NFS Speicherplatz für VMs an ESXI zurück, teilw. auch via iScsi direkt an VMs. . SMB für Windows Clients ist eh klar.
Ist aber eben kein reiner Filer, sondern ein All-in-One Server für VM+Storage nach Art des Users "Gea". Aber halt mit FreeBSD, nicht OmniOS.
Wenn die Platten im Spindown stehen, ganz dicker Daumen 50-55W Idle. Wenn die HDDs drehen etwa 80-85W.
Kein 24/7. Ist nur an, wenn benötigt.

Backupziel:
Supermicro X11SSH-CTF mit 1240v5, 64GB ECC, 6x14TB Red Plus. Xigmanas "am Blech", kein ESXI. (Das Ding war vor dem Ryzen der ESXI All-In-One, dannach Reuse als Backupmaschine).
Ist nur an für Backups, sonst ist die Kiste aus. Backups werden per ZFS send/receive von Snapshots inkrementell durchgeführt.

@eehm : Da sind wir weit über dem, was Du machen und vmtl. ausgeben willst. Das ist schon klar. Das Supermicro mit dem i3 + ECC wird Dir für ZFS-Storage mehr als reichen. Eine zweite Maschine als Backupziel würde ich mir aber überlegen. ZFS-Replikation ist einfach klasse und superperformant.

Achtung bei Konfigs mit Intel Gen10. Da haben lt. Intel-Ark die i3 kein ECC mehr. die 9000er haben es noch aktiviert.
 
Zuletzt bearbeitet:
Scheiss Zeiten für einen NAS / Homeserver-Bau, bei den derzeitigen Festplattenpreisen. Insbesondere wenn es 8 Festplatten sein sollen.
Ja leider, aber mir eilt es noch nicht so. Also hoffe ich, dass die Platten Preise bald wieder runter gehen.

Ferner geht die Brutto-Netto-Rechnung so nicht ganz auf, da ZFS bei nicht idealer Plattenzahl (2 zur Potenz plus Anzahl Paritiätsplatten, also 6 oder 10 HDD bei Raidz2) Verschnitt erzeugt.
Heißt das dann ideal sind 6 oder 10 Platten bei Raid-Z2, wenn man die maximale Netto-Kapazität erreichen will?
ZFS kann ja auch on-the-fly Medien 1:1 durch größere Ersetzen. Sobald alle HDD/SSD durchersetzt sind, erweitert sich die Pool-Größe automatisch (sofern property gesetzt). Die kleinere Zahl von Platten hat dann den Vorteil, dass Du in der Zukunft weniger Platten durch dann größere ersetzen müsstest.
Danke für den Hinweis. Dann sehe ich bei 8 Platten am Ende beim möglichen Upgrade blöd aus, weil dann am Ende ein viel zu großer/teurer Pool entstehen würde!
 
Irgendwo in den Tiefen des Netzes gibts Statistiken über den netto nutzbaren Platz. Aber was ist die Messgröße: gesamt, bezogen pro Platte, bezogen per Euro.
Aber "netto nutzbar" ist halt nicht die einzige maßgebliche Größe eines Pools. Energieverbrauch, Wiederbeschaffungs-/Aufrüstungskosten, Platzverbrauch, Lautstärke, Performance.
Ist individuell verschieden.

6 HDD als Raidz2-Einstieg ist, aus meiner Sicht, der beste Kompromiss.

Übrigens: Raidz2 ist ideal für große, sequentiell zugegriffene Daten. Für Random-I/O wie Datenbanken oder Bootdisks von VM, also wenn es auf IOs pro Sekunde+ Latenzen und weniger auf Durchsatz ankommt, ist Raidz2 nichts. Für sowas auf Mirror-Pools gehen. Drum hab ich auch einen eigenen SSD-Pool aus Mirror-Pärchen (also ähnlich Raid 10/01), wo der VM-Krempel und der ständig genutzte "Kleinkrusch" draufliegt.


Bzgl. Deiner Planung "5-10 Jahre". Bedenke dass Festplatten vom Hersteller oft für 5 Jahre Nutzung ausgelegt sind. Das heisst nicht, dass ältere HDDs nicht mehr funktionieren. Aber typischerweise steigt ab einem gewissen Alter und Abnutzungsgrad einfach die Fehlerwahrscheinlichkeit an. Wähle auch für Dein Nutzungsprofil geeignete HDDs aus, nicht jede HDD eignet sich für jeden Zweck.
 
Zuletzt bearbeitet:
Das passiert so nicht, weil ZFS nach einer Anzahl von Fehlern, falls sie auftreten (was ja bei Ram-Fehler gar nicht sicher ist) das Device und dann auch den Pool offline setzen wird.

Das Problem ist, ohne ECC erkennt ZFS die Fehler garnicht, soweit ich weiß kann ZFS auch denken das die korrupten Daten im Ram ohne ECC die richtigen sind und so alles kaputt repariert.
Das was du meinst ist der Schutz wenn schon Daten auf der Platte liegen und diese dann als korrupt erkannt werden. Sprich durch Festplatten/SSD defekt oder schleichende Datenkorruption.
 
Warum Unraid oder TrueNAS?

Unraid als Hypervisor und TrueNAS in einer VM , Platten direkt an TrueNAS durchreichen und ein, 2 SSDs für Unraid und die Docker Container und die Plugins.

Funkturm super. Habe diese Konstelation bei mir seit nem halben Jahr.

Habe sogar einen kompletten SAS Controller an die VM Durchgereicht und damit das 6 Platten Cap von Unraid umgangen ;)
 
6 HDD als Raidz2-Einstieg ist, aus meiner Sicht, der beste Kompromiss.
Bzgl. Deiner Planung "5-10 Jahre". Bedenke dass Festplatten vom Hersteller oft für 5 Jahre Nutzung ausgelegt sind.
Danke für die Hinweise. Mir ist seit 20 Jahren zum Glück nur eine Festplatte kaputt gegangen. Manche alten WD Black von mir sind bald schon 10 Jahre im Betrieb.
Aber bei einem Raid 5 oder Raid 6 sollte man die Platten dann vielleicht nicht gar so lange strapazieren, da ein möglicher Rebuild am Ende so und so eine riesen Belastung für die Platten ist!
Beitrag automatisch zusammengeführt:

Unraid als Hypervisor und TrueNAS in einer VM
Ich befürchte ich verstehe das jetzt nicht richtig, aber ich sehe hier keinen Vorteil.
Ich habe ZFS Pools die durch TrueNAS verwaltet werden und binde diese dann in Unraid als logisches Laufwerk ein, dass ich mit Unraid und nicht mit TrueNAS arbeite?
Beitrag automatisch zusammengeführt:

Gute Wahl, Option Nr. 1.
Und noch eine Frag zum Board hätte ich:
Das Supermicro hat nur einen VGA Chip. Das Asus ws-c246-pro z.B. kann die iGPU vom i3 beispielsweise nutzen. Wäre das Board dann nicht eigentlich vielleicht die noch bessere Wahl oder mache ich hier einen Fehler?
 
Zuletzt bearbeitet:
Das Problem ist, ohne ECC erkennt ZFS die Fehler garnicht, soweit ich weiß kann ZFS auch denken das die korrupten Daten im Ram ohne ECC die richtigen sind und so alles kaputt repariert.
Das ist aber nicht ZFS-spezifisch, sondern gilt für alle Filesysteme. Kein Dateisystem kann wissen, ob noch nicht weggeschriebene Daten korrekt/sinnvoll sind oder nicht.
Drum sag ich ja: ECC ist generell sinnvoll und nicht spezifisch wg. ZFS.
Beitrag automatisch zusammengeführt:

Und noch eine Frag zum Board hätte ich:
Das Supermicro hat nur einen VGA Chip. Das Asus ws-c246-pro z.B. kann die iGPU vom i3 beispielsweise nutzen. Wäre das Board dann nicht eigentlich vielleicht die noch bessere Wahl oder mache ich hier einen Fehler?

Das Asus ist ein Workstation-Board, das Supermicro ein Serverboard. GPU brauchst bei nem Server ja nur für einfachste Dinge. Und die Supermicro-VGA ist Teil der Fernsteuerung. Dat Ding kannst Du über Lan ohne Monitor komplett fernsteuern. Inkl. Bios-Settings, Sensorenüberwachung, etc.
 
Das ist aber nicht ZFS-spezifisch, sondern gilt für alle Filesysteme. Kein Dateisystem kann wissen, ob noch nicht weggeschriebene Daten korrekt/sinnvoll sind oder nicht.
Drum sag ich ja: ECC ist generell sinnvoll und nicht spezifisch wg. ZFS.

Ich bin auch der Meinung das überall ECC sinnvoll ist. Jetzt haben wir sogar starke AMD Prozessoren die ECC von Haus aus können, gibt also kein Grund mehr auf ECC zu verzichten.
Und doch bin ich schon der Meinung das gearde bei den File Systemen ZFS und BTRFS ECC Plicht ist. Checksummen werden ja auch in Ram geladen, so was haben von Haus aus einfache Dateisysteme nicht.
 
Dat Ding kannst Du über Lan ohne Monitor komplett fernsteuern. Inkl. Bios-Settings, Sensorenüberwachung, etc.
OK, das ist super! :d
Ich dachte ich müsste da so und so dann immer mal in den Keller runter. Aber wenn das so ist, dann reicht das VGA extern locker. :)

Und doch bin ich schon der Meinung das gearde bei den File Systemen ZFS und BTRFS ECC Plicht ist.
Ich denke da sind die meisten einschließlich mir voll deiner Meinung.(y)
Bei Synology sind zwar die meisten BTRFS Systeme ohne ECC. Eigentlich kann das auch nicht richtig funktionieren, da alle nur mit Wasser kochen können!
Beitrag automatisch zusammengeführt:

Würde einzig und alleine überlegen, ESXI als Basis zu nutzen und dort TrueNAS als VM laufen zu lassen.
Jetzt hätte ich hier nochmals eine Frage.
Nutzt du dann einen HBA?
In vielen Foren wird bei einer Virtualisierung von FreeNAS/TrueNAS unbedingt ein HBA wie der Broadcom 9211-8i oder besser vorgeschlagen.
Ist der wirklich nötig/sinnvoll?
Oder macht dieser im Falle eines Defekts gar den selben Ärger wie ein hardwareseitiger Raid-Controller, dass man ohne baugleichen HBA nicht mehr an seinen Pool kommt?
 
Zuletzt bearbeitet:
Und noch eine Frag zum Board hätte ich:
Das Supermicro hat nur einen VGA Chip. Das Asus ws-c246-pro z.B. kann die iGPU vom i3 beispielsweise nutzen. Wäre das Board dann nicht eigentlich vielleicht die noch bessere Wahl oder mache ich hier einen Fehler?
Wird aber auch beim SuperMicro klappen.

Ich habe das X11SCA-F und dort kann ich ebenfalls die iGPU von der CPU durchreichen zu einer VM und nutzen.
Die IPMI Funktionalität bleibt dennoch erhallten!

Die ASPEED ist zuständig für IPMI.
 

Anhänge

  • GPU.JPG
    GPU.JPG
    84,1 KB · Aufrufe: 168
Warum Unraid oder TrueNAS?

Unraid als Hypervisor und TrueNAS in einer VM , Platten direkt an TrueNAS durchreichen und ein, 2 SSDs für Unraid und die Docker Container und die Plugins.

Funkturm super. Habe diese Konstelation bei mir seit nem halben Jahr.

Habe sogar einen kompletten SAS Controller an die VM Durchgereicht und damit das 6 Platten Cap von Unraid umgangen ;)
Unraid kostet Geld
ESXi und Proxmox sind kostenlos
irgendein Linux als VM für Docker wäre ebenfalls kostenlos

Da kann ich nur den Kopf schütteln....
Beitrag automatisch zusammengeführt:

Bei Synology sind zwar die meisten BTRFS Systeme ohne ECC. Eigentlich kann das auch nicht richtig funktionieren, da alle nur mit Wasser kochen können!
Nunja, dann schaue dir die möglichen Features von BTRFS an und was davon von Syno unterstützt / genutzt wird.....


BTRFS ist dazu immer noch Baustelle / Bastelstube:

RAID56
Some fixes went to 4.12, namely scrub and auto-repair fixes. Feature marked as mostly OK for now.

Further fixes to raid56 related code are applied each release. The write hole is the last missing part, preliminary patches have been posted but needed to be reworked. The parity not checksummed note has been removed.


Bei vielen anderen Features steht "mostly OK"
 
Zuletzt bearbeitet:
Nur mit dem Unterschied das Unraid performanter und vielseitiger ist als Proxmox. Habe beide bei mir auf dem Server gehabt und Proxmox ist so ne Diva was Hardware angeht während Unraid out of the Box alles nimmt.

Außerdem für Sehr gute Software zahle ich auch gerne mal ein paar Euronen.


@eehm

Nein TrueNAS läuft als VM und kümmert sich selbst um seine Storage Pools. Unraid ist da nur der Hypervaisor+ der die Hardware durchreicht.
 
Ich habe das X11SCA-F und dort kann ich ebenfalls die iGPU von der CPU durchreichen zu einer VM und nutzen.
Sehr interessant. Hast du dann eine HBA verbaut oder ist die doch nicht nötig?
Ich habe das bisher so verstanden, dass ich die SATA Ports per Passthrough zur VM durchreichen kann. Dann aber alle und ich habe keinen SATA Port mehr für eine SSD auf der z.B. die VM läuft. In dem Fall meine ich, dass ich eine HBA brauchen würde. Ist das so richtig oder verstehe ich das noch komplett falsch?

Unraid kostet Geld
Unraid ist da nur der Hypervaisor+
Mit Unraid habe ich mich auch länger beschäftigt. Generell finde ich es ja gut, außer, dass es ein bisschen Geld kostet (auch wenn noch aus meiner Sicht fair).
Größtes Problem bei Unraid sehe ich da, dass es keine Möglichkeit hat zu erkennen, wenn Bit-Rot auf der Festplatte selbst auftritt.
Also bringt hier auch eine Server Hardware mit ECC nur bis zum Punkt etwas bis die Daten auf der Festplatte geschrieben sind.
Wenn das Bit dann aber auf der Festplatte kippt, dann war es das mit der Datei ....!
Ist meine Argumentation so richtig? Und falls ja, wieso dann Unraid einsetzen?
 
@eehm wenn du die vms etc auf ne nvme installierst, dann stört es nicht, dass du keine sata ports mehr hast.
 
Mit Unraid habe ich mich auch länger beschäftigt. Generell finde ich es ja gut, außer, dass es ein bisschen Geld kostet (auch wenn noch aus meiner Sicht fair).
Größtes Problem bei Unraid sehe ich da, dass es keine Möglichkeit hat zu erkennen, wenn Bit-Rot auf der Festplatte selbst auftritt.
Also bringt hier auch eine Server Hardware mit ECC nur bis zum Punkt etwas bis die Daten auf der Festplatte geschrieben sind.
Wenn das Bit dann aber auf der Festplatte kippt, dann war es das mit der Datei ....!
Ist meine Argumentation so richtig? Und falls ja, wieso dann Unraid einsetzen?

Das so weit richtig, es gibt für Unraid Plugins die Bitrot erkennen können aber nicht beheben, damit es bei UnRaid nicht zu Bitrot kommt, sollte man doppelte Parity fahren.
Mit nur einer Parity Festplatte weiß er nicht, ist jetzt Parity falsch oder das File. Mit zwei kann er das abgleichen mit der anderen Parity und die defekten Files fixen, wer schon recht eigenartig wenn die beiden Parity unterschieliche Werte hätten.

So ein Plugin wer beispielweise: https://forums.unraid.net/topic/43290-dynamix-file-integrity-plugin/
 
Naja dafür ja TrueNas mit ZFS der prüft die integrität und stellt sie wieder her. Mit ECC Ram können ja beide um. Deswegen habe ich auch meinen Server von einem Reinen Unraid mit 1x Parität auf eine ZFS unter Truenas im Raidz1 umgestellt gehabt und nutze Unraid halt nur als Hypervisoer und für Docker etc. Dazu kommt das Unraid mich bei Problemen etc via Telegram benachrichtigt was an sich schon klasse ist.
 
Bei mir führt inzwischen kein Weg mehr an ZFS vorbei.
Ich hatte eine defekte Platte mit Oberflächenschäden welche die Daten immer hat degraden lassen, habe ich gewundert warum mein EXT4 Volume immer wieder kaputt war und nurnoch read-only war nach einigen Stunden. SMART Werten waren i.O. unter ZFS ist mir das dann aufgefallen, dort konnte ich jedoch dann glücklicherweise aufgrund von Redundanz und der Prüfsummen die Dateien am Ende noch retten.
 
Normal kannst du bei jeden Raid die Daten noch retten, es kommt halt drauf an wie viele Parity Disk es gibt.
Bei dir ist eine ausgefallen, hattest bestimmt eine Parity Disk, das System hat das erkannt das eine Festplatte spinnt und ist in den Readonly Modus gewechselt.
Hättest du die defekte Festplatte getauscht wer es zu einem Rebuild gekommen und die Daten wären wieder gegen einen Ausfall abgesichert.
Hast du Raid 0 und kein Backup habe ich kein Mitleid wenn alle Daten weg sind. Das die Festplatte als i.o gemeldet wurde, kann ich mir garnicht vorstellen. Außer du hast den Festplatten-test deaktiviert gehabt.
Aber selbst dann hätte es in den Smartwerten auffallen müssen mit defekten Sektoren.
 
Nutzt ihr dann zum Virtualisieren alle EXSI oder funktioniert das genauso gut mit Proxmox?
Proxmox wäre mir lieber, weil es Freeware ist.
Bei EXSI scheint mit der Free Version nicht mal ein Backup der VMs möglich sein. Das wäre für mich aber schon sehr wichtig, weil ich das NAS auch zum Arbeiten.
Nach einem Update oder ähnlichen, hätte ich auch gerne ein Backup der VMs in der Hinterhand! :)
 
Du brauchst eigentlich kein Backup der Storage-VM.

Neu aufsetzen, Pool importieren, fertig.
(Zumindest musst du nicht täglich die Storage-VM backuppen.)
 
Du brauchst eigentlich kein Backup der Storage-VM.
Für die Storage-VM trifft das zu.
Aber wenn ich weitere VMs auf dem Server laufen lassen will, dann will ich diese natürlich schon backupen! ;)
Leider scheint das ja mit ESXI Free nicht wirklich zufriedenstellend zu funktionieren.

Kann ich dann für die anderen VMs noch einen anderen Hypervisor wie Proxmox installieren oder wird das am Ende nur Müll?

Bzw. wie macht ihr ESXI User das mit dem Backup oder hat ihr alle eine volle Lizenz? ;)
 
Nein, mischen kannst du das ganze nicht.

Ansonsten würde ich Proxmox empfehlen, funktioniert, solange du keine total exotische Hardware hast, eigentlich einwandfrei und bietet alles, was du so brauchen wirst.
 
Bzw. wie macht ihr ESXI User das mit dem Backup oder hat ihr alle eine volle Lizenz? ;)
Du kannst die VMs einfach auf deine Storage-VM legen.

Dann backuppest du deine VMs ueber deine Storage-VM.


Aber ich nutze fast nur VMs, welche nicht Backup-würdig sind.
Ne Firewall oder nen PiHole brauch ich nich sichern. Habe das Configfile. Damit bin ich in < 5 min wieder online.
 
Alle VMs, bis auf die Storage-VM und kurzlebige Versuche, liegen bei mir auf NFS-Shares (die auf Zpools liegen) und ESXI ja wiederum als Datastore eingebunden hat,
=> VM-Backup oder Status einfrieren geht bei mir über ZFS-Snapshots und diese dann replizieren auf die Backupmaschine. Ganz einfach ohne irgendwelche ESXI-Mechanismen oder Zusatzsoftware (wie Veeam).
Da diese Datastores im Hintergrund von ZFS auch noch LZ4-komprimiert sind, spart man auch richtig schön Platz bei den Vdisks. "Thin provisioned" sind sie eh angelegt.
Bei VMs, die man nicht runterfahren kann, ist das halt ggf. eine schlechte Lösung wg. der Sicherung eines konsistenten Zustands, hab ich aber nit.


Wenn man Vdisks für Datenbank-Tablespaces oder so braucht, kann man ja immer noch welche Thick provisioned" und/oder Zfs-Volumes mit iScsi-Anbindung machen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh