Welches ServerOS?

ZFS hin oder her. Brauchen 95% der Homeuser nicht. ZFS wurde für den Geschäftseinsatz in Serverfarmen entwickelt. Punkt.
Nicht für die Datengrabe mit x TB Hoppelwestern. Deshalb klare Verschwendung von Ressourcen. EXT4 und/oder BTRFS oder sogar NTFS unter Win tun es es allemal.
Tolle verallgemeinerung.
Wem seine daten Wichtig sind der wird am Ende selbst entscheiden auf welchen Gaul er setzt.
Ich nutze gerne mein mehreres TB großes ZFS-Datengrab. Weil mir meine Daten eben wichtig sind.

Koennen gern in 20 Jahren mal schauen wieviele Daten von deinem NTFS Spinning Rust noch brauchbar sind.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde eher sagen, dass 95% der Home-User einfach keinerlei Kenntnis von den "Möglichkeiten" des Datenverlusts hat. In der bereiten Masse haben die User einen gekauften und entsprechenden vorkonfektionierten Windows-PC und nutzen den einfach nur ohne wirkliche Gedanken an das Darunterliegende aufzubringen.
Ich sehe es ja auch an mir selbst, war immer nur mit Windows unterwegs, Linux habe ich seit 2000 immer nur in der Theorie begleitet (2016 dann endlich der stückweise Sprung), Microsofts Welt hat mir aber lange Zeit gereicht. Dann 2011 begann meine Leidenschaft für Blu-Rays und im Laufe der Zeit lernte ich so Dinge wie Kodi und später Emby kennen, und dann wollte ich auf einem meine eigene Mediathek@Home. Und die ist mit Windows einfach nicht machbar, wenn man langfristig denkt.
Zuerst hatte ich ein HW-RAID, weil ich ZFS für eine Modeerscheinung hielt, die auch wieder in der Versenkung verschwinden würde. Tja, das HW-RAID zusammen mit Windows war ein großer Fehler, die Arbeit von 3 Jahren Freizeit ging unwiderbringlich verloren. Dann kam mir Windows Storage Spaces und ReFS ins Blickfeld, war aber auch nur so semi-optimal ... Viel zu viel Verschnitt für ein RAID6 und sehr langsam ... Auf einmal dachte ich wieder an ZFS und heute bin ich ein überglücklicher Nutzer einer Workstation mit 18x20TB als ZFS-RAIDz2, dazu 4x2TB NVMe als RAIDz1, und das alles mit einem Proxmox VE (konfiguriert als KDE Desktop mit allem Drum und Dran).
Am Ende waren es die Verluste und negativen Erfahrungen mit den vorherigen Versuchen, aber jetzt will ich es nicht mehr anders als so ... Ein Graus, ich würde meine über 290TB an Remuxes verlieren ...
 
Zuerst hatte ich ein HW-RAID, weil ich ZFS für eine Modeerscheinung hielt, die auch wieder in der Versenkung verschwinden würde. Tja, das HW-RAID zusammen mit Windows war ein großer Fehler, die Arbeit von 3 Jahren Freizeit ging unwiderbringlich verloren.

Dann hast du aber scheinbar einiges falsch gemacht.

Ich selber nutze kein ZFS, aus dem Grund das man stand jetzt noch immer ZFS nicht um eine Festplatte/SSD erweitern kann. Da sieht man halt das ZFS eigentlich für Industrie gemacht wurde und es dort auch keine Rolle spielt. Das auch der Grund warum ich rein für Storage momentan lieber ein original Synology mit ECC einsetze mit BTRFS und HybridRaid. Weil ich ich habe ein Raid aus 12 TB 14 TB und 16 TB Festplatten und möchte die volle Kapazität ausnutzen und kann jederzeit erweitern/tauschen. Selbst wenn alle Platten gleich groß sind, würde ich kein ZFS verwenden. Augrund der nicht gegeben Erweiterung durch einer Platte/SSD. Auch NTFS unter Windows kann save sein, ECC Ram, kein Hardwareraid oder Windows Softwareraid! Sondern Pooling und die verwendung von Snapraid. Speed ist da halt die andere sache, das gleiche wie bei XFS unter UnRaid. Nur das UnRaid mit XFS keine Prüfsummen hat und auch keine Bitrot Datein wiederherstellen kann. SnapRaid ist auch keine Realtime Software und muss durch Cronjobs/Aufgabenmanager immer angestoßen werden. Bin aber so mit Windows und NTFS einige Jahre sehr zufrieden gefahren.
 
Zuletzt bearbeitet:
Natürlich kannst Du ZFS-Pools erweitern. Ging schon immer.

Du kannst ja jeden Pool ein neues Vdev anfügen. Das geht schon immer/sehr lange. Halt nicht Einzeldisks wenn Du Redundanz haben wolltest.

Und mittlerweile geht auch Raidz-Expansion mit einzelnen Disks.
 
Natürlich kannst Du ZFS-Pools erweitern. Ging schon immer.

Du kannst ja jeden Pool ein neues Vdev anfügen. Das geht schon immer/sehr lange. Halt nicht Einzeldisks wenn Du Redundanz haben wolltest.

Genau darum geht es mir ja. Du verschwendest immer einen Platz wenn du Redundanz haben möchtest. :-)

Und mittlerweile geht auch Raidz-Expansion mit einzelnen Disks.

Davon wuste ich schon, aber ist das schon überall integriert/eingebaut ?
Das ist ja das Feature worauf ich schon Monate/Jahre warte im Privaten Bereich. Und wie geschrieben der einzige Grund bei mir gegen ZFS.
 
Zuletzt bearbeitet:
Ich halte ZFS im Privatbereich ebenfalls für totalen Overkill. Viel wichtiger ist es privat mehrere Offlinebackups zu haben und diese an unterschiedlichen Orten zu lagern. Z.b. auch verschlüsselt außer Haus oder in der Cloud.

Selbst hier im Forum scheinen viele das Thema Backups sträflich zu vernachlässigen, da es bei großen Datenmengen schnell sehr teuer wird.


@Multiverse Dein Anwendungsfall ist für Privatanwender absolut irrelevant. Wieso hunderte Stunden und zigtausend EUR in BluRays, Server und Festplatten investieren, wenn man einfach alles streamen kann. Die Qualität ist hier kein Argument. Es ist wahrscheinlich nur eine Frage der Zeit bis gar keine physischen Medien mehr verkauft werden.
 
Ich halte ZFS im Privatbereich ebenfalls für totalen Overkill. Viel wichtiger ist es privat mehrere Offlinebackups zu haben und diese an unterschiedlichen Orten zu lagern. Z.b. auch verschlüsselt außer Haus oder in der Cloud.

Selbst hier im Forum scheinen viele das Thema Backups sträflich zu vernachlässigen, da es bei großen Datenmengen schnell sehr teuer wird.
Was nützen mehrere Backups wenn irgendwann ein Datenfehler auftritt der auch im Backup ist und den man mangels Prüfsummen weder entdecken noch reparieren kann. Dafür ist ZFS da. Oder wenn man den Stand vor 46 Tagen braucht (vor Ransomware, Sabotage oder löschen). Ein Jahr jeden Tag eine Snapversion geht mit ZFS problemlos und verbraucht nur den Platz geänderter Datenblöcke.

Für ein Disaster (Feuer, Diebstahl, Blitz, defekte Hardware) braucht auch ZFS Backup, für den Rest ist ZFS mit ausreichend Redundanz Stand der Technik was Datensicherheit angeht - gibt nichts besseres.
 
Ich persönlich betrachte meinen Weg einfach als Entwicklung, es brachte mich zu dem was ich jetzt habe.
Klar, man kann ein ZFS-vdev aktuell nicht erweitern. Aber das war mir auch schon vorher klar und so plante ich entsprechend. Mehr als 18 Festplatten gehen nicht in mein Gehäuse und 20TB waren im Dezember das Maximum, also ging sowieso nicht mehr. Muß den aktuellen Platz ja erstmal vollkriegen.
Von diesen Speicher-Kombinierern unter Windows halte ich persönlich nichts, für mich muß eine Storage-Lösung ohne Vendor Lock-In funktionieren. Und dann ist da noch die mittel- und langfristige Datenintegrität, die mit im Windows-Bereich nur mit ReFS und bei den unixoiden nur mit ZFS und BTRFS gewährleistet werden kann.
Am Ende muß jeder selbst wissen wie er mit seinen Datensammlungen umgeht, ich habe meine für mich perfekte Lösung gefunden.

BTW: Redundanz ist keine Verschwendung, sondern Vorsorge!
 
Was nützen mehrere Backups wenn irgendwann ein Datenfehler auftritt der auch im Backup ist und den man mangels Prüfsummen weder entdecken noch reparieren kann. Dafür ist ZFS da.

Du kannst nicht ernsthaft den Totalverlust aller Daten mangels Backup mit einem Datenfehler in einzelnen Dateien vergleichen.

Wenn du die Sorge hast, dass dein System Datenfehler produziert, gibt es jederzeit die Möglichkeit die Backups gegen die Live-Daten per Prüfsummenvergleich zu verifizieren.

Ich persönlich führe eine solche Verifikation alle paar Monate durch. Konnte aber noch nie eine Abweichung feststellen.

Oder wenn man den Stand vor 46 Tagen braucht (vor Ransomware, Sabotage oder löschen). Ein Jahr jeden Tag eine Snapversion geht mit ZFS problemlos und verbraucht nur den Platz geänderter Datenblöcke.

Dafür kann man ebenso gut BTRFS nehmen auf dem kleinen Privat-NAS. OpenMediaVault bietet mit BTRFS automatische Snapshots, das automatische Löschen von alten Snapshots nach Regeln und Samba Shadow Copies auf Freigaben an. Ist sehr einfach einzurichten, kann ich nur empfehlen.

Für ein Disaster (Feuer, Diebstahl, Blitz, defekte Hardware) braucht auch ZFS Backup, für den Rest ist ZFS mit ausreichend Redundanz Stand der Technik was Datensicherheit angeht - gibt nichts besseres.

Das würde ich nicht so stehen lassen. Da ZFS nur ein lokales Dateisystem ist kann es niemals so viel Datensicherheit wie z.B. Ceph als verteiltes Dateisystem bieten.

Ich persönlich betrachte meinen Weg einfach als Entwicklung, es brachte mich zu dem was ich jetzt habe.
Klar, man kann ein ZFS-vdev aktuell nicht erweitern. Aber das war mir auch schon vorher klar und so plante ich entsprechend. Mehr als 18 Festplatten gehen nicht in mein Gehäuse und 20TB waren im Dezember das Maximum, also ging sowieso nicht mehr. Muß den aktuellen Platz ja erstmal vollkriegen.
Von diesen Speicher-Kombinierern unter Windows halte ich persönlich nichts, für mich muß eine Storage-Lösung ohne Vendor Lock-In funktionieren. Und dann ist da noch die mittel- und langfristige Datenintegrität, die mit im Windows-Bereich nur mit ReFS und bei den unixoiden nur mit ZFS und BTRFS gewährleistet werden kann.
Am Ende muß jeder selbst wissen wie er mit seinen Datensammlungen umgeht, ich habe meine für mich perfekte Lösung gefunden.

BTW: Redundanz ist keine Verschwendung, sondern Vorsorge!

Hast du denn jetzt ein Backup für dein System oder nicht?
 
Es spricht wenig gegen btrfs statt ZFS solange man höhere btrfs Raid Levels als Raid-1 vermeidet und man spezielle ZFS Features wie sicheres sync write trotz schnellem Schreiben über einen rambasierten Schreibcache oder Tieringkonzepte wie special vdevs oder anderes was ZFS mehr bietet nicht braucht. Auch Refs (resilent filesystem) ist als ZFS light Alternative erheblich robuster als ntfs. Prüfsummen auf Daten und Metadaten sowie Copy on Write bieten alle drei und das sind die entscheidenden Verbesserungen zu ntfs oder ext4.

Dass verteiltes Storage wie ceph oder S3 die Verfügbarkeit gegenüber einem einzelnen lokalen Dateisystem verbessern ist natürlich richtig. Damit erhöht man allerdings erheblich die Komplexität oder braucht mehrere Server um halbwegs Performance zu haben. Manche legen aber auch da ZFS drunter weil jeder node braucht ein lokales Dateisystem und da ist ZFS eben das Sicherste unter den schnellen.

Zum Theme Datenveränderungen und manuelle Prüfsummen.
Warum sollte man auf die Idee kommen, manuelle Prüfsummenvergleiche anzustellen wenn es Dateisysteme gibt die das automatisch und immer erledigen und bei entdeckten Fehlern automatisch und sofort aus Raid-Redundanz reparieren?

Das Argument, ich hatte mit alten Dateisystemen noch nie Fehler entdeckt, ist nicht hilfreich. Erstmal muss man immer einen Prüfsummenvergleich machen um das überhaupt feststellen zu können. Ansonsten schimpft man nur über Windows wenn ein Programm mal abstürzt oder wundert sich allenfalls wenn in Bildern Pixelfehler sind. Ansonst ist das pure Statistik. Abhängig von Rahmenbedingungen wie Speichergröße, Zeit, Temperatur, Schallpegel/Vibrationen und Häufigkeit von Spannungsschwankungen oder Hardwarequalität gibt es eine statistische Anzahl von Fehlern die mangels ECC RAM oder von der platteninternen Prüfsummentechnik nicht repariert werden. Diese Fehler sind nicht häufig sonst wäre Computerei gar nicht machbar. Sie treten aber garantiert regelmäßig auf wie es regelmäßig einen Glücklichen mit 6 Richtigen im Lotto gibt, trotz der geringen Wahrscheinlichkeit von vielleicht 1 zu 14 Millionen mal Lotto tippen. Wer größeren Storage nutzt hat mit der Zeit garantiert Fehler. Es ist ja tatsächlich so, dass es viele mit ZFS Storage gibt, bei denen irgendwann Prüfsummenfehler protokolliert werden. Hatte ich auch schon mehrfach über die Jahre gehabt.

Man kann zwar sagen dass die Wahrscheinlichkeit eines Fehlers bei kleinerem Storage und geringer Heimnutzung kleiner ist als deren Lebenserwartung. Mit Multi GB RAM und Multi TB Platten die nicht zuletzt für Backup viele Daten bewegen sieht das anders aus. Da WIRD regelmäßig in der Nutzungszeit ein RAM oder Storage Fehler passieren. Manche sind wie Gustav Gans und die Fehler sind jedesmal im "Verschnittbereich" der Datenstrukturen und damit unerheblich. Andere haben weniger Glück und haben sofort einen Fehler in einer wichtigen Datei - Statistik halt.

Multi TB-Storage ist nur mit aktuellen Dateisystemen und Prüfsummen sicher machbar. Copy on Write und die damit mögliche Snapversionierung ist ein wichtiges Extra, sorgt sie doch dafür dass die Wahrscheinlichkeit eines beschädigten Dateisystems oder Dateifehlers durch einen Absturz beim Schreiben nahe gegen Null geht und man readonly Daten Versionierung hat. Mit ext4 oder ntfs sind nicht komplett durchgeführte atomare Writes bei Absturz ein reales Problem (Vollständigkeit eines Schreibens von Daten + Metadaten oder ein Raid Stripe über mehrere Platten). Ein chkdsk oder fschk kann da dann nur Strukturfehler reparieren, keine Daten weil es eben da keine Daten/Metadatenprüfsummen gibt sondern allenfalls über einen 4k physical Festplattenblock. ZFS macht Prüfsummen über Echtdaten bis zu 1M recsize.

Irgendwie ist die Diskussion wie bei Sicherheitstechnik im Auto (Sicherheitsgurt, Nackenstütze und ESP). Habe ich noch nie gebraucht ist nicht der entscheidende Punkt sondern die Frage ob es jährlich 10000 oder 5000 Tote im Straßenverkehr gibt und man selber bei einem Unfall wahrscheinlicher zu den Überlebenden gehört.
 
Zuletzt bearbeitet:
Ich persönlich betrachte meinen Weg einfach als Entwicklung, es brachte mich zu dem was ich jetzt habe.
Klar, man kann ein ZFS-vdev aktuell nicht erweitern. Aber das war mir auch schon vorher klar und so plante ich entsprechend. Mehr als 18 Festplatten gehen nicht in mein Gehäuse und 20TB waren im Dezember das Maximum, also ging sowieso nicht mehr. Muß den aktuellen Platz ja erstmal vollkriegen.

Wenn dir deine Daten so wichtig sind, hoffe ich du hast zu den 18x 20 TB nochmal 18x 20 TB irgendwo auserhalb deines Haushalts ein zweiten Server aufgebaut. Raid ist kein Backup.
Bedenke auch das Festplatten jenachdem nach ein paar Jahen alle ersetzen solltest. Bei 18 Stück, beispielweise 2x 18 Stück wird das je nach Größe recht kostspielig im Privaten Bereich.

Von diesen Speicher-Kombinierern unter Windows halte ich persönlich nichts, für mich muß eine Storage-Lösung ohne Vendor Lock-In funktionieren. Und dann ist da noch die mittel- und langfristige Datenintegrität, die mit im Windows-Bereich nur mit ReFS und bei den unixoiden nur mit ZFS und BTRFS gewährleistet werden kann.

Bitte schreib darüber einfach nicht weiter. Du hast selber geschrieben, das du Daten von 3 Jahren verloren hast. "Obwohl angeblich so wichtig"
Ich habe schon mehrere Hardware Raids auf Windows Basis betreut, stell dir vor, die Daten gibt es selbst noch heute.

Am Ende muß jeder selbst wissen wie er mit seinen Datensammlungen umgeht, ich habe meine für mich perfekte Lösung gefunden.

BTW: Redundanz ist keine Verschwendung, sondern Vorsorge!

Von welcher Redundanz schreibst du ? Für mich klingt das so: Paritydisk = Redundanz. Redundanz ist für mich wenn ich von allen Daten min ein besser zwei nicht daheim gelagerte Backups habe.
 
Zuletzt bearbeitet:
Ich habe schon mehrere Hardware Raids auf Windows Basis betreut, stell dir vor, die Daten gibt es selbst noch heute.

Damit die Statistik stimmt, muss es andere geben die weniger Glück haben Ich hatte vor Jahren auch einen Mailserver mit 2 M Files, ntfs und einem der damals besten Raidcontroller. Von jetzt auch nachher gab es Leseprobleme. Ein chkdsk lief dann 3 Tage mit dem Ergebnis "Daten-Rührei" (hat sich strukturell kaputt repariert, wie soll ntfs chkdsk auch mangels Prüfsummen wissen welcher Datenblock gut oder schlecht ist)

Bin dann deswegen auf ZFS und damals Nexenta und habe seither keine nicht durch ZFS beherrschbaren Probleme bis auf einen Fall mit 15 Seagate 3TB Platten. Die fielen nach ein paar Jahren fast gleichzeitig aus- man vermutete ein Problem mit dem Filter. Da hätte ich fast ein Z3 Raid verloren. War aber nur Backupserver nr 3 von dreien, also nicht ganz so kritisch (Ja, drei im Gelände verteilte Backups trotz ZFS, eines sogar ohne Strom bis auf einmal im Monat - weil Daten wichtig).
 
Damit die Statistik stimmt, muss es andere geben die weniger Glück haben Ich hatte vor Jahren auch einen Mailserver mit 2 M Files, ntfs und einem der damals besten Raidcontroller. Von jetzt auch nachher gab es Leseprobleme. Ein chkdsk lief dann 3 Tage mit dem Ergebnis "Daten-Rührei" (hat sich strukturell kaputt repariert, wie soll ntfs chkdsk auch mangels Prüfsummen wissen welcher Datenblock gut oder schlecht ist)

Ja kann ja auch gut sein, dann hattest du früher aber auch kein Backupsystem ?

Bin dann deswegen auf ZFS und damals Nexenta und habe seither keine nicht durch ZFS beherrschbaren Probleme bis auf einen Fall mit 15 Seagate 3TB Platten. Die fielen nach ein paar Jahren fast gleichzeitig aus- man vermutete ein Problem mit dem Filter. Da hätte ich fast ein Z3 Raid verloren. War aber nur Backupserver nr 3 von dreien, also nicht ganz so kritisch (Ja, drei im Gelände verteilte Backups trotz ZFS, eines sogar ohne Strom bis auf einmal im Monat - weil Daten wichtig).

Ich sehe das ja alles wie du gea. Wie du schreibst hattest du hier aber schon Backup Server und daher 0 Probleme mit Datenverlust. Oder nur sehr geringer Datenverlust.
Deswegen: Raid ersetzt kein Backupsystem, gerade wenn ein die Daten wichtig sind. Und das mit dem Ausfall von Festplatten kann ja immer vorkommen.
Deswegen schrieb ich auch Multiverse: Bedenke auch das Festplatten jenachdem nach ein paar Jahen alle ersetzen solltest. Weil meistens ist es so, fällt eine aus, fallen mehrere aus und wenn dann spätestens bei einen Rebuild, und mit jeder Festplatte mehr im System steigt ja die wahrscheinlichkeit das eine weitere austeigt. Deswegen bin ich garnicht so der Fan von ein System mit 18 Festplatten und Raid 5/Z1 oder Raid 6/Z2.
Dann lieber Raid 10/mirror + Backup System. Ich selber habe für meine wichtigen Daten gleich zwei desaster backups, gebraucht habe ich sie bisher einmal.
 
Ja kann ja auch gut sein, dann hattest du früher aber auch kein Backupsystem ?

Hätte übel geendet wenn ich kein Backup gahabt hätte.

Dennoch war das System eine Woche offline da chkdsk im Gegensatz zu ZFS nur offline prüft/repariert (dauerte Tage) und das anschließende Restore auch Tage dauerte. Heute ist Speicher bis zu 100x größer und Fehler entsprechend häufiger ohne dass die Performance ähnlich zugelegt hat. Ein 50-100TB ext4/ntfs System offline zu prüfen und bei Problemen zurückzuspielen würde einen erheblich längeren Ausfall zur Folge haben, ganz davon zu schweigen dass es keine Prüfsummengarantie gibt, dass alle Daten nach restore ok sind.

Daten offline prüfen + eventuelles Restore meist älterer Daten gilt es unter allen Umständen zu vermeiden. Daher ist die maximale Sicherheit des Primärstorages so wichtig.
 
Ja da hast du natürlich recht, du schreibst aber jetzt wieder von Industriestandards oder? Weil Privat ist mir es eigentlich recht egal ob ein Restore paar Stunden oder gar Tage dauert.
In der Firma ist das natürlich verheerend und man verliert ohne direktes Backupsystem direkt richtig viel Geld.
 
Bzgl. der an mich gerichteten Anmerkungen und Fragen:
Der Home Server ist meine private Mediathek, die sich komplett aus meiner Sammlung an physischen Scheiben (Audio-CD, DVD, BD, UHD-BD) speist. Meine Sammlung betrachte ich daher als mein Backup, auch wenn die Wiederherstellung eine Plackerei wäre.
Kann Hardware kaputtgehen? Ja, klar doch! Ich plane aktuell einen komplett neuen Hom Server für in 5 Jahren, dann wird migriert und der bisherige bekommt eine andere Aufgabe, die ich auch schon im Kopf habe.

Mein Fehler war z.B. überhaupt auf HW-RAID zu setzen. Man ist immer vom Hersteller der Karte abhängig und dessen interner Logik. Und das darauf liegende Dateisystem ist dann wieder was eigenes, was ja nichts vom RAID darunter weiß. Und in meinem Fall führte es damals zu dem, was auch gea beschrieb: HW-RAID crashte und NTFS wollte dann auch nicht mehr. Seit ich ZFS konsequent nutze, hatte ich nie mehr solche Probleme ... Und wenn das eine OS nicht mehr existiert, suche ich mir einfach ein anderes mit OpenZFS ... Sind ja genug da ...
 
Ist ja gut wenn du in 5 Jahren ein neuen Server baust/Platten austauscht. Trotzdem hast du halt kein Backup, scheinbar sind die Daten doch nicht so wichtig wie du erst geschrieben hattest. Ich hatte früher auch 2 extra getrennte Server für die Backups, jetzt speicher ich alles in der Cloud ab. Dafür benutze ich zwei unterschiedliche Cloud Anbieter. So wie du geschrieben hast benutzt du ein Raid Z2, was machst du wenn eine Festplatte ausfällt und du ne neue rainmachst und der Rebuild startet und danach noch zwei weitere ausfallen ? Dann sind alle Daten weg, wie geschrieben steigt die Chance mit jeder weiteren Platte und um so größer die Platten "TB" um so länger dauert der Rebuild. Und ja, ZFS kannst sogar in Windows importieren, mit ZFSin. Hatte vor 2-3 Jahren die Version 0.24 gestest. Lief ganz gut, hatte aber noch einige Bugs.
Wird scheinbar noch weiterentwickelt, ist aber alles noch Pre-realsease: https://github.com/openzfsonwindows/openzfs/releases
Was du mit deinen 290 TB machst und was du drauf hast ist mir und den anderen Leuten völlig Latte. Du musst dich deswegen nicht rechtfertigen. (y)

Mir selber ist noch nie ein HW-Raid unter Windows gecrasht, außer der Controller hatte ein Defekt, dafür hatten wir aber immer Ersatz liegen von gleichen Hersteller/Typ.
Korrupte dateien sind mir in verbindung mit HW Raid und ECC Arbeitsspeicher auch nicht aufgefallen. Ohne ECC Arbeitsspeicher hatte ich früher echt oft Bitrot.
Früher vor etwa 15 Jahren war mir ECC Arbeitsspeicher auch noch nicht so wichtig, jetzt kommt nicht mal mehr mein Home PC ohne ECC Speicher aus.
 
Zuletzt bearbeitet:
Hatte schon unerkannt Bitrot mit Hw-Controller und Raid5 in Windows... Zipfiles waren korrupt und nicht mehr zuöffnen, Fotos entwickelten Farbblitzer-Linien, etc.

Seit ZFS+ ECC-Ram: nie wieder gehabt.

ESXI+Mainfiler = 6x HC530 im Raidz2 , 2xPM9A3 im Mirror (virtualisiert, passthrough im ESXI AIO). Proxmox-Maschine 2xSN850X 4TB im Mirror, 3x 870Evo 4TB Raidz, Platz in der Wohnung.
Backup-Filer: derzeit 6x WD Red 14TB Raidz2. noch gut ausbaubar mit weiteren Raid2 vdevs. Steht zwar im gleichen Haus, aber im 2. Keller-UG, Brandschutztür.
Plattensätze wurden und werden nach 5 Jahren erneuert (manchmal auch eher), die Altplatten werden dann für "Spiel- und Versuchszwecke" verwendet.

Vom Desktop geht ein Backup (FreeFilesync) 1-2x die Woche an den Mainfiler
Von den Produktiv-Servern gehen regelmässig (1x monatlich) ZFS-Snapshots inkrementell auf den Backupfiler.

Muss also schon relativ viel passieren, bis ich ernsthaft relevante Daten verliere.


Sind alles private Daten, aber ich sehe auch da nicht ein, dass ich tagelang irgendwas restoren (oder versuchen ohne klaren Ausgang) soll, wenn es viel sicherer und einfacher geht.
Und ja, ist nicht gratis.
 
Zuletzt bearbeitet:
Hatte schon unerkannt Bitrot mit Hw-Controller und Raid5 in Windows... Zipfiles waren korrupt und nicht mehr zuöffnen, Fotos entwickelten Farbblitzer-Linien, etc.

Ohne ECC Ram oder ? So war es früher bei mir auch. Tonspur verschoben, kurzes grünes Bild, Pixelfehler, Auflösung anders usw..
Solche Probleme habe ich aber schon viele viele Jahre nicht mehr.

ESXI+Mainfiler = 6x HC530 im Raidz2 , 2xPM9A3 im Mirror (virtualisiert, passthrough im ESXI AIO). Proxmox-Maschine 2xSN850X 4TB im Mirror, 3x 870Evo 4TB Raidz, Platz in der Wohnung.
Backup-Filer: derzeit 6x WD Red 14TB Raidz2. noch gut ausbaubar mit weiteren Raid2 vdevs. Steht zwar im gleichen Haus, aber im 2. Keller-UG, Brandschutztür.
Plattensätze wurden und werden nach 5 Jahren erneuert (manchmal auch eher), die Altplatten werden dann für "Spiel- und Versuchszwecke" verwendet.

Klingt gut. (y)
 
@Ceiber3 : Keine Ahnung, was du glaubst von mir gelesen zu haben, aber ich habe sehr wohl ein Backup: Zum einen eben die originalen Discs, auf denen all das Multimedia-Material drauf ist und zum anderen wird von mir alles in Dropbox gespiegelt. Nur sprachen wir bisher nur über Hardware, nicht über die Cloud.
Und mal so unter uns: Du bist nicht der Maßstab für die Einstufung von Wichtigkeit! Mir sind die Daten und der Home-Server an sich sehr wohl wichtig. Ich habe aber auch einfach von vornherein akzeptiert, dass es keine absolute Garantie für den Bestand der Daten gibt. Dies ist nun mal ein privates Projekt, und wenn ich aus irgendeinem Grund die Daten verliere, wird deswegen nicht mein Leben oder irgendwas anderes gefährdet. Ich habe dann einfach nur weniger Komfort beim Ansehen von Serien oder Filmen. Dies ist nun mal keine Firma, bei der durch den Datenverlust ernsthafte Probleme auftreten.
 
Ich Zitiere dich noch einmal:

Der Home Server ist meine private Mediathek, die sich komplett aus meiner Sammlung an physischen Scheiben (Audio-CD, DVD, BD, UHD-BD) speist. Meine Sammlung betrachte ich daher als mein Backup, auch wenn die Wiederherstellung eine Plackerei wäre.

Zum einen eben die originalen Discs, auf denen all das Multimedia-Material drauf ist und zum anderen wird von mir alles in Dropbox gespiegelt. Nur sprachen wir bisher nur über Hardware, nicht über die Cloud.

Echt ? Mich würde ein Bild von dein Dropboxspeicherplatz interessieren "PN", gerne zeig ich dir meinen.
 
Zuletzt bearbeitet:
@Ceiber3 : Und was genau willst du mit den Zitaten jetzt belegen?
Dropbox bietet auch "Advanced" an, kostet zwar 650 Euro im Jahr, aber man bekommt soviel Speicherplatz wie man braucht. Und bisher wurde meinen Erweiterungswünschen immer entsprochen, die DSL-Leitung schafft halt auch nur 2,8 TB je Woche ... Braucht zwar eine Weile bis alles fertig ist, aber ich bin ja auch noch bei der Verarbeitung meiner Scheiben ... Bilder bekommst du keine, muß hier auch nichs beweisen ...
 
Dropbox bietet auch "Advanced" an, kostet zwar 650 Euro im Jahr, aber man bekommt soviel Speicherplatz wie man braucht. Und bisher wurde meinen Erweiterungswünschen immer entsprochen, die DSL-Leitung schafft halt auch nur 2,8 TB je Woche ... Braucht zwar eine Weile bis alles fertig ist, aber ich bin ja auch noch bei der Verarbeitung meiner Scheiben ... Bilder bekommst du keine, muß hier auch nichs beweisen ...

Das zeigt schon mal das du lügst. Dropbox gibt nur noch 1 TB Pro Lizens auf Advanced Business Customer und 1 TB Pro Monat. :fresse2:
Kannst mich gerne über PN vom Gegenteil überzeugen. Dann überarbeite ich gerne meinen Post. :-)(y)

Tarnkappe hat dazu sogar eine News geschrieben warum Dropbox das so macht/handhabt.
 
Zuletzt bearbeitet:
Moment Mal, lese ich das gerade richtig dass hier Terabytes an BD rips / remuxes auf Dropbox gesichert werden?
 
Moment Mal, lese ich das gerade richtig dass hier Terabytes an BD rips / remuxes auf Dropbox gesichert werden?

Hunderte wie bei Multiverse, das Problem ist das jetzt wohl einige Firmen/selbständige ans Speicherlimit kommen bei Dropbox und nicht mehr Uploaden/Arbeiten können.
 
Zuletzt bearbeitet:
Ich bin immer wieder erstaunt und dann doch erschrocken hier.
 
Das zeigt schon mal das du lügst. Dropbox gibt nur noch 1 TB Pro Lizens auf Advanced Business Customer und 1 TB Pro Monat. :fresse2:
Kannst mich gerne über PN vom Gegenteil überzeugen. Dann überarbeite ich gerne meinen Post. :-)(y)

Tarnkappe hat dazu sogar eine News geschrieben warum Dropbox das so macht/handhabt.

IMG_3026.jpeg
:fresse:
 
@Ceiber3 : Ja nee is klar. Du diffamierst mich öffentlich als Lügner, einfach nur der Provokation wegen. Und dann soll ich dir untertänig beweisen, ich kein Lügner bin?! Ich synchronisiere gegen Dropbox einfach weiter, auch wenn es langsamer von Statten geht. Und ich warte einfach bis es nicht mehr geht. Habe ich dann halt Pech gehabt und weiterhin alles lokal ...

Du scheidest für mich damit als künftiger Gesprächspartner komplett aus!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh