[Kaufberatung] NAS für Fotografie

Eben und wie lange braucht man hinterher die ganzen Nutzer, Rechte, etc. einzurichten? Wenn Du dann noch die Synchronisierung zwischen den zwei NAS einrichten musst, dann wird noch viel mehr Zeit dafür rauf gehen.
Bei FertigNASen fällt das also nicht an, die wissen Out Of The Box welche User welche Rechte haben und Syncen tun die sich auch vollautomatisch -
in 5-20 Jahren klappt das vieleicht auf Zuruf....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann sind es auch schon alte Modelle mit geringere Datendichte, die waren noch viel robuster als die heutugen HDDs, die Datendichten haben die Hersteller damals auch noch nicht gezwungen die Abstände der Köpfe zu den Platter in den Teilkontaktbereich zu reduzieren, womit die ganze Technik sich gründlich gewandelt hat. Das habe ich aber auch schon oft genug geschrieben und ehe ich wieder aufgefordert werden einen Sticky zu machen, sagen ich einfach: Mach was Du willst, Dir ist ja eh egal was ich empfehle. Aber wenn die nächsten Desktopplatten im NAS nicht lange durchhalten, meckere nicht das die HDDs nichts taugen, sondern sage Dir einfach: Scheiße der Ars*h hatte reich und ich Idi*t haben nicht hören wollen, abgemacht?!

Na gut. Dann werde ich an dieser Stelle mal etwas deutlicher, wenn du glaubst mir gegenüber den Guru rauskehren zu können. Ich denke dir ist es nicht entgangen, daß so ein NAS eigentlich nichts weiter als ein Computer im Netzwerk ist, welcher hauptsächlich die einfache Aufgabe hat Informationen im Netzwerk zur Verfügung zu stellen. Und diese Computer kannst du natürlich für jede mögliche Betriebsart konfigurieren. Er kann entweder 24 h die Woche durchlaufen oder aber er wird wie ein stinknormaler Desktop PC mit mehreren Laufwerken, jeden Tag bzw. wenn er nicht mehr benötigt wird, herunter gefahren bzw. die Festplatten werden in den Schlafmodus versetzt.

Obwohl es vielleicht dein Ego erschüttert, verrate dir jetzt mal was. Ich habe schon seit "einiger" Zeit und "ein wenig" mit Maschinenbau zu tun. Und da kommt man dann zwangsläufig auch mit den verschiedensten Lagertechologien in Berührung. Unter anderem auch mit FDB Lagern. Und die kannst du nur dahingehend auslegen, daß sie entweder für einen nicht intermittierenden oder aber für einen intermittierenden Betrieb geeignet sind. Wird also bei einer Projektierung nicht auf die jeweilige Betriebsart bezogen auf den Einsatzzweck geachtet und der falsche Lagertyp verwendet, fliegen die dir irgendwann um die Ohren und ein Millionenschaden ist die Folge. Warum das so ist und was da im Einzelnen genau passiert erspare ich dir jetzt an dieser Stelle mal, da dich einerseits vernüftige Ratschläge sowieso nicht interessieren und das andererseits den Rahmen des Themas sprengen würde.

Und um jetzt mal wieder auf die Festplattenbestückung eines NAS zurückzukommen. Auch 24/7 und Desktopfestplatten unterscheiden sich in den verwendeten Lagertechnologien. Und darum ist es eben ratsam in einer Betriebsart, die der eines Desktopcomputers gleichkommt, besser entsprechende Desktopfestplatten zu verwenden, als 24/7 Festplatten. Denn gerade bei FDB Lagern, die auf Dauerbetrieb hin optimiert worden sind, stellen häufige Anlaufphasen eine besondere Belastung dar, was wiederum deren Lebensdauer drastisch verkürzt.

Deine pauschale Argumentation, soweit man deine Einlassungen überhaupt so nennen kann, Desktopfestplatten und NAS vertragen sich generell nicht, ist darum auch völlig realitätsfern. Es kommt eben immer auf den Einsatzzweck bzw. die Betriebsart an. Und meine Fesplatten haben nicht deswegen so lange gehalten, weil die besonders robust sind oder die Datendichte eine andere ist. Sonderen einzig allein deswegen, weil ich sie entsprechend der vorgesehenen Betriebsart ganz bewusst ausgewählt habe. Deine "Argumentation" ist auch schon deshalb nicht stimmig, weil Desktopfestplatten aufgrund dieser generell nicht für ein Linuxsystem mit mehreren Einzelfestplatten geeignet wären. Das ist aber völlig abwegig.
 
Zuletzt bearbeitet:
Man vergleicht jetzt also schon Maschinenbau mit Feinmechanik....

Die Physikalischen Gesetze sind natürlich im Großen wie im Kleinen die Gleichen!
Ob man in der Feinmechanik aber die Differenzierungen bei den Lagern im gleichen Maße macht, wie sie im Maschinebau durchaus Notwendig sind, wage ich ein wenig zu bezweifeln. ich denke die von Holt aufgeführten weiteren Unterscheidungsmerkmale bei HDDs haben da einen weitaus grösseren Einfluss.

Achja, der Techniker ist derjenige, der dem Meister erklärt, warum das, was der Ingenieur entwickelt hat, nicht funktioniert ;)
 
Das Problem war ja wohl die DVB-S Karte Karte und das ist schon recht spezielle HW, da gibt es leider gerne mal Probleme mit den Treibern, gerade unter Linux und was für HW der Rest war, wissen wir auch nicht. Diese Microserver sind Standardhardware und von HP werden gleich auch einige Linux Distributionen offiziell unterstützt, auch wenn es sich da eher um Server Linux Versionen handelt. Das ist keine exotische HW und in dem Sammelhtread zum Gen8 findest Du ja auch eine Menge Leute die diese als NAS nutzen und daher gibt es damit mehr als genug Erfahrungen, viel mehr als mit normalen PCs.

Das war jetzt ein Beispiel bei dem als kompatibel gelistete Hardware nicht zum Laufen zu bekommen war. Der Rechner wurde ja in Hinblick auf diese Listen zusammengestellt und aufgebaut.
Das ist leider nicht das der einzige Fall bei dem solche "Späße" auftreten, mir scheint es so als würde in den Augen einiger Distributionsersteller das Wort "kompatibel" einschließen, dass bis zur Lauffähigkeit des Systems durchaus noch einige Arbeitsstunden vergehen dürfen. :rolleyes: Mir fehlt dafür nun mal das Vertrauen.
Wenn ich dann auch noch auf der FreeNAS-Seite von Speicheranforderungen mindestens 8GB, empfohlen 16GB lese und im G8-Thread davon, dass die Speicher auch noch HP-Zertifiziert sein sollen sonst Warnings...Relativiert sich das mit der Kostenersparnis doch etwas.
 
Man vergleicht jetzt also schon Maschinenbau mit Feinmechanik....

Aber natürlich.

Die Physikalischen Gesetze sind natürlich im Großen wie im Kleinen die Gleichen!

Richtig.

Ob man in der Feinmechanik aber die Differenzierungen bei den Lagern im gleichen Maße macht, wie sie im Maschinebau durchaus Notwendig sind, wage ich ein wenig zu bezweifeln.

Die Erklärung hast du in dem vorangehenden Satz praktischerweise selbst mitgeliefert.

Ich denke die von Holt aufgeführten weiteren Unterscheidungsmerkmale bei HDDs haben da einen weitaus grösseren Einfluss.

Nach seinen Ausführungen dürften solche Festplatten auch in einem Linux Desktopsystem mit mehreren Festplatten und entsprechenden Freigaben keine Verwendung finden. Was logischerweise ziemlicher Nonsens ist. Siehe auch meine obigen Erläuterungen dazu. Dieser Anwendungs-/Belastungsfall bzw. diese Betriebsart wird hier seltsamerweise aber immer wieder ignoriert. Ja nee, ist klar. Und wenn ich dann so ein Linux Desktopsystem dann plötzlich NAS taufe, begehe ich nach den Ausführungen des Gurus zur Folge eine ganz schlimme Blasphemie.

Es bleibt aber dabei. Nicht der Einsatzort ist bei der Auswahl von Festplatten entscheidend, sondern der konkrete Einsatz- und damit der Belastungsfall. Wenn ich eine für den 24/7 Betrieb konzipierte Festplatte jeden Tag hoch und runter fahre und dazwischen noch etliche Male schlafen lege, begehe ich den selben Unfug, als wenn ich eine für den Desktopbetrieb konzipierte Platte 24h 7 Tage die Woche durchlaufen lasse.
 
Ich habe echt Verständnis für beide Seiten. Mit einer "leeren Box", also ohne OS, wie dem Microserver oder eben jedem anderen Server als Alternative zu Synology, Qnap & Co. zu planen, setzt entweder massive Vorkenntnisse oder eben die Bereitschaft statt Geld massiv Zeit zu investieren voraus.

Wieviel "mehr" Zeit im Vergleich zur Fertiglösung hängt m.E. eben von der Komplexität des Vorhabens, also eben den Anforderungen im Hinblick an Features, Sicherheit, Komfort & weiteren Faktoren ab und jeweils den eigenen Kenntnissen für die "richtige" Auswahl, Installation, Konfiguration und Wartung der Hard- und eben vor allem Software. Und da sehe ich auch nach der Erstinstallation bei der Fertiglösung doch einen nicht zu verachtenden Vorteil für Hobby-Admins wie mich.

Ich halte mich für recht gewieft und vorsichtig in Sachen PC&Server für einen Laien, aber ich kann gar nicht mehr abschätzen wie viel Zeit ich bei Linux, Windows und Solaris wegen Unwissenheit und Dummheit in Kombination mit Faulheit, die letzte Meilen sauber zu planen bzw. zu implementieren, verbrannt habe, weil ich immer wieder ganz oder teilweise Extrarunden drehen musste, gerne auch weil nach einem apt-get update && upgrade irgendwas nicht mehr ging.

Mir ist das egal, weil Hobby und somit auch Spaßfaktor. Aber ich würde 99% meiner Bekannten trotzdem eine Synology oder Qnap aus folgenden Erwägungen empfehlen: ich weiß einfach, das sie damit nicht glücklich würden, wenn sie es selbst bauen müssten und ich mich trotz langer Eigenbau-Erfahrung nicht in der Lage sehen würde, so ein Ding langfristig als rundum-sorglos Lösung jemandem hinzustellen.

Wenn ich dann auch noch mal ausrechnen würde, wieviel man quasi mit dem eigenen Stundensatz bei "produktiver Betätigung im Job" zum Bruttosozialprodukt hätte beitragen können, dürfte ich eigentlich nur noch fertig von der Stange kaufen und der ein oder andere Supportvertrag mit SLAs wär wahrscheinlich auch noch drin... ;)

- - - Updated - - -

Und noch ein Nachtrag auch zu ECC als Vorteil gegenüber Synology & Co.: mich würde mal ein Gedankenspiel interessieren, wie viele Daten durch Einsatz von einem ECC-fähigen Selbstbau System gerettet wurden im Vergleich zu denen, die bei Aufbau/Betrieb/Wartung eben derartiger Systeme aufgrund Fehlkonfiguration/-Bedienung verloren gingen und wie umgekehrt das Verhältnis bei den Produkten von Synology & Co wäre.

Aber zum Glück gibt es diese Informationen wohl nicht wirklich, so dass es ein rein theoretisches Gedankenspiel bleiben dürfte... ;)
 
Lassen wir mal die Missionare und Spielkinder...... und konzentrieren uns auf den Anwendungszweck !
Eine generelle Regel (die Hobbyisten öfters vergessen oder irrelevant) besagt: "Nicht so gut wie möglich, sondern so gut wie nötig" !

Hauptzweck Datenablage und Fotos:
Schau Dir auf den Demoseiten der Hersteller wie Qnap/Synology/Asustor die Photoapp an.
Für mich persönlich bleibt da nur Synology von der Technik mit der Photostation. Da funktioniert auch die Regelung über Zugriffsrechte einwandfrei und das Nutzerinterface ist schön aufgeräumt und die Albenerstellung funktioniert sauber.
DS Photo App kann auch von iOs/Android Endgeräten automatisch ein Photobackup auf das NAS schieben.
Funktioniert gut und es lässt sich auch begrenzen das die App nur im WLAN synchronisiert.

Wozu benötigst Du ein Raid ?
Raid im Heimgebrauch ist reine Spielerei, es sei denn die Familie dreht am Rad wenn das NAS aufgrund eines Plattendefekts für 1 Tag ausfällt und da ein Raid kein Backup ist, hat man sich vorher auch eines gleich erstellt und in die Anschaffungskosten mit eingeplant. ;)
Hochverfügbarkeit im Heimbereich muß jeder selbst entscheiden, ich finde es unsinnig.

Btrfs ohne ECC Speicher halte ich für etwas gewagt.
Die Implementierung von Btrfs bei Synology kann im jetzigen Stadium keine Fehler automatisch korrigieren, das hat Synology auch schon gegenüber Computerbase bestätigt, suggeriert aber auf der Homepage mit der Überschrift "Automatische Korruptionserkennung und Reparatur" das es das könnte. Siehe hierzu: https://www.synology.com/de-de/dsm/btrfs
Dabei beschreibt Synology aber generell das Btrfs System und nicht deren eigenen Implementierung !!
Von daher......, sollte es Dir trotzdem wichtig sein, auf diesen kleineren Modellen wird es unterstützt: DS216+, DS716+, DS415+.

Für Fotoablage würde ich zu einem + Modell greifen, die Junior Modelle sind generell schwach und wenn Du mal dem NAS die Generierung der Thumbnails überlassen solltest, dann machen die kleinen Modelle die Grätsche. Es gibt einen Photouploader da übernimmt der Rechner dann die Generierung der Thumbnails, was deutlich flotter abläuft.

Meine Empfehlung wäre:
- DS216+ 1x (6TB HDD) + 1x (6TB HDD) für Backup

Somit hast Du noch einen Slot frei zum Upgrade wenn der Platz zu knapp wird und zur Not könnte man später auch noch eine DX213/DX513 Expansionseinheit anbinden, diese funktionieren mit dem DS216+ aber nur als eigenständiges Volume.

Nachteil bei Synology, die sind teuer !
Qnap bietet zum gleichen Preis einer DS216+ z.B. die TS-251+ mit Celeron J1900 Quadcore Prozessor und 2GB RAM.
Offiziell auch aufrüstbar auf 8GB RAM.
Die Performance ist sehr gut, aber die Photoapp finde ich mal so richtig schlecht.
Alle oben genannten Synos kannst Du aber auch auf 8GB RAM aufrüsten, hier entfällt dann aber die Herstellergarantie.
Alternativ wenn man kein Rechtsempfinden hat: XPEnology als VM auf die TS251+ und dort dann die Photostation mit drauf.
Rennt prima, funktioniert aber nicht einwandfrei wenn man mit dem Photo Uploader auf die VM schreiben will.
 
Raid im Heimgebrauch ist reine Spielerei, es sei denn die Familie dreht am Rad wenn das NAS aufgrund eines Plattendefekts für 1 Tag ausfällt und da ein Raid kein Backup ist, hat man sich vorher auch eines gleich erstellt und in die Anschaffungskosten mit eingeplant. ;)

Deine Worte gehen einfach runter wie Öl und das meine ich ganz ehrlich. :) Da wird ein riesen Geschiss um mögliche vorzeitige Ausfälle von Desktopfestplatten in einem ganz genau definierten Anwendungs- bzw. Belastungsfall gemacht, macht einen riesen Herrmann um viel teurere Fertiggeräte, fährt dann aber selbst gleichzeitig doppelt so teure NAS HDDs nur wegen der Totalverfügbarkeit gleich mehrfach auf Verschleiß. :lol: Den Quatsch muss man nun wirklich nicht mitmachen, geschweige denn verstehen, wenn da zusätzlich gleich eine quasi Religion draus gemacht wird. Das es anders geht habe ich ja auch hier mal kurz angerissen:

Auf RAID würde ich persönlich sowieso verzichten und stattdessen streng mit separaten Disks innerhalb des NAS arbeiten. Um weiter Ausfallsicherheit zu gewährleisten, empfehle ich als Alternative ein 1:1 Cloning der NAS Platten. Die anschließend nummerieren und gut und sicher verstauen. Bei einem Defekt sind die dann ruck zuck getauscht. Der Vorteil liegt bei dieser Verfahrensweise auf der Hand. Es laufen keine Festplatten unnütz mit, was natürlich dem Verschleiß sehr entgegenwirkt.

Wenn bei mir also wirklich 'ne Festplatte abkacken sollte, defekter Einschub raus, neuer Einschub rein, fertig. Demgegenüber dauert ein Rebuilding innerhalb eines RAID Verbundes nicht nur deutlich länger, eventuell vorhandene Fehler werden dann auch gleich mitaufgebaut. :d

Hochverfügbarkeit im Heimbereich muß jeder selbst entscheiden, ich finde es unsinnig.

Eben. Ich selbst finde einige Vorschläge zwar durchaus für überlegenswert und bringe mich auch gerne selbst mit meinen Erfahrungen ein. Wenn jemand aber letztendlich doch seinen individuellen Weg gehen möchte, nun, ich habe damit keine Probleme.
 
Zuletzt bearbeitet:
Bei FertigNASen fällt das also nicht an, die wissen Out Of The Box welche User welche Rechte haben und Syncen tun die sich auch vollautomatisch
Sorry falls es anders rübergekommen ist, aber ich dachte es wäre klar, dass diese in jedem Fall, also auch bei einem Fertig-NAS anfällt und die Zeit zum Aufsetzen des Microservers als NAS dagegen eher irrelevant sein wird.

Na gut. Dann werde ich an dieser Stelle mal etwas deutlicher, wenn du glaubst mir gegenüber den Guru rauskehren zu können.
Meine Absicht ist es aufzuklären und nicht dir oder anderen gegenüber den Guru rauszukehren, wenn du es nicht glauben willst oder verstehe kannst, es sind ja nicht meine Platten oder Daten. Nur meckere nicht über die miese Qualität der HDDs, wenn Du sie in bestimmungsgemäß nutzt.
wenn er nicht mehr benötigt wird, herunter gefahren bzw. die Festplatten werden in den Schlafmodus versetzt.
Möglich, aber es kommt nicht bei jedem NAS vor, manche laufen auch permanent durch, so wie manche PCs praktisch nie ausgeschaltet werden oder pro Tag weit mehr als 8 Stunden laufen.
Obwohl es vielleicht dein Ego erschüttert
Mein Ego kann gar nichts erschüttern, ich weiß was ich kann und weiß und sehen wie weit ich damit gekommen bin und das ist weiter als 99% der Menschen gekommen sind.
Ich habe schon seit "einiger" Zeit und "ein wenig" mit Maschinenbau zu tun.
Das Maschbauern mehr Knochen als andere Menschen habe, weil auch das Hirn mechanisch arbeitet, was während meines Studiums ein häufig benutzter Witz, wenn wir mal mit denen zusammen gekommen sind :d Aber da ich selbst zwei Facharbeiterbriefe (jeweils mit Auszeichnung durch die IHK) und ein Ing. Diplom (mit 1.x und Rabatt bei der Rückzahlung des Bafögs) habe und auf einem davon auch Mechaniker steht, fand ich den schon damals nur begrenzt lustig.
Und da kommt man dann zwangsläufig auch mit den verschiedensten Lagertechologien in Berührung.
Wenn Du meinst, eine HDD lasse sich auf die Lager reduzieren, denn scheint es nicht nur ein aus der Lust gegriffener Witz gewesen zu sein. Aber Lager spielen auch eine Rolle und vergiss nicht, die Desktopplatten sind heute extrem kostenoptimiert, mehr als früher.
bei einer Projektierung nicht auf die jeweilige Betriebsart bezogen auf den Einsatzzweck geachtet
Das man bei Desktopplatten heute extrem die Kosten optimiert und damit alles so billig wie möglich und nur so gut wie für den jeweiligen Anwendungszweck baut, hatte ich doch meine ich geschrieben und das gilt ja auch nicht nur für HDDs, sondern mehr und mehr für alle Geräte.
da dich einerseits vernüftige Ratschläge sowieso nicht interessieren und das andererseits den Rahmen des Themas sprengen würde.
Ich? Bist du dir da sicher nicht etwas zu verwechseln? Egal, damit beschreibst du ja im Grund genau was ich auch sage, willst es nur nicht auf HDDs anwenden, warum auch immer.

Auch 24/7 und Desktopfestplatten unterscheiden sich in den verwendeten Lagertechnologien.
Möglich, aber damit wäre dann Meine Aussagen nur umso mehr gestützt und deine widerlegt, nach denen man auch einfache Desktopplatten problemlos nutzen könnte.
Und darum ist es eben ratsam in einer Betriebsart, die der eines Desktopcomputers gleichkommt, besser entsprechende Desktopfestplatten zu verwenden, als 24/7 Festplatten.
Wobei dann aber die Frage bleibt, warum die billigeren Desktopplatten die besseren und für 24/7 Nutzung tauglichen Lagen haben sollten als die teureren NAS Platten die extra für Dauerbetrieb freigegeben sind. Die Logik dahinter kann ich nicht nachvollziehen und da bin ich wohl nicht der einzige hier. Die Praxis zeigt das Gegenteil, die Desktopplatte ST3000DM001 aka Barracuda 7200.14 zeigt auch das Gegenteil, die sind nach rund 20.000 Betriebsstunden auf also mehr oder weniger kurz nach den 2 Jahren die die Garantie dauert, während eine NAS Platte meist 3 Jahre Garantie haben und damit innerhalb der Garantiezeit auf über 26.000 Betriebsstunden kommen können.
Denn gerade bei FDB Lagern, die auf Dauerbetrieb hin optimiert worden sind, stellen häufige Anlaufphasen eine besondere Belastung dar, was wiederum deren Lebensdauer drastisch verkürzt.
Zu viele Start-Stop Zyklen sind für HDD nicht gut, aber das gilt auch für Desktopplatten. Die meisten HDDs sind nur für maximal 50.000 Start-Stop Zyklen ausgelegt und nur unter optimalen (Temperatur-) Bedingungen. Platten zu oft in den Standby zu schicken ist daher nicht ratsam, solche Vorschläge von den Extremenergiesparern können also auch finanziell nach hinten los gehen und ich raten auch niemandem dazu.
Deine pauschale Argumentation, soweit man deine Einlassungen überhaupt so nennen kann,
deine Einlassungen als Argumentation zu werten fällt Mir ebenso schwer, aber lassen wir doch den Austausch weiterer Unhöflichkeiten, bevor ich schauen muss, ob auf meiner Ignoreliste noch ein Plätzchen frei ist :d
Desktopfestplatten und NAS vertragen sich generell nicht, ist darum auch völlig realitätsfern.
Wieso? Weil die NAS Platten für die Anforderungen die NAS typischerweise stellen nur aus Spaß entwickelt haben oder gehörst Du zu denen die glauben, die wären intern identisch und nur Marketinggags um den Kunden mehr Geld aus der Tasche zu ziehen und Vibrationen wäre nur ein böses Märchen? Als Mechaniker solltest du doch Vibrationen und deren Auswirkungen sehr gut kennen!
Es kommt eben immer auf den Einsatzzweck bzw. die Betriebsart an.
Und genau dafür die passende Platte zu wählen, empfehle ich doch immer, wieso also so eine verbissene Gegenargumentation?
Und meine Fesplatten haben nicht deswegen so lange gehalten, weil die besonders robust sind oder die Datendichte eine andere ist.
Bezweifelst du etwa, dass die Datendichte viel geringer ist oder weißt Du einfach nicht, dass man bei Datendichten zwischen etwa 300 und 400Gbit/in² gezwungen ist in den Teilkontaktbetrieb zu gehen? Alleine auf die damit verbundenen tribologischen Probleme muss einem Mechaniker wohl nicht erzählen, oder?
Deine "Argumentation" ist auch schon deshalb nicht stimmig, weil Desktopfestplatten aufgrund dieser generell nicht für ein Linuxsystem mit mehreren Einzelfestplatten geeignet wären. Das ist aber völlig abwegig.
Das Betriebssystem ist den Platten doch total egal und nicht entsinne mich nicht, je etwas anderes behauptet zu haben. Wie du nun darauf kommst, ist mir echt schleierhaft, passt aber zu den wirren Gedanken und falschen Schlussfolgerungen die so typisch für Leute einem gefährlichen Halbwissen sind, die die Gesamtheit eines Problems nicht durchschauen aber genau dies nicht erkennen. Diese sind leider typischerweise auch extrem beratungsresistent und daher sollten wir auch nicht weiter argumentieren, weil es nur in Streit ausarten wird. Einige Dinge hast Du ja schon erkannt, wenn du dich weiter informierst statt anzunehmen alles zu wissen (keiner weiß alles, auch ncht alles für Festplatten!, sonst hätten deren Hersteller ja auch keinerlei Industriegeheimnisse mehr) dann kommst du vielleicht noch ein paar wichtige Schritte weiter, dann schreibe ich das du bei dir auch wieder mit einem großen d, diesmal habe ich es aus Reziprozität bewusst unterlassen.

Das war jetzt ein Beispiel bei dem als kompatibel gelistete Hardware nicht zum Laufen zu bekommen war.
Der Fall ist schwer zu beurteilen ohne alle Details zu kennen, aber DVB-S Karten sind eben keine alltägliche PC-HW.
Wenn ich dann auch noch auf der FreeNAS-Seite von Speicheranforderungen mindestens 8GB, empfohlen 16GB lese und im G8-Thread davon, dass die Speicher auch noch HP-Zertifiziert sein sollen sonst Warnings...Relativiert sich das mit der Kostenersparnis doch etwas.
Also im Eingangspost zum Gen8 finde ich folgende Liste an RAM Modulen die als kompatible angegeben sind:
Da sind nun ja doch auf den ersten Blick eine Menge dabei, die nicht von HP kommen und ich sehen spontan keinen von HP. Das non-ECC nicht läuft, ist ja kein Verlust, wer so einen Microserver kauft und auf ECC RAM verzichtet, sollte sowie geteert und federt aus der Stadt gejagt werden :fresse2:

Die Empfehlungen bzgl. der RAM Größe dürften ZFS geschuldet sein, das benötigt aber nur bei Nutzung bestimmter Features so viel RAM, ich meine Snapshots gehören dazu. Da aber weder HDDs noch die Übertragung von Daten wirklich anfällig dafür ist Daten zu korrumpieren, nutze ich kein ZFS und hatte ja auch zu OMV geraten, also Linux und damit md-RAID und einem ext Filesystem, die brauchen viel weniger RAM. Wirf also bitte nicht die Empfehlungen durcheinander, ZFS hat viele Fans und ist das Argument so ein FreeBSD Derivat wie eben FreeNAS oder NAS4Free zu verwenden. Aber wenn man alle Feature nutzen will, sollte man wohl auch 1GB RAM pro 1TB Speicherkapazität einplanen, nur erreicht man in meinen Augen alleine mit ECC-RAM und einem echten RAID sowie Backups genug Sicherheit und braucht eigentlich kein ZFS oder BTRFS und damit auch nicht so viel RAM. Nutzt man diese Filesysteme nur als SW-RAID und zur Datenüberprüfung und -korrektur, kommt man auch mit weniger RAM aus.

Aber Du scheinst Dich schon fest für ein Fertig-NAS entschieden zu haben und ich haben keinerlei persönlichen Vorteil wenn ich Dich davon abbringe, werde das also auch nicht versuchen. Es ging nur darum anderen Lesern zu zeigen, dass man eben nicht zwangsläufig so viel RAM braucht und beim Gen8 auch keineswegs nur HP RAM nutzen kann.
 
@Progears: Danke, das hilft mir weiter!

@Holt: Zu der Thematik "Fernsehrechner": Es haben bei dem Fall nicht nur die DVB-S-Karten Probleme bereitet.
Effektiv haben in der Kiste einige Komponenten Probleme bereitet. Im Detail kann ich dir das auch nicht mehr auflisten. Darunter waren aber so Standardsachen wie LAN-Ports, Realtek-Audio, HDMI.
Einige Probleme waren auch darauf zurück zu führen dass in der Distri wesentliche Komponenten aus der Basisdistri "entschlackt" wurden, und dann beim Reparaturversuch gefehlt haben. Eine Lösungsidee aus der Community war ja auch "kompilier halt den Kernel neu mit Soundsystem drin...". Das war dann der Punkt an dem eine Windowslizenz gekauft wurde...
 
Nach seinen Ausführungen dürften solche Festplatten auch in einem Linux Desktopsystem mit mehreren Festplatten und entsprechenden Freigaben keine Verwendung finden. Was logischerweise ziemlicher Nonsens ist. Siehe auch meine obigen Erläuterungen dazu. Dieser Anwendungs-/Belastungsfall bzw. diese Betriebsart wird hier seltsamerweise aber immer wieder ignoriert. Ja nee, ist klar. Und wenn ich dann so ein Linux Desktopsystem dann plötzlich NAS taufe, begehe ich nach den Ausführungen des Gurus zur Folge eine ganz schlimme Blasphemie.
Genau das war früher (tm) kein Problem, da solltest du dir Holts Auführungen noch mal genau durchlesen - es geht um Kostenoptimierung.

Es bleibt aber dabei. Nicht der Einsatzort ist bei der Auswahl von Festplatten entscheidend, sondern der konkrete Einsatz- und damit der Belastungsfall. Wenn ich eine für den 24/7 Betrieb konzipierte Festplatte jeden Tag hoch und runter fahre und dazwischen noch etliche Male schlafen lege, begehe ich den selben Unfug, als wenn ich eine für den Desktopbetrieb konzipierte Platte 24h 7 Tage die Woche durchlaufen lasse.
24h/7t beinhaltet auch 8h/5t, da ist die Anlaufbelastung mit drin, da nahezu 70% Dauerlast fehlen.
Man darf davon ausgehen, daß die 5 zusätzlichen Anläufe / Woche diese mechanische Lastsreserve nicht auffressen.

8h/5t ist mit 24h/7t schlicht überfordert da die Anlaufbelastung bereits eingerechnet ist und der Wegfall nicht die notwendige Lastreserve erbringt und die HDD somit überlastet wird.
Das nennt sich einfache Mathematik!
Basierend auf der Annnahme, daß die Anlaufbelastung von 5 zusätzlichen Anläufen pro Woche weniger mechnaische Belastung bedeutet, als (16h *5Tage +2*24h) Dauerlast pro Woche.
 
Zuletzt bearbeitet:
Interessanter Thread hier.

Ich möchte auch ein NAS, jedoch selber einrichten. Wahrscheinlich HP G8 oder etwas ähnliches.

Hier wird von FreeNAS und NASFree eher ab- und mehr zu OMV geraten.

Ich möchte als wichtigste Dateien Fotos (mehrere 10.000) und ein paar kleine Videos sichern, welche möglichst sicher gelagert werden sollen (Backup ist selbstverständlich). Daher dachte ich an einen Server mit ECC-RAM und ein entsprechendes NAS mit z.B. ZFS. Aber wenn das mit ECC-RAM und ext4 auch schon "sicher" ohne Datenfehler gespeichert werden kann...

RAM wäre nicht so das Problem. Der G8 hätte schon 4GB drin und ein zusätzlicher 8GB Riegel kostet nicht die Welt. Was würdet ihr dann hier empfehlen? Reicht ext4 oder dann doch besser ZFS? Die ganzen Spielereichen mit Snapshot usw werden wohl eher nicht benötigt, das könnte man auch alles abschalten. Nur die Datensicherheit bzw. Datenunversehrtheit ist mir wichtig. Die Bilder sollen auch in einigen Jahren noch ohne Datenfehler abgespeichert sein.
 
Ich habe echt Verständnis für beide Seiten. Mit einer "leeren Box", also ohne OS, wie dem Microserver oder eben jedem anderen Server als Alternative zu Synology, Qnap & Co. zu planen, setzt entweder massive Vorkenntnisse oder eben die Bereitschaft statt Geld massiv Zeit zu investieren voraus.

Wieviel "mehr" Zeit im Vergleich zur Fertiglösung hängt m.E. eben von der Komplexität des Vorhabens, also eben den Anforderungen im Hinblick an Features, Sicherheit, Komfort & weiteren Faktoren ab und jeweils den eigenen Kenntnissen für die "richtige" Auswahl, Installation, Konfiguration und Wartung der Hard- und eben vor allem Software. Und da sehe ich auch nach der Erstinstallation bei der Fertiglösung doch einen nicht zu verachtenden Vorteil für Hobby-Admins wie mich.

Ich halte mich für recht gewieft und vorsichtig in Sachen PC&Server für einen Laien, aber ich kann gar nicht mehr abschätzen wie viel Zeit ich bei Linux, Windows und Solaris wegen Unwissenheit und Dummheit in Kombination mit Faulheit, die letzte Meilen sauber zu planen bzw. zu implementieren, verbrannt habe, weil ich immer wieder ganz oder teilweise Extrarunden drehen musste, gerne auch weil nach einem apt-get update && upgrade irgendwas nicht mehr ging.

Mir ist das egal, weil Hobby und somit auch Spaßfaktor. Aber ich würde 99% meiner Bekannten trotzdem eine Synology oder Qnap aus folgenden Erwägungen empfehlen: ich weiß einfach, das sie damit nicht glücklich würden, wenn sie es selbst bauen müssten und ich mich trotz langer Eigenbau-Erfahrung nicht in der Lage sehen würde, so ein Ding langfristig als rundum-sorglos Lösung jemandem hinzustellen.

Wenn ich dann auch noch mal ausrechnen würde, wieviel man quasi mit dem eigenen Stundensatz bei "produktiver Betätigung im Job" zum Bruttosozialprodukt hätte beitragen können, dürfte ich eigentlich nur noch fertig von der Stange kaufen und der ein oder andere Supportvertrag mit SLAs wär wahrscheinlich auch noch drin... ;)
Du verwechselst eine komplexe Betriebssysteminstallation mit einem "ready to use" NAS-OS wie z.B. FreeNas oder Nas4Free und ZFS-Guru.
OMV, XPenology oder auch OmniOS mit Napp-IT sind hier sicherlich aufwendiger und würde ich nicht als "Redady to uses" ansehen - obwohl Gea mit seinem "Napp-it ToGo" für den HP N54L sicherleich alles in diese Richtung unternimmt (ob das Image auch mit dem G8 funzt, weiss ich nicht).

Sowohl ein NAS von der Stange als auch ein "ready to use" NAS-OS muss eingerichtet werden, das nimmt sich gar nichts.

Und noch ein Nachtrag auch zu ECC als Vorteil gegenüber Synology & Co.: mich würde mal ein Gedankenspiel interessieren, wie viele Daten durch Einsatz von einem ECC-fähigen Selbstbau System gerettet wurden im Vergleich zu denen, die bei Aufbau/Betrieb/Wartung eben derartiger Systeme aufgrund Fehlkonfiguration/-Bedienung verloren gingen und wie umgekehrt das Verhältnis bei den Produkten von Synology & Co wäre.

Aber zum Glück gibt es diese Informationen wohl nicht wirklich, so dass es ein rein theoretisches Gedankenspiel bleiben dürfte... ;)
"Wenn das Kind in den Brunnen gefallen ist, ist das Geschrei gross" - ohne ECC ist nicht erkennbar, ob es ein ECC Fehler war, das ist ja das Perverse daran.

- - - Updated - - -

Lassen wir mal die Missionare und Spielkinder...... und konzentrieren uns auf den Anwendungszweck !
Eine generelle Regel (die Hobbyisten öfters vergessen oder irrelevant) besagt: "Nicht so gut wie möglich, sondern so gut wie nötig" !

Hauptzweck Datenablage und Fotos:
Schau Dir auf den Demoseiten der Hersteller wie Qnap/Synology/Asustor die Photoapp an.
Für mich persönlich bleibt da nur Synology von der Technik mit der Photostation. Da funktioniert auch die Regelung über Zugriffsrechte einwandfrei und das Nutzerinterface ist schön aufgeräumt und die Albenerstellung funktioniert sauber.
DS Photo App kann auch von iOs/Android Endgeräten automatisch ein Photobackup auf das NAS schieben.
Funktioniert gut und es lässt sich auch begrenzen das die App nur im WLAN synchronisiert.
Das ist in der Tat mal ein Argument pro Syno!
Für NAS4Free gibt es da scheinbar gar nichts, bei FreeNAS geht's dann ins "eingemachte"
Wobei: Ích nutze dafür meine Clients

Wozu benötigst Du ein Raid ?
Das ist sicherlich eine Grundsatzfrage, bei deren Beantwortung man auch das zu Grunde liegende Datenvolumen mit einbeziehen sollte und die Fragestellung, ob man bei Einsatz mehrerer Platten diese als Einzelvolumes oder "übergreifendes" Volume betreiben will. Bei Einzelvolumes "legt man sich in Ketten" was das Dateimangement und die Datenverteilung angeht.
Bei mir passt schon die Datensicherung nicht auf eine einzelne Platte und ist daher als Raid Raid5 (Raidz1) angelegt!

Da ich sowohl auf dem HauptNAS (Raiz3) als auch auf dem BackupNAS (Raidz1) ZFS als Dateisystem verwende und in beiden Systemen ECC Speicher verwende, brauche ich mir um Datenrot keine Gedanken machen.

Btrfs ohne ECC Speicher halte ich für etwas gewagt.
Die Implementierung von Btrfs bei Synology kann im jetzigen Stadium keine Fehler automatisch korrigieren, das hat Synology auch schon gegenüber Computerbase bestätigt, suggeriert aber auf der Homepage mit der Überschrift "Automatische Korruptionserkennung und Reparatur" das es das könnte. Siehe hierzu: https://www.synology.com/de-de/dsm/btrfs
Dabei beschreibt Synology aber generell das Btrfs System und nicht deren eigenen Implementierung !!
Von daher......, sollte es Dir trotzdem wichtig sein, auf diesen kleineren Modellen wird es unterstützt: DS216+, DS716+, DS415+.
Ein teures Syno mit oder wegen BTRFS zu kaufen ist also zumindest zur Zeit absolut sinnfrei.

- - - Updated - - -

Demgegenüber dauert ein Rebuilding innerhalb eines RAID Verbundes nicht nur deutlich länger, eventuell vorhandene Fehler werden dann auch gleich mitaufgebaut. :d
ZFS oder BTRFS verhindern Datenrot.... - somit Aussage widerlegt.

Nachtrag: ZFS läuft auch auf Systemen mit 2 GB RAM. Mehr Ram bedeutet mehr Cache.
Einzig Deduplikation benötigt 1GB Ram / TB Festplattenkapazität, dieses wird immer wieder fälschlicherweise als Argument gegen ZFS aufgeführt. Deduplikation ist in den selteneren Fällen wirklich sinnvoll und sollte dann auch nur auf kleine in der grösse passenden Volumes eingerichtet werden.

- - - Updated - - -

Interessanter Thread hier.

Ich möchte auch ein NAS, jedoch selber einrichten. Wahrscheinlich HP G8 oder etwas ähnliches.

Hier wird von FreeNAS und NASFree eher ab- und mehr zu OMV geraten.

Ich möchte als wichtigste Dateien Fotos (mehrere 10.000) und ein paar kleine Videos sichern, welche möglichst sicher gelagert werden sollen (Backup ist selbstverständlich). Daher dachte ich an einen Server mit ECC-RAM und ein entsprechendes NAS mit z.B. ZFS. Aber wenn das mit ECC-RAM und ext4 auch schon "sicher" ohne Datenfehler gespeichert werden kann...

RAM wäre nicht so das Problem. Der G8 hätte schon 4GB drin und ein zusätzlicher 8GB Riegel kostet nicht die Welt. Was würdet ihr dann hier empfehlen? Reicht ext4 oder dann doch besser ZFS? Die ganzen Spielereichen mit Snapshot usw werden wohl eher nicht benötigt, das könnte man auch alles abschalten. Nur die Datensicherheit bzw. Datenunversehrtheit ist mir wichtig. Die Bilder sollen auch in einigen Jahren noch ohne Datenfehler abgespeichert sein.

Wenn man ECC als Pflicht ansieht, dann ist ZFS halt die Kür und bietet noch ein wenig mehr Sicherheit.
ZFS ohne ECC kann in die Hose gehen und ist nicht zu empfehlen (auch wen Gea das gerne anders sieht).
 
Zuletzt bearbeitet:
Na gut. Da die Gurus und Nerds offenbar der Meinung sind einfache technisch-physikalische Grundlagen mit Rechenkunststücken wegreden zu können, weil sie offenbar mehr auf ihre eigene Image- und Egopflege fixiert sind, bin ich dann auch wieder raus hier.

Ich dachte zwar immer ein Forum sei auch dazu da anderen mit eigenen Erfahrung, Grundlagenwissen und Ratschlägen zu helfen. Aber ich muss mich da wohl eines Besseren belehren lassen und es ist halt so wie es immer im Leben ist. Admiräle und Kapitäne fühlen sich kompromittiert, wenn sie von einem kleinen Licht wie einem Hauptgefreiten vorgeführt bzw. belehrt werden. Dogmenkackerei eben. Unser Weg ist der einzig richtige. Ich könnte jetzt zwar die von mir eingebrachten technischen Grundlagen noch weiter untermauern. Das wäre aber nach dem Stand der Dinge Perlen vor die S..e werfen. Muss eben jeder selbst wissen, ob er deren Dogmen blindlings folgt oder auch noch in der Lage ist eigene und alternative Wege zu gehen. Letztendlich macht dann nur noch jeder das was die sagen. Und so einen Scheiß werde ich mir ganz gewiss nicht antun. Zumal ich mit meinen Lösungen und Erfahrungen bisher mindestens genauso gut gefahren bin.

Ach ja nur noch eines:

ZFS oder BTRFS verhindern Datenrot.... - somit Aussage widerlegt.

Nö, nicht widerlegt. Ich hatte vor einiger Zeit das Netgear von einem Bekannten mit BTRFS auf dem Tisch. Und da ist genau das passiert, was ich oben schon angerissen habe. Tja, fehlerhaft implementiert, Schutz vor Datenrot war auch noch deaktiviert. Und nun? So ist das mit Theorie und Praxis. Da kann theoretisch draufstehen was will. Daß es auch in der Praxis auch zu 100% funktioniert, ist noch lange nicht gewährleistet. Ende vom Lied war. Er hat das ganze RAID Geschiss rausgschmissen und arbeitet stattdessen und wie ich auch mit separaten Disks innerhalb des NAS und separaten Backup Platten die ruck zuck getauscht werden können. Und bevor jetzt wieder Geschrei kommt. Die Images wurden selbstverständlich vorher alle überprüft.
 
Zuletzt bearbeitet:
Netgear macht irgendwie die Bitrot-Protection selbst gekocht mit mdadm... Praktisch kann man aber jederzeit auf der Konsole einen Read-Only-Scrub starten. Grundsätzlich muss ich dir aber recht geben, dass die ganzen HA, RAID und ECC-Themen dann zu den Ergebnissen führen, die man bspw. im FreeNAS-Forum besichtigen kann: wahlweise Raidz2 ohne ECC, Raidz1 mit WD-Greens und ECC, Greens mit ECC :shake:. Andererseits: wenn jemand hier fragt (und nicht nur die vielen: "wie toll ist ZFS"-Threads anliest), dann hat er gute Chancen, wenn er allen Ratschlägen von gea, digiquick und holt folgt, ein maximal sicheres System zu bekommen :d. (das Plebs wie wir sollte sich da aber raushalten, da die Leute am Ende nur noch verwirrt werden und dann am Ende irgendwelche Sachen weglassen, anstatt sich von vornerein selbst Gedanken zu machen :coffee:)
 
Zuletzt bearbeitet:
Na gut. Da die Gurus und Nerds offenbar der Meinung sind einfache technisch-physikalische Grundlagen mit Rechenkunststücken wegreden zu können, weil sie offenbar mehr auf ihre eigene Image- und Egopflege fixiert sind, bin ich dann auch wieder raus hier.

Ich dachte zwar immer ein Forum sei auch dazu da anderen mit eigenen Erfahrung, Grundlagenwissen und Ratschlägen zu helfen. Aber ich muss mich da wohl eines Besseren belehren lassen und es ist halt so wie es immer im Leben ist. Admiräle und Kapitäne fühlen sich kompromittiert, wenn sie von einem kleinen Licht wie einem Hauptgefreiten vorgeführt bzw. belehrt werden. Dogmenkackerei eben. Unser Weg ist der einzig richtige. Ich könnte jetzt zwar die von mir eingebrachten technischen Grundlagen noch weiter untermauern. Das wäre aber nach dem Stand der Dinge Perlen vor die S..e werfen. Muss eben jeder selbst wissen, ob er deren Dogmen blindlings folgt oder auch noch in der Lage ist eigene und alternative Wege zu gehen. Letztendlich macht dann nur noch jeder das was die sagen. Und so einen Scheiß werde ich mir ganz gewiss nicht antun. Zumal ich mit meinen Lösungen und Erfahrungen bisher mindestens genauso gut gefahren bin.
Wenn du es wirklich drauf hättest, würdest du entsprechende Belege, Berchnungen und Graphen präsentieren.
Diese Posting bewiest nur eines - Du kannst es nicht.

Nö, nicht widerlegt. Ich hatte vor einiger Zeit das Netgear von einem Bekannten mit BTRFS auf dem Tisch. Und da ist genau das passiert, was ich oben schon angerissen habe. Tja, fehlerhaft implementiert, Schutz vor Datenrot war auch noch deaktiviert. Und nun? So ist das mit Theorie und Praxis. Da kann theoretisch draufstehen was will. Daß es auch in der Praxis auch zu 100% funktioniert, ist noch lange nicht gewährleistet. Ende vom Lied war. Er hat das ganze RAID Geschiss rausgschmissen und arbeitet stattdessen und wie ich auch mit separaten Disks innerhalb des NAS und separaten Backup Platten die ruck zuck getauscht werden können. Und bevor jetzt wieder Geschrei kommt. Die Images wurden selbstverständlich vorher alle überprüft.

ZFS ud BTRFS sind vom Grundsatz her genau darauf ausgelegt, und diese Features hat man auch ganz sicher, wenn man es richtig nutzt.
Das es immer wieder Glücksritter gibt, die Kunden verarschen und im wahrsten Sinne des Wortes abzocken steht auf einem anderen Blatt. Zu dieser Kategorie gehören für mich zur Zeit eigentlich alle Hersteller von FertigNASen. Es wird billigste Hardware für teures Geld verkauft, das OS ist zumeist ein Linux-Derivat und damit eigentlich OSS.
Das mit der unvollständigen Implementierung von BTRFS - rein aus Geldgeilen Marketinggründen - erfüllt mich den Tatbestand des Vorsatzes aus niederen Beweggründen.
 
Zuletzt bearbeitet:
Du kannst es nicht.

Du verwechselst nicht können mit nicht wollen. Aber wenn wir schon dabei sind:

Ihr könnt keine schlüssigen Belege dafür liefern, warum man Desktop HDDs nicht in NAS Servern betreiben sollte, wenn man sie lediglich als Einzeldisks und mit dem Belastungs- bzw. Arbeitsprofil eines Desktop PCs betreibt. Spinnt man diesen euren Faden nämlich weiter, dürften Desktop Festplatten in letzter Konsequenz auch nicht mehr in Desktop PCs betrieben werden, wären somit generell überflüssig und müssten auch in normalen PCs vorzeitig sterben. Tun sie aber seltsamerweise nicht. Dies nur nochmal, um mal aufzuzeigen was ihr hier euch für einen absurden Bullshit zusammenkonstruiert habt. Frei nach dem Motto: Der Forenjungspund wird schon irgendwann mal die Klappe halten, wenn wir nur dick genug auftragen und den Nerd so richtig raushängen lassen. Das könnt ihr vielleicht mit all den Lemmingen machen, die euch jedes Wort ohne zu hinterfragen abnehmen. Mit mir aber garantiert nicht.

Und der gute Holt fühlt sich natürlich deswegen auch angepisst, weil ich seiner Meinung nach eine ungeheure Blasphemie begangen und unter seinen Augen Desktop HDDs statt seine supertollen NAS Scheiben empfohlen habe. Wie konnte ich nur.

Schön das wir das noch klären konnten.
 
Zuletzt bearbeitet:
möchte als wichtigste Dateien Fotos (mehrere 10.000) und ein paar kleine Videos sichern, welche möglichst sicher gelagert werden sollen (Backup ist selbstverständlich).
Mit Backup ist das in Ordnung, kein RAID und auch das beste Storage können Backups ersetzen.
Daher dachte ich an einen Server mit ECC-RAM und ein entsprechendes NAS mit z.B. ZFS. Aber wenn das mit ECC-RAM und ext4 auch schon "sicher" ohne Datenfehler gespeichert werden kann...
Wenn der Client von dem die Daten kommen kein ECC-RAM hat, dann könnten die Daten da auch schon kompromittiert werden. Sicher sind sie dann erst, wenn sie auf dem Server angekommen sind. Mit ZFS oder BRTFS dann noch ein wenig mehr als mit einem md-RAID und z.B. ext4.
Reicht ext4 oder dann doch besser ZFS?
Persönlich sehe ich md RAID und ext4 als ausreichend an, ZFS ist aber sicher noch ein wenig besser. Nur hat ZFS eben auch Nachteile, die Prüfsummen bedeuten mehr Overhead, man hat also weniger Nutzkapazität, es gibt kein Recoverytool und man kann keine neune Platten in die Pool einfügen, wie man es bei einem md RAID kann, die werden bei ZFS nur wie ein JBOD angehängt.
Die Bilder sollen auch in einigen Jahren noch ohne Datenfehler abgespeichert sein.
Zu 100% gibt es da keine Sicherheit, denn bei der Datensicherheit gibt es kein schwarz-weiß, sondern nur Grautöne. Für maximale Sicherheit das ja kein Bit irgendwo kippt sind die Mainframes konstruiert, die kosten aber eben auch entsprechend viel, sind aber bei Banken und Versicherungen nicht wegzudenken, weil dort ein Fehler so richtig teuer werden kann.

OMV, XPenology oder auch OmniOS mit Napp-IT sind hier sicherlich aufwendiger und würde ich nicht als "Redady to uses" ansehen
Also zumindest OMV sehen ich schon als Ready-to-use an, die anderen beiden kenne nicht genug um das bewerten zu können.
"Wenn das Kind in den Brunnen gefallen ist, ist das Geschrei gross" - ohne ECC ist nicht erkennbar, ob es ein ECC Fehler war, das ist ja das Perverse daran.
Eben, es kann etwas passieren, muss aber nicht und ohne ECC RAM ist die Wahrscheinlichkeit höher, ich würde sagen sogar wohl deutlich höher. Die gewünschte Statistik wird keiner liefern können.
ob man bei Einsatz mehrerer Platten diese als Einzelvolumes oder "übergreifendes" Volume betreiben will. Bei Einzelvolumes "legt man sich in Ketten" was das Dateimangement und die Datenverteilung angeht.
So ist es, die Einzelvolumen sind deutlich unpraktischer und ein Lesefehler führt sofort dazu, dass die betroffene Datei unbrauchbar ist. Bei einem RAID 5 korrigiert die Parity das, man bekommt von dem Problem gar nicht erst was mit, außer vielleicht der Verzögerung beim Laden. Gegenüber dem Vorgehen bei Einzelvolumen wo man dann das Backup raussuchen muss, hoffen die Datei auch schon darauf zu haben und sie dann zurückzukopieren, ist das schon ein echter Vorteil.
Ein teures Syno mit oder wegen BTRFS zu kaufen ist also zumindest zur Zeit absolut sinnfrei.
So ist es, wer sich um Silent-Data-Corruption sorgt, sollte auch ein System mit ECC RAM und logischerweise entsprechender ECC RAM Unterstützung kaufen, dann sonst hängen die zusätzlichen Bit nur unnütz in der Luft, die RAM Chips auf den Riegeln selbst dürfte ja kaum besser sein als die auf anderen Riegeln, die Riegel werden nur nicht als OC RAM mit extrem hohen und damit noch fehlerträchtigeren Frequenzen angeboten.

Wenn man ECC als Pflicht ansieht, dann ist ZFS halt die Kür und bietet noch ein wenig mehr Sicherheit.
ZFS ohne ECC kann in die Hose gehen und ist nicht zu empfehlen
Genauso ist es, warum habe ich ja auch schon dargestellt. Das sind eben Filesysteme für Server und da ist ECC-RAM einfach selbstverständlich, so selbstverständlich das klassische Serverhersteller wie z.B. Fujitsu, HP oder Dell selbst die billigsten Server damit ausrüsten, da deren Kunden das auch einfach erwarten und zu schätzen wissen.

Na gut. Da die Gurus und Nerds offenbar der Meinung sind einfache technisch-physikalische Grundlagen mit Rechenkunststücken wegreden zu können
Was für Grundlagen? Deine Erfahrungen mit alten HDDs, die so schon lange nicht gebaut werden und dein Wissen über Lager, obwohl du nicht weißt welche Lager in welcher HDD konkret verbaut sind. Ich weiß es auch nicht, aber ich lese die Product Manuals und da steht z.B. bei der Seagate NAS unter "Reliability - Mean Time Between Failure:
MTBF specifications are based on the following assumptions for NAS environments:
• 8760 power-on hours per year
• 10,000 average motor start/stop cycles per year
"

Im Product Manual der Seagate Barracuda steht:
"AFR and MTBF specifications are based on the following assumptions for desktop personal computer
environments:
• 2400 power-on-hours per year.
• 10,000 average motor start/stop cycles per year
"
Beide dürfen also 10.000 Start-Stop Zyklen pro Jahr erleben, die eine aber nur 2400 Betriebsstunden pro Jahr machen, die andere darf im Dauerbetrieb laufen! Wie passt das zu Deine Lagertheorie und dazu, dass die NAS HDD die für Dauerbetrieb zugelassen ist, andere Lager hat die nur wenige Start-Stopp Zylken vertragen? Solche HDDs gibt es aber auch, im alten Constellation.2 steht z.B.:
"AFR and MTBF specifications are based on the following assumptions for business critical storage system
environments:
• 8760 power-on-hours per year.
• 250 average motor start/stop cycles per year."
In dem der Constellation ES3 steht dazu nichts mehr, die Start-Stopp Zyklen werden nicht mehr bei Thema Reliability erwähnt, die haben also wohl andere Lager. Aber der Vergleich der Desktop mit der NAS zeigt, dass man alleine aus der Zulassung zum Dauerbetrieb eben nichts über die Verträglichkeit von mehr oder weniger Start-Stopp Zyklen ableiten kann! Halbwissen und nur Vermutungen reichen hier eben nicht aus.
weil sie offenbar mehr auf ihre eigene Image- und Egopflege fixiert sind, bin ich dann auch wieder raus hier.
Wenn Du raus bist, ist das kein Verlust, denn wir haben schon genug Leute gesehen, die hier auf dicke Hose machen und da steckt nichts als bestenfalls Halbwissen dahinter und es wird was vom Pferd erzählt.

Ich dachte zwar immer ein Forum sei auch dazu da anderen mit eigenen Erfahrung, Grundlagenwissen und Ratschlägen zu helfen.
Ja wenn man das dann hat, aber Halbwissen hilft niemandem und Erfahrungen mit alter HW sind auf heutige HW nur sehr beschränkt übertragbar, gerade bei den HDDs die in den letzten Jahren einen großen Wandel erfahren habe, was man schon an der Modellvielfalt erkennen kann. Die ist eben entgegen den Gerüchten der Halbwissenden eben nicht nur ein Marketinggag um den Leuten mehr Geld aus der Tasche zu ziehen. Die Abstufungen der Motorleistung und Ausstattung bei Autos sind ja auch kein Illusion, man bekommt für mehr Geld mehr Leistung und Ausstattung und weil es eben Leute gibt die nicht zum Topmodell mit Vollausstattung greifen wollen und auch nicht jeder mit dem nackten Basismodell mit Basismotorisierung zufrieden, also gibt es eben auch Modell dazwischen deren Preise auch dazwischen liege. Genau ist es eben bei den HDD, nur fehlen dort die Aufpreislisten.
Admiräle und Kapitäne fühlen sich kompromittiert, wenn sie von einem kleinen Licht wie einem Hauptgefreiten vorgeführt bzw. belehrt werden.
Nein, aber jemand der uns alte Hasen belehren will, muss schon mit guten Argumenten kommen und seine Aussagen auch Belegen, wenn sie unseren widersprechen. Die haben wir uns ja auch nicht aus den Fingern gesaugt!
Ich könnte jetzt zwar die von mir eingebrachten technischen Grundlagen noch weiter untermauern.
Nein, könntest Du nicht, sonst hättest du es getan! Genau solche Behauptung sind typisch für die Leute mit einem Halbwissen, die aber extrem davon überzeugt sind und eben nicht die Bereitschaft zeigen dazu zu lernen. Das greifen sie dann lieber die Leute an die mehr wissen als sie selbst, weil das bequemer ist als sich die Mühe zu machen die eigene Meinung zu revidieren. Lies mal ein weniger mehr von Immanuel Kant!
Das wäre aber nach dem Stand der Dinge Perlen vor die S..e werfen.
Dummheit und Stolz, wachsen auf einem Holz, mehr fällt mir dazu nicht ein.
Muss eben jeder selbst wissen, ob er deren Dogmen blindlings folgt oder auch noch in der Lage ist eigene und alternative Wege zu gehen.
Wenn die alternativen Wege dann aber bedeuten sich gehen die Empfehlungen zu richten, sollte sich hinterher auch jeder dann ehrlich an die eigene Nase fassen und eben z.B. nicht über mangelnde Qualität von Desktopplatten meckern oder gar klagen, wenn diese den unsachgemäßen Einsatz nicht sehr lange mitmachen, sondern schlicht mal zugeben mit seiner Einschätzung falsch gelesen zu haben, war u.U. eben auch bedeutet diese vom dem falschen Ratgeber zu unkritisch übernommen zu haben. Daneben zu liegen ist ja keine Schande, man sollte nur eben daraus lernen.
Letztendlich macht dann nur noch jeder das was die sagen.
Jeder ist frei den Empfehlungen und Meinungen zu folgen, die er für richtig hält und wer seine Meinung gut begründen und mit Belegen untermauern kann, dessen Meinung werden sich sicher mehr Leute anschließen als der von jemanden, der dieses als nicht und Perlen vor die Säue werfen ansieht. Außerdem verfolgen die meisten User hier das Forum schon länger und lesen daher auch viele Beiträge, die wissen dann schon sehr gut die Qualität der Beiträge einzelner User einzuschätzen und damit auch deren Wissensstand zu bestimmten Themenbereichen.
Und so einen Scheiß werde ich mir ganz gewiss nicht antun.
Es zwingt Dich keiner dazu!
Zumal ich mit meinen Lösungen und Erfahrungen bisher mindestens genauso gut gefahren bin.
Das ist ja auch schön für Dich und wenn deine Platten so alt sind, wundert es mich auch nicht, ich fürchte nur, dass es in Zukunft, also mit den aktuellen HDDs, dann anderes sein könnte. Bedenken: Nichts in beständiger als der Wandel und das gilt ganz besonders für Computerhardware!
Nö, nicht widerlegt. Ich hatte vor einiger Zeit das Netgear von einem Bekannten mit BTRFS auf dem Tisch. Und da ist genau das passiert, was ich oben schon angerissen habe. Tja, fehlerhaft implementiert, Schutz vor Datenrot war auch noch deaktiviert. Und nun? So ist das mit Theorie und Praxis.
Nicht unbedingt, wenn du gelesen und vor allem verstanden hättest, was ich geschrieben habe, denn ich wette das Netgear hatte kein ECC-RAM (mit entsprechender Unterstützung durch die Plattform) und damit würde es mich gerade eben nicht wundern, wenn nicht nur Silent-Data-Corruption passiert, sondern sich sogar wie ein Krebsgeschwür durch die Daten frisst.
Er hat das ganze RAID Geschiss rausgschmissen und arbeitet stattdessen und wie ich auch mit separaten Disks innerhalb des NAS und separaten Backup Platten die ruck zuck getauscht werden können. Und bevor jetzt wieder Geschrei kommt.
Bei einem Arzt würde man wohl sagen: Falsche Diagnose und daher falsche Therapie. Aber ohne den konkreten Fall und die konkreten Probleme zu kennen, kann man da keine präzisen Aussagen treffen.
Die Images wurden selbstverständlich vorher alle überprüft.
Ohne ECC RAM bringt auch das keine wirkliche bessere Sicherheit.

wahlweise Raidz2 ohne ECC, Raidz1 mit WD-Greens und ECC, Greens mit ECC :shake:.
Um Gottes Willen, was ist das für ein Blödsinn! Ob Red oder Green hat doch mit ECC nichts zu tun, beide haben meines Wissens weder eine Internal-Data-Path Protectionen noch zumindest eine Ende-zu-Ende Fehlererkennung. ZFS ist ohne ECC-RAM ein NoGo, Z1 oder Z3 hin oder her. Aber das sind eben die Schlüssen die reine Praktiker aus den Erfahrungen ziehen, da hatten einige mit Greens im RAID Z1 ohne ECC RAM Probleme, andere mit den WD Red im Z1 oder den Green im RAID Z2 nicht und schon kommt so ein Mist dabei raus.
Andererseits: wenn jemand hier fragt (und nicht nur die vielen: "wie toll ist ZFS"-Threads anliest), dann hat er gute Chancen, wenn er allen Ratschlägen von gea, digiquick und holt folgt, ein maximal sicheres System zu bekommen
Sollen wir ihm etwas zu einem Schönwettersystem raten wo es nur auf gut Glück länger gutgeht? Das kann sich jeder selbst zusammenbauen indem er irgendwas nimmt, es kann gutgehen, wenn nicht dann hatte er halt Pech. Für sowas braucht man keine Beratung, die sollte schon zu einem System führen, was auch Hand und Fuß hat. Schrecken die Kosten dann ab, bitte, dann macht es halt anders, viele haben ja auch keine wirklichen Vorstellungen was eine anständige Lösung kostet, aber dann sollte jeder wenigstens seine Lösung und das Risiko welches er eingeht, einigermaßen abschätzen können. Zum Spaß rechne ich ja auch nicht die Chancen auf ein erfolgreiches Rebuild bei den verschiedenen Konfigurationen durch und ja, es kann bei 8 und auch bei 98% klappen oder auch schief gehen, beides bestätigt oder widerlegt rein gar nichts! Mache eine Versuchsreihe mit 1000 Rebuilds, dann können wir über die Ergebnisse reden, bei einem zwei Rebuilds aber nicht, da ist der Einfluss des Zufalls viel zu groß.

Man kann sie eben entweder seine Daten möglichst sicher, möglichst billig oder auch möglichst bequem speichern, alles hat vor und Nachteile, die sollte jeder kennen um die abwägen zu können und danach eine bewusste Entscheidung zu treffen, denn mit den Konsequenzen seiner Entscheidung muss danach jeder selbst leben.
Du verwechselst nicht können mit nicht wollen.
Wolltest du dich nicht hier raus halten? Wenn man schon keine Belege für seine Behauptungen bringt, wäre das die bessere Wahl. Wer meint, er könne belegen das Elvis noch lebt, aber er wolle es nicht, überzeugt damit wirklich niemanden!
Ihr könnt keine schlüssigen Belege dafür liefern, warum man Desktop HDDs nicht in NAS Servern betreiben sollte
Hallo, schon vergessen: Vibrationen und die verschiedenen Technologien damit die Platten diese kompensieren können! Keine Ahnung in wie vielen Beiträgen allein in diesem Thread ich das erwähnt habe! Selektive Wahrnehmung ist auch so ein typischen Verhalten von Leuten bei denen man nie weiß, ob sie hier Halbwissen verteidigen oder echt nur trollen!
dürften Desktop Festplatten in letzter Konsequenz auch nicht mehr in Desktop PCs betrieben werden, wären somit generell überflüssig
So eine Schwachinn³, die Desktopplatten haben ihre Berechtigung und wenn man sie so einsetzt wie die Hersteller es vorsehen, halten sie mehr als ausreichend lange und sind günstige Datenträger. Aber Übertreibungen um diesen eigenen Schwachsinn den man dann versucht andere in den Mund zu legen selbst wieder als lächerlich dazustellen, sind eben leider auch trolltypisch.
Und der gute Holt fühlt sich natürlich deswegen auch angepisst, weil ich seiner Meinung nach eine ungeheure Blasphemie begangen und unter seinen Augen Desktop HDDs statt seine supertollen NAS Scheiben empfohlen habe.
Blasphemie würde ich es nicht nennen, Du versuchst hier die Leute zu verarschen, was in der Anonymität des Internets ja auch meist ohne Folgen bleibt und dann lacht man sich hinterher in Fäustchen wenn dann der Thread mit dem Hilfeschrei kommt, weil einer den dummen Ratschlägen auf den Leim gegangen ist und seine Daten verloren hat. Leider habe ich solche Typen auch schon erleben müssen und die, die sich nur Versuchskaninchen suchen für Dinge die sie selbst machen wollen, sich aber nicht trauen und es daher anderen empfehlen, obwohl ihnen bewusst ist wie grenzwertig die Lösung sein wird. Aber wenn es dann jemand es vorher ausprobiert, ist deren Risiko ja geringer.
Wie konnte ich nur.
Etwa eeil du ein Troll bist? Jedenfalls bist du scharf an der Aufnahme in meine Ignorliste, ich versuchen jedem zu helfen, aber ich sehen auch irgendwann ein, wenn diese gar nicht gewünscht und daher Zeitverschwendung ist und jetzt verbringe ich schon viel mehr in diesem Thread als ich wollte.
 
Das mit der unvollständigen Implementierung von BTRFS - rein aus Geldgeilen Marketinggründen - erfüllt mich den Tatbestand des Vorsatzes aus niederen Beweggründen.

BTRFS bietet auch Copy-On-Write und Snapshots – auch, wenn man die Fehlerkorrektur nicht nutzt, bietet es also einen Mehrwert. Warum sollte man es jetzt also nicht nutzen?

Und der gute Holt fühlt sich natürlich deswegen auch angepisst, weil ich seiner Meinung nach eine ungeheure Blasphemie begangen und unter seinen Augen Desktop HDDs statt seine supertollen NAS Scheiben empfohlen habe. Wie konnte ich nur.

Naja, Desktop-HDDs fallen halt vielleicht ab und zu aus, weswegen man ja ZFS im teuren Server einsetzt, um dem vorzubeugen. Bei den heutigen Kapazitäten wäre da halt langsam schon RAIDz3 nötig, um den Rebuild sicher fertigzustellen, daher bessere Platten :rolleyes:, weil man ja selten auf die 20TB Speicher verzichten kann. Bei den lächerlich niedrigen Aufpreisen für die NAS-Platten finde ich ein Jahr mehr Garantie und die gleichzeitige Spezifikation auf Dauerbetrieb durchaus angemessen und eine Empfehlung wert.

@Holt (einzeln quoten tu ich das nicht): naja, die Greens haben mit ECC insofern so viel zu tun, dass es im FreeNAS-Forum iirc mindestens einen gab, der einen RAM-Fehler hatte und dem dann beim Wiederaufbauen seines RAIDz1 die WDGreens weggestorben sind (der hat halt einfach nicht sehr viel gelesen ;)) – genauso sollten die alten Greens ja gerne zeitgleich sterben, weshalb ein RAIDz1 auch mit ECC bei 3TB-Platten recht wenig bringt. Generell weiß ich ja nicht, seit wann du Greens als idiotensicher geeignet für's NAS ansiehst, sind ja schließlich Desktopplatten :coffee: (und da dachte ich, dass hier im Homebereich die Meinung vertreten wird, dass das RAIDz3 für die 6TB Varianten nicht ausreicht)?

Und zu der NAS-Empfehlung: viele Leute kommen hier einfach her, weil sie gehört haben, dass ZFS ihnen Sicherheit bringt. Dann schreiben sie: "hey: ich will 2000€ ausgeben" und kriegen ihr NAS für 20TB durchkonfiguriert, dann wird noch darauf hingewiesen, dass sie regelmäßig Backups brauchen "RAID ersetzt kein Backup" und sie gehen wieder. Soweit gut... nur kann ich mir irgendwie ganz schlecht vorstellen, dass diese Leute dann ihr NAS kaufen und nochmal 24 TB Festplatten für mindestens 1000€ kaufen, um dann regelmäßig (1x täglich ?) ihr Backup darauf zu machen und das 1 pro Woche Off-Site zu rotieren. Außerdem: wie kommst du hier um das Einzelplatten-"Problem" rum – schätzt du grob Ordnergrößen ab und selektierst damit (könnte man irgendwie mit Single-Volumes gleich machen), oder verwendest du etwas wie Bacula (was aber dann aber schlecht zur "USB-Stick rein und die Kiste rennt in 10 Minuten"-Einstellung passt)? Ganz abgesehen davon, dass selbst inkrementelles RSync dabei ungefähr 1-2h (eher länger, so schnell wie sich die Daten ändern) brauchen dürfte und man dann vorher und nachher Festplatten an und abstecken darf (man will ja Hardware/Softwaredefekten vorbeugen), was einen nicht unerheblichen Zeitaufwand bedeutet (aber ja, die Daten sollten einem schon wert sein, 10% seiner Lebenszeit mit administrativen Tätigkeiten zu verbinden :))
Im vorliegenden Fall wäre bei dem ganzen Aufstand, der um die Festplatten gemacht wird, in dem Zusammenhang auch mal ein Hinweis ganz nett, dass man mit ZFS offensichtlich auch über gängige WAN-Verbindungen sehr effizient die Dateisysteme syncen kann, was mit dem Synology (mit Rsync-Derivaten vmtl.) eher nicht sooo toll funktionieren dürfte (es geht nämlich um zwei Systeme, die sich für wirklichen Failsafe-Betrieb gegenseitig über 200km sichern).
 
Zuletzt bearbeitet:
Ich hab eigentlich nicht vor, ein RAID einzusetzen.

Im Server nur eine große Datenplatte, OS vom Stick. Backup auf USB-HDD.

Oder sollte ich hier trotzdem ein RADI vorbereiten um dann später eine zweite HDD zu integrieren können, falls der Platz mal eng wird?
Kann ich dann später problemlos eine Platte dazu stecken und das Volume vergrößern - bei ext4 genau so wie bei ZFS? Oder muss ich da jetzt schon Vorkehrungen treffen? Ich denke aber mal, dass es die nächsten paar Jahre nicht der Fall sein wird und wenn, dann könnte ich das NAS immer noch komplett neu aufsetzen, oder?
 
hm, du vertrittst hier leider eine seltene Gattung des unterdurchschnittlichden Datenhorters. Meiner Meinung nach bringt dir ein RAID da nix, wenn du Daten auf dem NAS nicht exklusiv speicherst (bzw. anderswo nicht löschst, bevor sie auf Backup-Medium gekommen sind) – da würde ich eher noch eine zweite USB-HDD anschaffen, sodass du immer eine außerhalb deines Wohnsitzes hast, falls noch nicht geschehen?! Mit LVM braucht man afaik auch gar kein RAID, sondern kann einfach die Volumegroup erweitern, aber gut ;).
 
Zuletzt bearbeitet:
Ja, alles für den etwas gehobeneren privatgebrauch halt. Theoretisch würde auch eine Synology reichen, aber warum von der Stange, wenns für das gleiche Geld auch was anständiges gibt.
Die Daten sollten schon exklusiv aufs NAS als Dateispeicherort. Wenn ich viel neue Sachen speichere, muss ich halt daran denken, zeitnah ein Backup durchzuführen. Und 2 USB-HDDs hab ich mir auch schon überlegt. Oder übers Internetsichern, wobei dann die Gegenstelle auch ein ECC-RAM NAS haben sollte und bei DSL 25.000 wirds bestimmt ewig dauern, bis das mal übertragen ist. Mit inkrementellen Backups vielleicht - mal sehen.

Ich nutze ja auch kein Smartphone, so wie es vom Hersteller kommt. Ohne root, custom-rom und Anpassungen ist so ein Android-Device für mich auch nichts.
 
Hallo,

oder im Graten einen kleinen Betonbunker bauen 2m² mit Wartungsklappe(und Wasserdicht). Schön Strom und Netzwerkkabel rein ist am Wochende Fertig. Falls das Haus mal brennt hat man ja noch das Backup Im Graten ;)
 
Betonbunker im Garten ist keine Option, weil wir ziemlich hohes Grundwasser haben und auf Abwasserhebeanlagen kann man sich in so einem Fall auch nicht 100%ig verlassen...

Die Synology 412+ oder ähnliche kosten aber um die 700 Euro als Leergehäuse (und haben nicht mal ECC-RAM?) - ein G8 kostet leer 190 Euro. Falls der Post auf mich bezogen war. Wie schauts dabei Leistungsmäßig aus? Wer hat mehr Power? DS412+ oder ähnliche oder ein G8 in der Standardausführung (CPU 1610 und 4GB RAM)?
 
Interessanter Thread hier.

Ich möchte auch ein NAS, jedoch selber einrichten. Wahrscheinlich HP G8 oder etwas ähnliches.

Hier wird von FreeNAS und NASFree eher ab- und mehr zu OMV geraten.
Ja, alles für den etwas gehobeneren privatgebrauch halt. Theoretisch würde auch eine Synology reichen, aber warum von der Stange, wenns für das gleiche Geld auch was anständiges gibt.
Die Daten sollten schon exklusiv aufs NAS als Dateispeicherort.

Damit sind deine Gedanken und Ziele schon mal deutlich unterschiedlich von meinen, als ich den Thread hier gestartet habe. ;)

So wie ich das sehe bist du damit auch der ideale Kandidat für den Microserver, evtl. zwei Platten als RAID1; Der Rest geht via Backup.

Betonbunker im Garten ist keine Option, weil wir ziemlich hohes Grundwasser haben und auf Abwasserhebeanlagen kann man sich in so einem Fall auch nicht 100%ig verlassen...

Die Synology 412+ oder ähnliche kosten aber um die 700 Euro als Leergehäuse (und haben nicht mal ECC-RAM?) - ein G8 kostet leer 190 Euro. Falls der Post auf mich bezogen war. Wie schauts dabei Leistungsmäßig aus? Wer hat mehr Power? DS412+ oder ähnliche oder ein G8 in der Standardausführung (CPU 1610 und 4GB RAM)?

Ich weiß nicht wie sehr das mit dem Betonbunker ernst zu nehmen ist; auf jeden Fall ist es sinnvoll Backups räumlich verteilt zu haben.

Die DS412+ ist soweit ich das sehe schon lange ein Auslaufmodell; Dementsprechend sind die Preise im Handel exorbitant hoch. Vor allem würdest du im Falle eines Fertig-NAS ja kein 4-Bay-NAS brauchen, sondern höchstens ein 2-Bay-NAS. Und die gibt's tatsächlich günstig.

Und was man sich natürlich überlegen muss ist welchen Trade-Off man zwischen High-Performance und Low-Power eingeht.
 
Das mit dem Betonbunker habe ich als Scherz verstanden und auch in der selben Art ist meine Antwort zu verstehen.

Räumliche Trennung ist natürlich in der Überlegung dabei. Das eigene Haus kann ja mal abbrennen oder Diebstahl oder oder oder


Die besseren Synology DS 216-Modelle kosten schon alle mehr als ein Microserver G8. Natürlich verbrauchen sie weniger Strom. Aber ich weiß nicht, ob man darauf anständig eine Datenbank (MySQL) laufen lassen kann, um z.B. Wetter und Heizungsdaten minütlich mit zu loggen.

Irgendwie muss ich in den sauren Apfel beissen. Entweder Low Power (Synology DS216 se oder j) und dementsprechend kein ECC-RAM und nicht so großartige Erweiterungsmöglichkeiten oder ein "richtiger" Homeserver als NAS mit ein paar Zusatzfeatures aufgepimpt. Das kostet in der Anschaffung vielleicht das selbe, aber ein G8 verbraucht nun mal etwas mehr Strom als ein Synology.
 
Naja, Desktop-HDDs fallen halt vielleicht ab und zu aus
Das kann mit jeder HDD passieren, aber bei Desktop Platten ist das Risiko eben größer, dass die dann nach wenigen Jahren massiv, also sehr zeitnah Probleme machen und ausfallen, eben wie es auch Backblaze bei der ST3000DM001 erlebt hat. Die ersten 2 Jahre im Betrieb waren die Ausfallraten von denen ja moderat, erst danach stiegen die dann sehr massiv an. Die waren halt einfach auf.
Bei den heutigen Kapazitäten wäre da halt langsam schon RAIDz3 nötig, um den Rebuild sicher fertigzustellen, daher bessere Platten :rolleyes:
Wenn die Platten schon alle am Lebensende angekommen sind, würde das erstens nicht viel ändert und zweitens selbst wenn, einem doch nur ein wenig mehr Nutzungsdauer ermöglichen.
Bei den lächerlich niedrigen Aufpreisen für die NAS-Platten finde ich ein Jahr mehr Garantie und die gleichzeitige Spezifikation auf Dauerbetrieb durchaus angemessen und eine Empfehlung wert.
Eben, für NAS nimmt man NAS Platten, so wie man Fahrten ins Gelände einen Gelände und keinen Sportwagen nimmt.
@Holt (einzeln quoten tu ich das nicht): naja, die Greens haben mit ECC insofern so viel zu tun, dass es im FreeNAS-Forum iirc mindestens einen gab, der einen RAM-Fehler hatte und dem dann beim Wiederaufbauen seines RAIDz1 die WDGreens weggestorben sind (der hat halt einfach nicht sehr viel gelesen ;)) – genauso sollten die alten Greens ja gerne zeitgleich sterben, weshalb ein RAIDz1 auch mit ECC bei 3TB-Platten recht wenig bringt. Generell weiß ich ja nicht, seit wann du Greens als idiotensicher geeignet für's NAS ansiehst, sind ja schließlich Desktopplatten :coffee: (und da dachte ich, dass hier im Homebereich die Meinung vertreten wird, dass das RAIDz3 für die 6TB Varianten nicht ausreicht)?
Wo habe ich geschrieben, dass ich Green für NAS als ausreichend ansehe? Das war jemand anders, vielleicht solltest Du doch besser einzeln Quoten, damit das nicht durcheinander kommt. Dann würde alleine wegen der UBER die Rebuildchance bei einem nicht zu großen RAID 5 (oder auch Z1) dann bei 6TB HDDs mit einer UBER von 1:10^14 schlecht aussehen, bei Platten mit 1:10^15 dagegen schon, ich hatte ja die Chancen für einige Konfigurationen durchgerechnet. Aber ein RAID 6 reicht für die Kapazitäten von Heimanwendern immer, für ein RAID Z3 sehe ich keinen Grund.

Wenn da jemandem seine alten Greens so zeitgleich gestorben sind, dann waren die wohl auch auf, viel mehr 2 Jahre Dauerbetrieb würde ich auch den aktuelleren Green Modellen die nach dem Erscheinen der Red gebaut wurden, nicht mehr zutrauen. Die älteren Green aus der Zeit davor dürften durchaus auch den Dauerbetrieb noch länger ausgehalten haben. Damit wäre es aber sowieso die einzige Lösung die Platten zu ersetzen und dann besser geeignete Platten zu nehmen, zumal wenn so viele im Gehäuse sind das man über ein RAID Z3 nachdenken könnte. Das würde vielleicht ein Rebuild noch einmal überstehen, aber dann fallen bald wieder und noch mehr Platten aus, wenn man es dann nicht schafft die eine ausgefallenen zu tauschen und das Rebuild erfolgreich zu beenden, bevor die nächsten ausfallen hat man auch verloren und so ein Rebuild ist für eine alte Platte am Lebensende schon gar schön viel Stress, da fallen einem gerne mal mehrere auf einmal aus.

nur kann ich mir irgendwie ganz schlecht vorstellen, dass diese Leute dann ihr NAS kaufen und nochmal 24 TB Festplatten für mindestens 1000€ kaufen, um dann regelmäßig (1x täglich ?) ihr Backup darauf zu machen
Das ist anzunehmen, aber glaubst Du die Leute die sich für einen Bruchteil davon irgendeine HW zusammenschustern und da die alten Platten die rumliegen oder in der Bucht günstig zu ersteigern waren dort reinwerfen, sind da wirklich fleißiger?

Kann ich dann später problemlos eine Platte dazu stecken und das Volume vergrößern - bei ext4 genau so wie bei ZFS?
Bei ext4 und md-RAID kann man problemlos mehr HDDs zum RAID hinzufügen und es ist danach genauso, als wäre es gleich so angelegt worden, bei ZFS geht das nicht. Macht man das RAID mit 3 Platten und fügt eine 4. hinzu, wird es ein RAID mit 3 Platten bleiben und die 4. hängt wie bei einem JBOD dran, wenn die 4. ausfällt sind die Daten also nicht wie bei den anderen 3 im RAID geschützt, sondern gleich verloren. ZFS bietet keine Möglichkeit einen Pool mit 3 HDDs zu erstellen und auf einen mit 4 HDDs ohne Datenverlust zu migrieren der danach mit einem identisch mit einem ist, der gleich mit 4 Platten erstellt wurde!

Wenn man bei ZFS Platten hinzufügen will und die allen den Schutz des RAID bekommen sollen, muss man den Pool auflösen und neu erstellen, wobei alle Daten verloren gehen.
wenn, dann könnte ich das NAS immer noch komplett neu aufsetzen, oder?
Ja, aber dann sind immer alle Daten weg, man muss also vorher sein Backup auf den aktuellen Stand bringen und danach die Daten von dort wieder einspielen.

Die Synology 412+ oder ähnliche kosten aber um die 700 Euro als Leergehäuse (und haben nicht mal ECC-RAM?)
Nein, haben sie nicht. Vor ein paar Wochen hatte ich mal gesucht, da gibt es preislich für ein NAS mit ECC-RAM etwa bei dem Doppelten vom dem los was Du genannte hast, bei einige der großen NAS Hersteller war man schon eher beim Dreifachen. Ein Fertig-NAS für unter 1000€ ohne HDDs mit ECC-RAM, wäre mir nicht bekannt und ich würde daher bei einem Fertig-NAS mit 3-stelligem Preis generell nie von ECC RAM ausgehen. Wenn einer doch das Gegenteil behauptet, würde ich es dreimal prüfen, denn dann hätte ein zwar sehr begrüßenswerter aber wohl auch ebenso unwahrscheinlicher, radikaler Sinneswandel bei den NAS Herstellern stattgefunden. Die verbauen ja wie gesagt teils ECC-RAM fähige SoCs, aber dann ohne ECC RAM und sperren diese selbst gegen die Nachrüstung damit.
Wer hat mehr Power? DS412+ oder ähnliche oder ein G8 in der Standardausführung (CPU 1610 und 4GB RAM)?
Bei den meisten NAS sind entweder ARM CPUs oder uralten AMD/Intel Chips drin, da muss man i.d.R. auch ein Vielfaches dessen ausgeben was so ein einfacher Gen8 kostet, damit man die gleiche CPU Power bekommen. Vom RAM Ausbau ab Werk mal ganz zu schweigen, da sind gerade bei vielen günstigeren NAS die Angaben in MB statt GB.

Natürlich verbrauchen sie weniger Strom.
Wobei man pro W bei 24/7 Betrieb im Jahr dafür so ungefähr 2,50€ bezahlt, bei 10W mehr also 25€ und die übliche Lebenserwartung von HW so etwa 5 bis 7 Jahre beträgt, bei 6 Jahren und 10W mehr wären also etwa 150€ wieder reinzuholen. Die andere Frage ist wie lange die jeweils halten, da würde ich den Microservern mehr zutrauen als der Cosumer-HW der Fertig-NAS.
Aber ich weiß nicht, ob man darauf anständig eine Datenbank (MySQL) laufen lassen kann, um z.B. Wetter und Heizungsdaten minütlich mit zu loggen.
Gibt es MySQL für ARM CPUs? Wenn nicht, wäre die Auswahl beim NAS eingeschränkt.
 
MySQL sollte es in den gängigen Distributionen für ARM geben: https://packages.debian.org/de/jessie/mariadb-server-10.0; für unter 100€ war/ist meiner Meinung nach das ReadyNAS unterschätzt (Vorteil: man kann theoretisch eines Tages auch normales Debian installieren und schon jetzt exotische Packages apt-geten), aber für die 150€, die das heute kostet, ist so ein ProLiant ML10 sicher die Stromkosten mehr als wert. Bevor du dir viele Gedanken über RAID machst, würde ich dir trotzdem zu einem doppelten Backup raten bib und dafür in Festplatten investieren, um welche Datenmenge geht es denn?
 
Ich habe nicht vor, ein RAID aufzusetzen. Allerhöchstens vielleicht irgendwann mal ein RAID 1, aber vorerst reicht eine einzige Datenplatte mit ca. 4 TB völlig aus.

Die gesamten Daten belaufen sich derzeit auf 2-3 TB, wobei nicht der gesamte Bestand unbedingt aufs Backup müsste.

Ob ML10 oder G8 bin ich auch noch am überlegen. Außerdem ob ich meinen Odroid U3 dann für Asterisk und Openhab weiterlaufen lassen soll oder ob ich VM´s erstelle und alles dann nur noch auf dem Server/NAS läuft.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh