NAS als reine Backuplösung

n3

Enthusiast
Thread Starter
Mitglied seit
22.02.2010
Beiträge
538
Hallo Zusammen,

ich möchte gern eine Backuplösung basierend auf dem Dateiversionsverlauf von Windows 10 bei uns aufbauen. Mir ist wichtig, dass das NAS perfekt mit dem Dienst zusammenarbeitet und auch eine hierfür gute Performance hat. Extras wie DLNA, Webinterface und sonstige Spielerein benötige ich nicht. Es dient wirklich nur dem Zweck, dass wenn ich einen Datenverlust erleide, ich dies bequem wieder herstellen kann.
Ich würde gerne den Dateiversionsverlauf verwenden, da es einerseits eine Systemfunktion ist und ich nicht zusätzliche Software benötige und anderseits bietet die Systemintegration das nette Feature, dass frühere Version einer Datei wiederhergestellt werden können.

Das Netzwerk besteht aus 2 stationären Rechnern und einem Surface 3 Pro mit jeweils Windows 10, welche über ein GBit LAN miteinander verbunden sind.

Könnt ihr hier etwas empfehlen? Mir geht es eher um das NAS. Als Festplatten würde ich die WD Red nehmen.

Noch eine zusätzliche Hintergrundinfo als OffTopic:
Es war auch mal gedacht, mein Bilderarchiv auf das NAS zu verschieben. Ich nutze Lightroom und würde den Katalog lokal auf einer SSD halten und auf die RAWs eben über das Netzwerk zugreifen.
Der Vorteil wäre, dass der zweite Rechner leichter auf die Bilder zugreifen kann. Ich würde den Katalog auf meinen Rechner freigeben und der Speicherpfad wäre durch das Netzlaufwerk gleich. Zusätzlich im Fall von RAID1 würde ein Backup der Bilder nicht notwendig sein.
Der Nachteil ist ein möglicher Flaschenhals durch den Netzwerkzugriff und ein RAID1 auf einem NAS ist kein optimales Backup. Daher habe ich mich entschlossen, die Bilddateien zusätzlich lokal zu halten. Damit der zweite Rechner beim öffnen des Katalog (über die Freigabe) keine Probleme mit dem Speicherort hat, könnte ich diesen über symbolische Links identisch halten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
weis nicht ob es das richtige für dich ist aber ich habe mir vor 2 Wochen ein Zyxel540 geholt (war im Angebot 129,00) und nutze es als reines Backupmedium, 4x HDD rein, Raid5 und fertig. Als Software verwende ich FreeSyncAll was auch Versionierung beherrscht. Write Speed ist bei größeren Dateien ~100MB. Automatisches starten und herunterfahren wie standby funktionieren einwandfrei. Wenn du mehr Budget zur Verfügung hast, würde ich zu einem Synology greifen (ausgereiftere Software und mehr Features).
Mir persönlich reicht das Zyxel als reines Datengrab total aus und ich bin zufrieden. Wie das mit der Windows 10 internen Funktion ist weis ich nicht aber ich denke man muss nur einen Speicherpfad angeben!?
 
Das Zyxel ist wirklich eine gute Alternative. Vor allem kriegt man vier Plätze und 2 GBit Port für den selben Preis wie ein Synology mit 2 Plätzen und nur einem GBit Port. Wenn ich etwas vergleichbares bei Synology suche, zahle ich gleich das Doppelte. Ich weiß nicht, ob sich das wirklich lohnt. Allein wenn ich 3x 4TB WD Red einbaue komme ich mit dem Zyxcel schon auf einen Preis von 650€. Wenn der Zyxel ein Netzwerklaufwerk ordentlich zur Verfügung stellt und mit den Dateirechten etc von Windows umgehen kann reicht mir das ja vollkommen aus.
 
meines haut super hin um es soll ja 2015 noch eine neue Firmware erscheinen wo noch mehr Funktionen integriert sind, ich finde es für den Preis von 129 TOP und bereue es nicht. Greife selbst mittels Freigabe von meinem Fileserver (win 2008) auf das NAS zu und führe dann das Backup durch, funktioniert! Ich will keine Werbung machen aber ich finde es Top :d
 
"Vorherige Version" bei Windows ist ja eine Funktion von Windows.
Um Versionierung auf dem NAS zu haben brauchts entweder Windows Server oder ZFS das zudem noch viel sicherer ist (crashresistentes CopyOnWrite Dateisystem mit Snaps und Prüfsummen) und mit seinen Caching Optionen auch besonders schnell ist.

z.B.:
HP Microserver G8 (4 Platteneinschübe, ca 200 Euro ohne Platte), dazu eine ZFS Distribution mit Webmanagement z.B. mein napp-it.

State of the Art bei ZFS ist derzeit Oracle Solaris 11.3 (Frei für "Demo und Development"), alternative der freie Fork OmniOS bei dem ZFS Verschlüssellung, SMB2 und besonders schnelles Ersetzen einer defekten Platte im Raid fehlt. Beide haben aber den Solaris eigenen im Kernel eingebauten SMB Server. Er arbeitet multithreaded und ist besonders einfach in der Bedienung (eigentlich nur Sharing ein oder aus) und schnell. ZFS Snaps erscheinen unter Windows bei Eigenschaften und "vorherige Version".

Backups auf das NAS mit einem Sync tool, z.B. dem kostenlosen Microsoft robocopy.
Dann in der Web-GUI Snapshots konfigurieren z.B. täglich behalte 7, wöchentlich behalte 52.

Ich würde es als 2way oder 3way Raid-1 konfigurieren, dazu den freien Slot regelmäßig im Wechsel mit einer Backauplatte im Wechsel bestücken.

Obwohl es sich um "Enterprise Storage" handelt, einfacher im Handling als z.B. Windows als Storage Server und in kostenlosen Optionen verfügbar (home oder kommerziell).
 
Zuletzt bearbeitet:
Ich kann dir leider nicht ganz folgen. Seit Windows 8 existiert der Dateiversionsverlauf, der ähnlich wie bei Apples TimeMachine, als Backup funktioniert. Hierzu benötigt man lediglich eine weitere Festplatte, da eine Sicherung auf der selben Festplatte nicht möglich ist. Dabei kann auch ein Netzwerklaufwerk dienen.

Wenn ich dich richtig verstanden habe, meinst du einen Dateiversionsverlauf auf dem NAS und zum Backup ein Tool wie robocopy. Aber wie gesagt, ich bin der Meinung das der Dateiversionsverlauf in Windows 10 sozusagen beides vereint.
 
Naja, ZFS rockt einfach und wenn du eh einen zweiten Rechner als Backup"Manager" brauchst, solltest Du Dir definitiv mal näher anschauen. Es ist/kann deutlich mehr als Windows... Und mit gea's napp-it schlicht ein Traum (jedenfalls in Combo mit einem Solaris-Derivat).
 
OK, der von gea vorgeschlagene Server ist wirklich nicht viel teuer. Mir ergibt sich aber der Mehraufwand noch nicht so recht.

@besterino
Was meinst du damit, dass ich eh einen zweiten Rechner als Backup"Manager" brauche? Ich habe nur 2-3 Rechner im Netzwerk, wo ich die Daten sichern möchte. Vorzugsweise dachte ich an den Dateiversionsverlauf von Windows 10 und einem NAS als Speicherort. Das ist schnell eingerichtet und erfüllt meine Anforderungen.

Klar, auf den Server kann ich mein System nach Wahl installieren und ich hätte auch Zugriff auf Windows Server aus dem MSDN Programm, aber welchen Vorteil hätte ich? Bisher sehe ich nur Nachteile:
1. Höherer Stromverbrauch
2. Größerer Konfigurationsaufwand sowohl auf dem Server als auch bei den Clients, da ich keine Systemfunktionen verwende
3. Deutlich komplexerer Aufbau
4. Höherer Wartungsaufwand

Ich möchte euren Vorschlag nicht verwerfen, aber mir erschließen sich die Vorteile noch nicht.
 
Damit meine ich, dass Du nicht eine "dumme" Festplatte z.B. über USB benutzt, sondern eine eigenständige "Unit" mit eigener Stromversorgung
 
Mir ergibt sich aber der Mehraufwand noch nicht so recht.

Die Nutzung von Windows Shadow Copies auf einer lokalen Platte oder übers Netz z.B. via iSCSI als Backup hat den Nachteil dass jeder Plattenfehler, Systemfehler, ein Bedienfehler oder ein Virus alle Daten löschen, verändern oder verschlüsseln kann.

Hinzu kommt, dass Windows NTFS nicht gerade State of the Art ist was Datensicherheit, Crashresistenz oder Versionierung angeht. Da ist ein externes ZFS Storage mit CopyOnWrite, Snaps und Prüfsummen eine ganz andere Qualität. Eine ZFS Web-Appliance ist zudem nicht nur zuverlässiger als z.B. Windows Server sondern eher einfacher im Handling.

Backup sollte immer extern und unabhängig von den Daten sein.
Ich würde mir ohnehin überlegen, die Arbeits/Originaldaten mit Versionierung auf das ZFS NAS zu legen und die lokale Platte(n) per sync als Disaster-Backup nutzen.
 
Zuletzt bearbeitet:
Ich Spiel jetzt mal "Holt" und weise daraufhin, daß Raid kein Backup ersetzt!
Raid erhöht die Verfügbarkeit im Falle eines Plattenausfalls, schützt aber nicht vor Blitzschlag, Feuer, Viren/Trojanern etc.
 
Ich Spiel jetzt mal "Holt" und weise daraufhin, daß Raid kein Backup ersetzt!
Raid erhöht die Verfügbarkeit im Falle eines Plattenausfalls, schützt aber nicht vor Blitzschlag, Feuer, Viren/Trojanern etc.
:xmas:

Ich bin auch gerade am Überlegen ob ich meinen Filer durch ein NAS ersetze. Ich bräuchte abere eher ein (nicht zu teures) 6 Port NAS. Packt das Oben gennante Zyxel die 8 TB SMR Platten ? Gibt es eine Option für Usenet Zugriff ?

EDIT: Hat sich erledigt, ich habe mir jetzt den HP G8 geordert. http://www.hardwareluxx.de/communit...10t-g2020t-e3-1220lv2-microserver-963207.html
 
Zuletzt bearbeitet:
Die Nutzung von Windows Shadow Copies auf einer lokalen Platte oder übers Netz z.B. via iSCSI als Backup hat den Nachteil dass jeder Plattenfehler, Systemfehler, ein Bedienfehler oder ein Virus alle Daten löschen, verändern oder verschlüsseln kann.
Ich bin mir nicht 100%tig sicher, aber das Netzlaufwerk wäre über Benutzer/PW gesichert, auf welches nur der Dateiversionsverlauf zugriff hat. Das minimiert das Risiko von Schadsoftware etc. Bei einem Bedienfehler verliere ich auch alle Daten auf einem ZFS Storage und da hier die Konfiguration komplexer und aufwendiger ist, ist die Gefahr von Fehlern größer.

Hinzu kommt, dass Windows NTFS nicht gerade State of the Art ist was Datensicherheit, Crashresistenz oder Versionierung angeht. Da ist ein externes ZFS Storage mit CopyOnWrite, Snaps und Prüfsummen eine ganz andere Qualität. Eine ZFS Web-Appliance ist zudem nicht nur zuverlässiger als z.B. Windows Server sondern eher einfacher im Handling.
Ich will nicht bestreiten, dass das ZFS Storage besser ist, aber ich habe immer noch das Gefühl, dass ich hier mit Kanonen auf Spatzen schieße. Mir geht es primär darum, dass wenn meine lokalen Daten durch einen Hardwaredefekt verloren gehen, ich diese wiederherstellen kann. ZFS wurde für Server entwickelt und hat demnach ganz andere Anforderungen. Für mich muss ein Backup zuverlässig und im Hintergrund laufen. Bei einem Server, muss ich diesen administrieren und mich intensiver mit der Technologie beschäftigen. Lohnt sich der Mehraufwand?

Backup sollte immer extern und unabhängig von den Daten sein.
Ich würde mir ohnehin überlegen, die Arbeits/Originaldaten mit Versionierung auf das ZFS NAS zu legen und die lokale Platte(n) per sync als Disaster-Backup nutzen.
Diese Frage habe ich mir auch schon gestellt und für die meisten Daten würde es ausreichen, aber ich arbeite sehr viel mit Bildern. Ich habe bisher keine Berichte dazu gelesen, aber ich gehe davon aus, dass es ein Flaschenhals wäre, würde ich mein Bilderarchiv ins Netzwerk auslagern. Auch wenn ich ein 1GBit/s Netzwerk habe, wäre die Latenz deutlich schlechter als wenn die Daten lokal vorliegen. Die Lösung mit einem Sync als Disaster-Backup klingt eher nach dem Motto: "Wieso einfach, wenn es auch kompliziert geht?"

Ich Spiel jetzt mal "Holt" und weise daraufhin, daß Raid kein Backup ersetzt!
Raid erhöht die Verfügbarkeit im Falle eines Plattenausfalls, schützt aber nicht vor Blitzschlag, Feuer, Viren/Trojanern etc.
Das ist mir bewusst. Das RAID dient nur auf dem Backup-"Server" als zusätzliche Sicherheit.

Wie gesagt, ich denke das ZFS "besser" ist, aber ich kann den Mehraufwand nicht genau einschätzen und gehe daher davon aus, dass es viel Zeit für die Konfiguration brauchen wird. Ob der Mehrwert den Aufwand dann für meine Anforderungen berechtigt... aktuell denke ich das nicht. Ich lass mich aber gerne vom Gegenteil überzeugen.
 
Es gibt ja prinzipiell mehrere Optionen:

1. Lokales Arbeiten und regelmässige Kopien auf eine externe Platte, idealerweise mit Versionsverlauf
egal ab mit Apple Timemachine, Dateiversionsverlauf oder sync per robyocopy/rsync auf mehrere Platten oder Versionsordner.

Hauptnachteil:
Es werden Kopien der Dateien übers Netz geschickt: langsam, benötigt viel Platz
Wiederherstellen: Zurück-Kopieren.
Werden Dateisystemen wie HFS, ext oder NTFS benutzt, können aber mangels Daten- oder Metadaten Prüfsummen Fehler weder erkannt noch bseitigt werden.


2. lokale Snapshots per VSS (Windows)
keine Kopien, kein Zeitverzug,
Widerherstellen: Windows >> Eigenschaften >> vorherige Version

Haupnachteil:
Platte defekt, alles weg (externes Backup nötig)


3. Zentrales ZFS Storage (Arbeiten vom Storage) oder ZFS als Backupdevice

NAS als zentrales Storage
Es wird auf dem Storage gearbeitet. Datensicherheit steigt im Vergleich zu NTFS oder ext deutlich da alle Dateifehler in der Kette OS > Treiber > Controller > Kabel > Platte erkannt und behoben werden.

Als Backup NAS:
Es wird lokal gearbeitet. Lokale Ordner werden per sync mit dem Storage syncronisiert.
Auf dem Storage werden es regelmäßig ZFS Snaps angelegt. Dateifehler die bereits lokal entstehen, können durch ZFS nicht erkannt und behoben werden.

Zugriff auf die Dateiversionen: Windows >> Eigenschaften >> vorherige Version

Vorteil: ZFS Snapshots sind read-only und können nicht verändert werden.
Von Windows aus gibt es damit keine Option diese Daten zu verändern oder zu löschen.


Zu ZFS
Es wurde für Storagepools im Terabyte und Petabyte Bereich entwickelt als Megabyte Festplatten üblich waren. Heute hat jeder Heimserver Terabyte Platten und für jeden sind damit die Vorteile von ZFS greifbar, wie Copy On Write (crashresistentes Dateisystem, keine Datenkorruption bei einem Absturz, Online Daten-Check), darauf aufbauende Snapshots ohne anfänglichen Platzverbrauch oder Zeitverzug (Tausende Snapshots sind kein Problem) oder Echtzeit Prüfsummen auf Daten oder Metadaten mit Auto-Repair sofern Redundanz vorhanden ist (Raid).

Das ist etwas das jeder braucht der auf Datensicherheit wert legt.


Zur Performance von ZFS Storage vs lokalem NTFS Storage
Für sequentielle Transfers begrenzt das Netz auf ca 100 MB/s (1 Gb Netzwerk). Damit oist sequentiell lokaler Speicher schneller solange man kein 10G Netzwek hat. Das ZFS RAM Caching beim Lesen oder Schreiben ist aber State of the Art. Normalerweise ist ein ZFS Storage mit ausreichend RAM "reaktionsfreudiger, geringere Latenz" als eine lokale Festplatte, in jedem Fall aber viel sicherer.


und wie kompliziert ist es beim Einrichten/ Bedienen?
Entweder installiert man eine fertige ZFS Web-Appliance wie FreeNAS (BSD) oder NexentaStor CE (Solaris Fork). Die werden installiert und sind dann per Web-UI bedienbar, etwa wie ein Wlan Accesspoint. Mit etwas Grundkenntnissen zur Arbeitsweise von ZFS und Raid relativ einfach einzurichten, auf jeden Fall einfacher alls z.B. Windows Server.

Ein wenig kompliziertes ist es im Falle meines Napp-it. Dabei wird zunächst ein kommerzielles Enterprise OS wie Oracle Solaris oder OmniOS als ein freier Solaris Fork installiert und dann mit einem Online Installer als Web-Appliance eingerichtet. http://www.napp-it.org/doc/downloads/napp-it.pdf

In beiden Fällen erfolgt die normale Bedienung per Web-Browser.
Der Ablauf ist einfach. Aus den Platten wird ein Pool per Software-Raid erstellt. Er kann jederzeit durch weitere Raids erweitert werden. Dabei steigt die Performance und Kapazität des Pools. Darauf werden ZFS Dateisysteme angelegt und entweder für Gastzugriff mit SMB allgemein freigegeben oder es werden User angelegt und der Zugriff benätigt eine Anmeldung.

Zusätzlich aktiviert man Autosnaps für die Versionierung

und wie kompliziert ist es beim Crash/ restore:
Einfach. Das OS erneut installieren und den alten Pool importieren

Disaster-Backup:
entweder auf lokale Platten (auch externe USB) oder auf eine weitere Appliance mit automatoisierter Replikation.


Ich empfinde ein ZFS NAS nicht als Mehraufwand sondern als Vereinfachung bei gleichzeitig erheblich besserer Datensicherheit.
 
Zuletzt bearbeitet:
Danke gea für diese ausführliche und sehr hilfreiche Antwort.

Von den Optionen her, ging ich bisher immer von der ersten Variante aus. Die dritte Variante klingt zunehmend interessanter, aber leider habe ich hier noch ein paar offene Fragen und vielleicht kannst du hier weiter Klarheit schaffen.

In der Regel könnte ich mit den Daten im Netz arbeiten. Durch IP TV, Streaming etc wird das Netzwerk jedoch bereits gut genutzt und zudem liegt mir viel daran, dass meine Bilddaten schnell zur Verfügung stehen. Teilweise erreichen die Daten mehrere hunderte Megabyte und ich mag nicht ewig warten, bis Photoshop hier das Bild geladen hat. Aus diesem Grund würde ich, wenn ich dich richtig verstanden habe, das NAS als Backup einsetzen und das NAS nicht direkt als zentrales Storage nutzen. Das ist natürlich in der Hinsicht ärgerlich, da Dateifehler nicht erkannt werden und ich mehr Festplatten benötige, da die Client über genügend Speicherplatz verfügen müssen.


Frage 1: Habe ich das richtig verstanden und ist meine Annahme daher richtig?
Frage 2: Wie läuft der sync zwischen Client und NAS? Dateiversionsverlauf von Windows, oder kommt ihr ein separates Tool zum Einsatz?
Frage 3: Verstehe ich das richtig, dass bei dieser Option die Clients die Daten auf das NAS schieben. Der Ort dient als zentraler Backuppfad, der durch den Server in regelmäßigen Abständen über ZFS Snapshots gesichert wird. Möchte ich meine Daten nun wiederherstellen, so kopiere ich die Daten aus dem Backuppfad, oder zur Not aus den Snapshots.
Frage 4: Welche ZFS Web-Appliance würdest du für meinen Fall empfehlen und worin liegt der Vorteil deiner Version?
Frage 5: Du sprichst davon, dass die Konfiguration, wenn man sich etwas auskennt, nicht so komplex ist. Ist es Vergleichbar mit der Konfiguration eines Routers, oder ist es dann doch schwieriger und wartungsintensiver wie ein Router, aber eben nicht so komplex wie ein Windows Server.

Vielen Dank für die Hilfe!!
 
1.
Prinzipiell würde ich nach Möglichkeit immer über das NAS arbeiten. Grund ist, dass ein ZFS NAS bei ausreichend RAM erheblich reaktionsfreudiger ist als lokaler Storage. Das liegt an den ausgefeilten Cacheoptionen von ZFS. Die sequentiellen Übertragungsraten sind vom Netz abhängig (1 oder 10Gb). Das bremst vor allem beim Backup/ Kopieren oder Öffnen großer Dateien.

Vorteil ist halt, dass man Arbeitsdateien nicht immer hin und her kopieren muss und das es Snaps/Versionierung (Windows: vorherige Version) auf dem NAS gibt. Auch ist die Datensicherheit besser. Ein Nas zum Arbeiten sollte so konfiguriert sein, dass ein besser zwei Plattenausfälle verkraftet werden (Mirror, Raid-Z2).

Insgesamt ist ein 1 Gb Netzwerk sequentiell etwa so schnell wie eine einzelne langsamere Festplatte. Ein 10G Netzwerk sequentiell so schnell wie eine schnelle SSD. Gottseidank wird 10G langsam bezahlbar. Das zufällige Schreiben/Lesen kleinerer Daten (iops) ist über das NAS fast immer schneller.

Ich würde es ausprobieren, ob es mit 1G schnell genug ist (Ist wahrscheinlich der Fall)
Als Disaster Backup dient dann eine lokale oder zusätzliche oder externe (eventuell USB) Platte. Wenn alles ganz wichtig ist, nimmt man ein weiteres NAS im Keller das sich automatisch mit dem NAS repliziert.

2.
Lokales Arbeiten dagegen bedeutet immer, dass die Daten regelmäßig auf das NAS kopiert werden müsen, egal ob mit einem Sync tool (Dateiversionsverlauf oder TimeMachine sind eigentlich auch sync tools) oder per einfachem Copy. Im einfachsten Fall geht das Windows RoboCopy Häufigere Versionsstände bedeutet erhebliche Wartezeit durch das Kopieren und benötigt mehr Platz als Versionierung mit ZFS Snaps.

3.
Versionierung auf dem NAS erfolgt mit ZFS Snapshots. Wiederherstellen alter Dateistände: Mausrechsklick auf den Ordner > Eigenschaft > vorherige Version, dann Wiederherstellen oder einfach Kopieren.


4.
Solaris/ OmniOS hat den Vorteil, dass es die beste Integration von ZFS ins OS bietet und den einfachsten/ Windows-Kompatibelsten SMB Server unter Unix. Viele ZFS Server basieren auf dem Betriebssystem BSD (z.B. FreeNAS) und künftig vermehrt Linux. Ich selber arbeite ausschliesslich mit Solaris & Co

Einfach mal ausprobieren
FreeNAS, NexentaStor oder etwas Solarisartiges mit meinem napp-it:
http://www.napp-it.org/doc/downloads/napp-it.pdf

5.
Nach der Installation geht die Bedienung über eone Webapplikation. Man braucht etwas Grundkenntnisse über ZFS, Raid, Datei und Userverwaltung damit man weiss was man wann anklicken muss. Im einfachsten Fall ist es aber lediglich aus den Platten einen Pool mit Dateisystem erstellen und den per SMB freigeben. Dann Snaps konfigurieren und gut.
 
Noch eine Anmerkung zu NAS vs. lokal: Wenn Du auf deiner Workstation genug RAM hast, puffert die Anwendung (Photoshop, Videoprog usw.) die Arbeitsdaten sowieso im RAM - jedenfalls wenn sie halbwegs professionell ist. Das heißt, Du merkst die möglicherweise "schlechtere" Performance des NAS im Vergleich zu einer lokalen Platte im Idealfall nur beim erstmaligen Öffnen und nach der Bearbeitung beim Speichern der Datei.

Bei Bildbearbeitung z.B. würde ich mal vermuten, dass Du da mit großem RAM besser bedient bist, als mit einem lokalen SSD-Raidarray. Wenn Du hingegen viel mit Videos (oder vielleicht auch CAD - da kenne ich mich nicht wirklich aus) machst, wo die Bearbeitungsergebnisse schlicht nicht in einen vernünftig bemessenen RAM passen, kommst Du um einen schnellen Speicher nicht herum - entweder lokal oder über 10Gbit angebunden. Aber dann brauchst Du eben das Raidarray und musst Dir überlegen, ob Du zusätzlich in 10Gbit investieren willst.

In dem Moment, wo Du mehrere Clients im Netz hast, bei denen die Anforderungen eines schnellen Storage-Systems bestehen, lohnt sich m.E. wahrscheinlich die Investition in 10Gbit: Die Kosten für eine 10Gbit karte sind vermutlich günstiger als für ein flottes SSD-Array in jedem Client. Hängt halt jetzt von deinen konkreten Anforderungen ab und wie wahrscheinlich es ist, ob dann wieder dein 10Gbit-Netz limitiert... sollte das der Fall sein kannst Du Dich in Fiberchannel und Infiniband einlesen... ;)
 
Zuletzt bearbeitet:
Grund ist, dass ein ZFS NAS bei ausreichend RAM erheblich reaktionsfreudiger ist als lokaler Storage.
Von wie viel RAM sprechen wir hier?

Vorteil ist halt, dass man Arbeitsdateien nicht immer hin und her kopieren muss und das es Snaps/Versionierung (Windows: vorherige Version) auf dem NAS gibt.
Ist das wirklich ein Vorteil? Wenn die Daten auf dem NAS liegen, dann müssen sie zum Arbeiten immer auf den Client kopiert werden. Andersrum müssen die Daten auf das NAS kopiert werden, wenn man lokal mit ihnen arbeitet. So oder so, werden die Daten über das Netzwerk geschickt. Ich würde sogar sagen, dass wenn man auf dem NAS arbeitet, dass Netzwerk stärker belastet wird. Einmal werden die Daten zum Client kopiert und die geänderte Datei wir anschließend wieder auf das NAS geschoben. Wenn ich lokal arbeite, wird nur die Datei als Backup kopiert.


Noch eine Anmerkung zu NAS vs. lokal: Wenn Du auf deiner Workstation genug RAM hast, puffert die Anwendung (Photoshop, Videoprog usw.) die Arbeitsdaten sowieso im RAM - jedenfalls wenn sie halbwegs professionell ist. Das heißt, Du merkst die möglicherweise "schlechtere" Performance des NAS im Vergleich zu einer lokalen Platte im Idealfall nur beim erstmaligen Öffnen und nach der Bearbeitung beim Speichern der Datei.
Ja, der Client wird ausreichend RAM haben. Sie werden in Ende diesen Monats beschafft und werden 16GB und 32GB RAM haben.

In dem Moment, wo Du mehrere Clients im Netz hast, bei denen die Anforderungen eines schnellen Storage-Systems bestehen, lohnt sich m.E. wahrscheinlich die Investition in 10Gbit: Die Kosten für eine 10Gbit karte sind vermutlich günstiger als für ein flottes SSD-Array in jedem Client. Hängt halt jetzt von deinen konkreten Anforderungen ab und wie wahrscheinlich es ist, ob dann wieder dein 10Gbit-Netz limitiert... sollte das der Fall sein kannst Du Dich in Fiberchannel und Infiniband einlesen...
Nur ein Client wird die hohen Anforderungen haben. Ein SSD-Array werde ich aber nicht benötigen. Bei Lightroom werden die Bilder auf einer normalen HDD liegen und der Katalog entweder auf einer normalen SSD, oder einer der neuen M.2 Karte von Samsung mit ca. 2200 Mbit/s ;-)

Ich sehe das bisher so:
Bisher denke ich, dass es für mich von Vorteil wäre, mit lokalen Daten zu arbeiten. Hier macht es kaum einen Unterschied, ob ich ein normales NAS, oder ein ZFS-Storage verwende. Klar, das ZFS wäre sicherlich besser, aber der Vorteil nicht mehr so groß.
Anders sieht es aus, wenn ich direkt auf dem ZFS-Storage arbeiten würde. Da die Kosten für einen ZFS-Storage und ein normales NAS in etwa gleich sind, könnte ich das ZFS-Storage kaufen und testen, ob mir die Performance ausreicht, wenn ich darauf arbeite. Sollte mir die Leistung nicht ausreichend sein, kann ich das ganze um konfigurieren.

Frage 1: Wenn ich auf dem NAS arbeite, gebe ich den Speicherort frei und binde ihn als Netzwerklaufwerk ein, oder binde ich die Daten auf eine andere Art und Weise ein?

Danke nochmals für die ganzen Informationen und Erläuterungen! Es hilft mir wirklich sehr, die richtige Entscheidung zu treffen.
 
Von wie viel RAM sprechen wir hier?

Ein 64 Bit OS braucht etwa 2 GB RAM. Der RAM darüber wird neben einem kleinen Schreibcache im Wesentlichen als Lesecache benutzt. Der Lesecache arbeitet blockorientiert und gehört mit zum Besten was es derzeit gibt. Nach oben gibt es dafür kaum Grenzen.

Ein kleines Heimnas ist daher ab 4 GB als RAM bereits gut dabei, ein Filer auf dem viele Leute arbeiten oder auf dem viele VMs liegen kann auch gerne 32-64 GB oder noch deutlich mehr RAM haben und den zur Performancesteigerung nutzen da dann fast alle Lesezugriffe aus dem RAM bedient werden (Keine Latenz).

Ist das wirklich ein Vorteil? Wenn die Daten auf dem NAS liegen, dann müssen sie zum Arbeiten immer auf den Client kopiert werden. Andersrum müssen die Daten auf das NAS kopiert werden, wenn man lokal mit ihnen arbeitet. So oder so, werden die Daten über das Netzwerk geschickt. Ich würde sogar sagen, dass wenn man auf dem NAS arbeitet, dass Netzwerk stärker belastet wird. Einmal werden die Daten zum Client kopiert und die geänderte Datei wir anschließend wieder auf das NAS geschoben. Wenn ich lokal arbeite, wird nur die Datei als Backup kopiert.

Wenn die Originaldatei auf dem Server liegt, wird die direkt vom Server geöffnet und damit gearbeitet. Zusätzliches Umkopieren erfolgt nur als Disaster Backup

Frage 1: Wenn ich auf dem NAS arbeite, gebe ich den Speicherort frei und binde ihn als Netzwerklaufwerk ein, oder binde ich die Daten auf eine andere Art und Weise ein?

Man greift auf das NAS entweder mit "Netzwerkumgebung" zu oder mappt einen Laufwersbuchstaben auf das Netzwerkshare.
Das Handling ist vergleichbar mit einer zweiten Festplatte.
 
Zuletzt bearbeitet:
nur mal so:
ich habe gerade vor einigen Tagen intensiv mit Photoshop und zeitgleich ACDSee mit Dateien direkt vom NAS gearbeitet (19x8TB im Raidz3 / 16 GB Speicher / i3 4150 ohne Verschlüsselung - GB-LAN).
Beim Öffnen von Ordnern mit vielen JPGs (500-1000) mit ACDSee gibt es eine spürbare Latenz, die ich aber nicht als so hemmend empfunden habe.
Das Öffnen von PSD Dateien dauert einen "Millispitz" länger, als wenn man die Dateien Lokal liegen hätte.
Unterm Strich kann ich für mich sagen, daß die Performance durchaus erträglich ist.
 
19 Platten als Raid-Z3 ist eine sehr langsame Option, voll auf maximale Kapazität getrimmt. Wenn dann die 8 TB Platten Archivplatten sind, dann ist es für ein NAS maximal langsam.
 
Hallo Zusammen,

ich möchte gern eine Backuplösung basierend auf dem Dateiversionsverlauf von Windows 10 bei uns aufbauen.

Ich hab da aufgehört zu lesen :) ... really win 10
 
Wenn die Originaldatei auf dem Server liegt, wird die direkt vom Server geöffnet und damit gearbeitet. Zusätzliches Umkopieren erfolgt nur als Disaster Backup.
Also wenn die Datei auf dem Server liegt und ich sie mit Lightroom oder Photoshop öffne, dann muss die Datei in den Speicher meines Clients kopiert werden, also einmal über das Netzwerk. Wenn ich sie nun wieder Speicher, dann wird die Datei aus dem RAM auf den Server kopiert. Sprich die Datei wird zweimal über das Netzwerk gesendet. Wenn ich alle Dateien auf meinem Client habe, wird die Datei nur einmal als Backup versendet. Somit verdoppelt sich die Netzwerklast, wenn alle Dateien auf dem Server liegen.

nur mal so:
ich habe gerade vor einigen Tagen intensiv mit Photoshop und zeitgleich ACDSee mit Dateien direkt vom NAS gearbeitet (19x8TB im Raidz3 / 16 GB Speicher / i3 4150 ohne Verschlüsselung - GB-LAN).
Beim Öffnen von Ordnern mit vielen JPGs (500-1000) mit ACDSee gibt es eine spürbare Latenz, die ich aber nicht als so hemmend empfunden habe.
Das Öffnen von PSD Dateien dauert einen "Millispitz" länger, als wenn man die Dateien Lokal liegen hätte.
Unterm Strich kann ich für mich sagen, daß die Performance durchaus erträglich ist.
Ich arbeite ausschließlich mit RAWs und habe aktuell einen Satz von 3.500 Bilder den ich Sichte. Davor hatte ich einen Satz mit 5.000 Bildern. Das sind Ausnahmen, aber wenn ich die Bilder importiere, dann werden sie erst über das Netzwerk auf den Server geschoben. Anschließend rechnet Lr die Vorschaubilder, sodass die Bilder wieder zurück über das Netzwerk kopiert werden. Beim Import ist es mir relativ egal, wenn das etwas länger dauert, da ich dies über Nacht, oder nebenbei machen kann. Der Netzverkehr steigt aber erheblich.
Im Anschluss müssten die Bilder als Vorschau auf meiner SSD lokal liegen und das Arbeiten sollte relativ schnell gehen. Nur wenn die Originaldatei benötigt wird, werden 20-30MB pro Bild über das Netzwerk geschoben.

Ich werde es mal ausprobieren. Erst einmal muss ich schauen, welcher Server und welches OS ich verwenden werde.
 
Also wenn die Datei auf dem Server liegt und ich sie mit Lightroom oder Photoshop öffne, dann muss die Datei in den Speicher meines Clients kopiert werden, also einmal über das Netzwerk. Wenn ich sie nun wieder Speicher, dann wird die Datei aus dem RAM auf den Server kopiert. Sprich die Datei wird zweimal über das Netzwerk gesendet. Wenn ich alle Dateien auf meinem Client habe, wird die Datei nur einmal als Backup versendet. Somit verdoppelt sich die Netzwerklast, wenn alle Dateien auf dem Server liegen.

Und wo ist das Problem?
Das Netzwerk verschleißt ja nicht und Photoshop liest und schreibt nicht gleichzeitig. Selbst bei mehreren Clients/ Usern ist das kein Grund ausser wenn Arbeiten am lokalen PC EXTREM viel schneller wäre. Dann wäre aber eher 10G der nächste überlegenswerte Schritt. Problematisch wäre Arbeiten vom Server aber nur mit Wlan. Das Arbeitslaufwerk von Photoshop sollte aber lokal liegen.
 
Zuletzt bearbeitet:
Ich habe mich scheinbar nicht klar ausgedrückt. Du meintest, dass kein zusätzliches Umkopieren stattfindet, wenn ich direkt vom Server aus arbeite. Ich wollte nur darauf hinweisen, dass dies so nicht richtig ist und die Daten eben doch kopiert werden, was zu mehr Netzwerklast führt und auch die Zugriffszeit erhöht.
 
wenn du lokal arbeitest, wird auchdie Dazei von der HDD gelesen und in den Arbeitsspeicher kopiert.
die Festplatte hat im Schnitt eine Transferrate von 100-120 MB/s, über Netz gehen im Idealfall 100-115 MB/s - real eher 80-100 MB/s.

Die Netzwerklast wird zu Bremse wenn 2 oder Mehr Leute gleichzeitig von verschidenen PCs aus Dateien vom Server öffnen / Speichern, da sich dann die Bandbreite aufteilt zzgl. eines Overheads.

wenn man lokal nur SSDs hat verhält sich das ganze natürlich Performancetechnisch ganz anders, da die lokale(n) SSD(s) ungleich schneller ist/sind
 
wenn du lokal arbeitest, wird auchdie Dazei von der HDD gelesen und in den Arbeitsspeicher kopiert.
die Festplatte hat im Schnitt eine Transferrate von 100-120 MB/s, über Netz gehen im Idealfall 100-115 MB/s - real eher 80-100 MB/s.

Die Netzwerklast wird zu Bremse wenn 2 oder Mehr Leute gleichzeitig von verschidenen PCs aus Dateien vom Server öffnen / Speichern, da sich dann die Bandbreite aufteilt zzgl. eines Overheads.

wenn man lokal nur SSDs hat verhält sich das ganze natürlich Performancetechnisch ganz anders, da die lokale(n) SSD(s) ungleich schneller ist/sind
OK, dass ist klar. Mich würden die Zugriffszeiten auch interessieren. Kennt jemand den Unterschied?

Ich werde mir den HP ProLiant MicroServer Gen8 mit 4GB RAM kaufen. Mich wundert es nur, dass er scheinbar kein RAID5 unterstützt. Da ich aktuell mit FreeNAS liebäugle werde ich eventuell das Software RAID5 nehmen. Irgendwelche Einwände?
 
Schau dir mal auf meiner HP das selbst bau NAS an, man kann bis zu 6 HDD dran hängen und kostet ohne Platten ~215€ evtl eine Alternative für dich. Ich hatte früher in meinem G8 einen Raid Controller und Raid5 und es lief alles TOP aber so einer kostet ebend zusätzlich 300€. Nun ist der Raid Controller draußen und es läuft alles über den B120 der aber kein Raid5 unterstützt!

Der HP Microserver G8 ist als 24/7 Super aber Standby etc geht damit nicht und zum Booten benötigt er auch ein paar Minuten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh