NAS-System als Datenablage/RAID/Druckerverwaltung für kleine Mac-basierte Agentur

accessoire

Neuling
Thread Starter
Mitglied seit
25.08.2009
Beiträge
73
Wir sind eine kleine Werbeagentur (6 Mann), mit drei Grafikern, d. h. auf die Grafikdaten auf unserem Datenserver greifen momentan maximal drei Personen gleichzeitig zu. Wir sind nun auf der Suche nach einem NAS-System, da unser alter Mac-Server nicht mehr lange durchhält. Ich würde gerne selber etwas zusammenstellen, z. B. ein System von Synology und irgendwelche Platten. Leider habe ich keine Ahnung von Platten für den professionellen Einsatz, die eine hohe Lebensdauer versprechen. Bekommt man da überhaupt etwas bei Alternate & Co.?

Nun frage ich mich, ob mit einem NAS-System alles reibungslos läuft mit Macs, oder ob manche Systeme bestimmte Features nicht unterstützen?
Apple bietet ja selber welche an, aber die sind viel zu teuer. Daher möchte ich gerne selber etwas zusammenstellen, insofern das problemlos funktioniert.

Muss ich irgendetwas beachten bei der Verwendung eines NAS-Systems für ein Mac-Netzwerk? Haben hier auch zwei Windows-Rechner, aber die werden nur in seltenen Fällen (wie etwa Browsertests) verwendet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wir sind eine kleine Werbeagentur (6 Mann), mit drei Grafikern, d. h. auf die Grafikdaten auf unserem Datenserver greifen momentan maximal drei Personen gleichzeitig zu. Wir sind nun auf der Suche nach einem NAS-System, da unser alter Mac-Server nicht mehr lange durchhält. Ich würde gerne selber etwas zusammenstellen, z. B. ein System von Synology und irgendwelche Platten. Leider habe ich keine Ahnung von Platten für den professionellen Einsatz, die eine hohe Lebensdauer versprechen. Bekommt man da überhaupt etwas bei Alternate & Co.?

Nun frage ich mich, ob mit einem NAS-System alles reibungslos läuft mit Macs, oder ob manche Systeme bestimmte Features nicht unterstützen?
Apple bietet ja selber welche an, aber die sind viel zu teuer. Daher möchte ich gerne selber etwas zusammenstellen, insofern das problemlos funktioniert.

Muss ich irgendetwas beachten bei der Verwendung eines NAS-Systems für ein Mac-Netzwerk? Haben hier auch zwei Windows-Rechner, aber die werden nur in seltenen Fällen (wie etwa Browsertests) verwendet.

Es gibt sicher viele Möglichkeiten, Ich kann nur vorschlagen was ich tun würde

- Die Druckerverwaltung ausklammern (An einem Mac belassen)
- In jedem Fall zwei Systeme kaufen, eines im Büro, eines örtlich möglichst weit weg als Datensicherung (Keller?)

- Falls darauf gearbeitet werden soll und es günstig sein soll, kein fertiges NAS nehmen, sondern kleine günstige Server.
Die sind schneller und flexible, z.B. wenn es günstig sein soll einen HP Microserver N40 mit 4 GB RAM , nachrüsten auf 8GB (ca 350,-- Euro Alternate)

- Je nach Platzbedarf bis zu 4 Platten einbauen. Falls Datensicherheit + Performance wichtig sind entweder ein Raid 10 mit 4 Platten aufbauen.
Falls Datensicherheit oberste Priorität hat, ein 3 x mirror nehmen (Da können 2 Platten ohne Datenverlust ausfallen).
Ich würde 7200 U/m Platten von Seagate, WD oder Hitachi nehmen, die auf 24x7 Betrieb ausgelegt sind
z.B. Hitachi HDS723020BLA642 2 TB (ca 100,--)

- Dazu eine Server-appliance software nach Wahl (Bedienung über Web-Browser). Als Dateisystem würde ich ausschließlich auf ZFS setzen
und damit jede Stunde einen Snapshot machen. Auf diesen Datenstand kann man dann zurückgehen (Kein so Gemurkse wie TimeMachine).

also z.B. OpenIndiana/ napp-it oder FreeBSD, wobei ersteres meist schneller ist.
Die Installation und die Bedienung ist auch einem Mac-only user möglich.


Zur Serverkonfiguration:
Ich würde generell auf SMB als Serverprotokoll setzen. Es ist am Einfachsten zu konfigurieren, schnell und interstützt ACL.
Die Optionen NFS oder Appletalk würde ich nach Möglichkeit vermeiden da viel schwieriger zu konfigurieren.

Zur Backupstrategie:
Auf dem ersten Server liegen die aktuellen Daten mit stündlichen snapshots (oder tagsüber öfter falls nötig).
Auf den zweiten Server werden die Daten täglich gesichert.
Bei wirklich wichtigen Sachen zusätzlich mehrere externe Platten nehmen und ab in den Save damit.

Stirbt der erste Server, entweder mit den Daten von Server 2 arbeiten oder besser die Platten aus Server 1 in Server 2 stecken
(aktueller Datenstand)

Kostenfaktor:
2 x Server ca 700,--
Je Serverein 2 x 2 TB mirror, 4 Platten ca 400,--
Summe: 1100,--

optimal: Je ein 3 x mirror wg Datensicherkeit, ist auch schneller, also ca 600,-- für 6 Platten
Summe 1300,-- eventuell weitere Platten für externes Backup oder als Spare
 
Ich glaube hier geht es eben gerade nicht um einen Server, sondern um eine einfach zu installierende und administrierende, verlässliche und erweiterbare Lösung. Da ist Synology defnitiv eine sehr gute Wahl. Nicht unbedingt die kleinen wegen der Performance, aber weiter oben im Bereich kleiner und mittlere Unternehmen gibt es perfekt zugeschnittene Lösungen von denen. Z.B. die DS1512+. 5 Platten rein, USV davor und ab gehts. Eine zweite (gern auch kleinere) Lösung mit ausreichend Platz für räumlich getrennte Backups wäre sehr sinnvoll.

Als Platten für den Dauerbetrieb würden sich dann z.B. die Hitachi UltraStar eignen Hitachi Ultrastar A7K3000 2000GB, SATA 6Gb/s (HUA723020ALA640/0F12455) | Deutschland - Hardwareluxx - Preisvergleich oder als 3TB Hitachi Ultrastar A7K3000 3000GB, SATA 6Gb/s (HUA723030ALA640/0F12450) | Deutschland - Hardwareluxx - Preisvergleich. Leider recht teuer. Es gibt aber noch andere für Dauerbetrieb geeignete HDs, z.B. Western Digital AV-GP 2000GB, 64MB Cache, SATA II (WD20EURS) | Deutschland - Hardwareluxx - Preisvergleich.

Ich persönlich würde auf so ein System setzen. Die Anforderungen an den Durchsatz bei Grafikern ist ja eher gering. Wichtig ist verlässlichkeit und komfortable Administration, und das können die Synology-Teile mit am besten. (ich spreche da aus Erfahrung)
Sicher hat ein HP Miniserver ein unschlagbares Preisleistungsverhältnis, aber er erfordert auch eine Menge Kenntnisse im PC Breich. Und wenn ich dich richtig verstehe, seid ihr ein Mac-Laden. :)
 
Bei Gea's Vorschlag musste ich tatsächlich erst einmal schlucken und bin mir nicht sicher, ob wir das in diesem Ausmaß wirklich benötigen, vermutlich aber eher nicht.
An den PC-Kentnissen würde es nicht scheitern, habe zu Hause selber nen PC und bin zumindest kein Anfänger im PC-Bereich. Mit euch Dauerluxxlern ist das natürlich nicht zu vergleichen, aber ich denke nicht, dass es irgendeine Herausforderung gäbe, die ich nicht meistern könnte.

Dein (01xxulerawdrah) Vorschlag klingt schonmal sehr gut und werde jetzt nochmal ausführlich über die Möglichkeiten nachdenken.
 
An den PC-Kentnissen würde es nicht scheitern, habe zu Hause selber nen PC und bin zumindest kein Anfänger im PC-Bereich. Mit euch Dauerluxxlern ist das natürlich nicht zu vergleichen, aber ich denke nicht, dass es irgendeine Herausforderung gäbe, die ich nicht meistern könnte.

Ich wollte mit der Aussage auch keinem zu nahe treten. Ich bin selbst auch ein versierter PC- und Mac-Nutzer mit. Allerdings geht es in Produktivumgebungen meißt um andere Dinge, als Gefummel und Gebastel bis z.B. das Netzwerk wieder am Start ist und weiter gearbeitet werden kann. Genau zu diesem Thema gab es vor kurzem mal einen Artikel im Synology Blog, der mich auch dazu veranlasste, meinen Homeserver mit Hardware-Raid wieder zu demontieren. Zur Zeit nutze ich noch eine DS 211 und bin damit überglücklich. Demnächst kommt dann die 412+, die vor ein paar Tagen hier auf HWLuxx getestet wurde. Hier ist der Link zum Artikel: PC File Server vs. NAS
 
Ich persönlich würde auf so ein System setzen. Die Anforderungen an den Durchsatz bei Grafikern ist ja eher gering. Wichtig ist verlässlichkeit und komfortable Administration, und das können die Synology-Teile mit am besten. (ich spreche da aus Erfahrung)
Sicher hat ein HP Miniserver ein unschlagbares Preisleistungsverhältnis, aber er erfordert auch eine Menge Kenntnisse im PC Breich. Und wenn ich dich richtig verstehe, seid ihr ein Mac-Laden. :)

Vielleich beschäftige ich mich schon zu lange mit Storage und habe schon zuviele Disaster erlebt.
Auch haben 'meine' Grafiker eher sehr hohe Ansprüche an Durchsatz und Datensicherheit und gesicherte Zwischenstände, egal ob mit mit TimeMachine oder besser mit ZFS Snapshots.

Ich würde auf jeden Fall meinen Mac eher mit ZFS z.B. Ten's Complement LLC | ZEVO | Storage ausrüsten (die habe früher bei Apple ZFS an OSX angepasst bis Steve entschied dass i* wichtiger/profitabler ist als vernünftige Mac Server) als meine Daten einem ext, ntfs oder hfs Dateisystem anzuvertrauen, egal ob da Synology, Windows oder Ubuntu oder was auch immer draufsteht. Wenn Synology mal ZFS oder btrfs/stable anbietet, mag sich das ändern. Bis dahin ist der Unterschied Solaris vs Synology was Datensicherheit oder Datenverläßlichkeit angeht eher rießig als groß.. Auch gibt es von der Bedienung keine so großen Unterschiede. Der HP Server ist ja wie Synology ready to use, man muss lediglich Platten einstecken, eine CD mit einem beliebigen Storage OS einlegen und aufspielen und alles per Browser und Web-UI bedienen; kein so großer Unterschied im Handling, zumindest mit den ready to use storage appliance Software Distributionen. Synology und Co ist ja im Prinzip auch nichts anderes, nur halt gebunden an eine spezielle Hardware.
 
Zuletzt bearbeitet:
Ok da kann man dir wohl nicht widersprechen. Mit der Thematik ZFS habe ich mich persönlich noch nicht auseinandergesetzt. Scheint sich aber zu lohnen, wobei sich mir nicht wirklich erschließt, was ein Dateisystem mit Datensicherheit zu tun haben soll, wo ich da bisher immer eher die Hardware als Übeltäter sah. Aber gut, man lernt nie aus.

Dennoch denke ich, ist eine dieser Syno-Kisten oder auch Qnap sicher einen Blick wert für das genannte Szenario. Zumindest, wenn man regelmäßig Backups anlegt.
 
Zur Thematik der benötigten PC-Kenntnisse von der Openindiana Lösung. Ich habe es gerade aufgesetzt und es ist wirklich einfach zu installieren, damit sollte eigentlich jeder klarkommen der zumindest auch von selbst programme installieren kann.
Im Zweifelsfall aber lokal am Rechner installieren bei wollte die GUI-Version von Openindina nicht über IPMI.

Napp-it ist auch einfach zu installieren und wenn man mit einem Synology Weinterface klarkommt kommt man auch damit zurecht.

Die wichtigere Frage ist dann schon eher wie es mit dem Support für die OI/Napp-it Variante aussieht. Wenn ich bei meinen Kunden etwas Produktiv einsetze, dann nur wenn es auch kompetenten Support dafür gibt. Mit der Hardware gibt es bei einem HP Server sicher keine Probleme aber wie es mit OpenIndiana bzw. Napp-it steht sollte man vor dem Einsatz klären.
 
Zur Thematik der benötigten PC-Kenntnisse von der Openindiana Lösung. Ich habe es gerade aufgesetzt und es ist wirklich einfach zu installieren, damit sollte eigentlich jeder klarkommen der zumindest auch von selbst programme installieren kann.
Im Zweifelsfall aber lokal am Rechner installieren bei wollte die GUI-Version von Openindina nicht über IPMI.

Napp-it ist auch einfach zu installieren und wenn man mit einem Synology Weinterface klarkommt kommt man auch damit zurecht.

Die wichtigere Frage ist dann schon eher wie es mit dem Support für die OI/Napp-it Variante aussieht. Wenn ich bei meinen Kunden etwas Produktiv einsetze, dann nur wenn es auch kompetenten Support dafür gibt. Mit der Hardware gibt es bei einem HP Server sicher keine Probleme aber wie es mit OpenIndiana bzw. Napp-it steht sollte man vor dem Einsatz klären.


Bei ZFS ist es wie bei den meisten OpenSource Projekten relativ einfach:
(Bezahlten) Support gibt es nur bei Solaris Und NexentaStor, das ist aber gleich deutlich teurer als die Hardware.
Ansonsten ist es OpenSource und as is. Bugs werden mehr oder weniger schnell behoben.

Das ist aber bei einem fertigen NAS kaum anders. Die haben auch nur ein OpenSource Linux als Basis und bauen darauf ein Benutzerinterface. Support ist da zunächst auch nur Hardware Support, also Wiederherstellen des Kaufzustandes und Fehlerbehebung in UserInterface. Fehler z.B. im enthaltenen Samba werden auch nicht von NAS Lieferanten sondern vom jeweiligen Entwicklerteam behoben und wandern dann ins NAS und das nie so schnell wie bei einer Basis Distribution wie Windows, Ubuntu, FreeBSD oder Solaris/OpenIndiana.

Ein optional darauf aufbauenden Web-Interface das dessen Bedienung lediglich vereinfacht, den Zugriff auf das OS aber nicht verhindert, ist da lediglich eine kleine Fehlerquelle.
 
Bei ZFS ist es wie bei den meisten OpenSource Projekten relativ einfach:
(Bezahlten) Support gibt es nur bei Solaris Und NexentaStor, das ist aber gleich deutlich teurer als die Hardware.
Ansonsten ist es OpenSource und as is. Bugs werden mehr oder weniger schnell behoben.

Das ist aber bei einem fertigen NAS kaum anders. Die haben auch nur ein OpenSource Linux als Basis und bauen darauf ein Benutzerinterface. Support ist da zunächst auch nur Hardware Support, also Wiederherstellen des Kaufzustandes und Fehlerbehebung in UserInterface. Fehler z.B. im enthaltenen Samba werden auch nicht von NAS Lieferanten sondern vom jeweiligen Entwicklerteam behoben und wandern dann ins NAS und das nie so schnell wie bei einer Basis Distribution wie Windows, Ubuntu, FreeBSD oder Solaris/OpenIndiana.

Ein optional darauf aufbauenden Web-Interface das dessen Bedienung lediglich vereinfacht, den Zugriff auf das OS aber nicht verhindert, ist da lediglich eine kleine Fehlerquelle.

Sehr interessante Sichtweisen, die der Thread hier zu Tage fördert und auch mich zum Umdenken anregt. Vielleicht sollte ich mir wirklich mal den kleinen HP ansehen, bevor ich mir noch eine Diskstation besorge. So wie du (gea) das schilderst habe ich das noch nie betrachtet, so tief steckt ich da einfach (noch) nicht drin. Sicher auch, weil man in Produktivumgebungen wenig Zeit über hat, um sich indepth mit der Thematik Storage zu befassen. Ich war bisher immer eher abgeschreckt vom Administrationsaufwand so einer Serverlösung. Und wenn man sich den HP-Thread mit seinen 5.000 Seiten mal ansieht, erhärtet sich der Verdacht noch mehr. :) Ein "fertig-NAS" packe ich aus, bau meine Platten ein, richte mir alles ein wie ichs mag und fertig. Deine Ausführungen klingen allerdings eher so, als könne man diesen Komfort auch bei anderen Lösungen finden. Ich werde mich auf jedenfall auch mal damit befassen. Da ich in einem Monat auch in die Selbstständigkeit wechsle und meine Daten-/Backup-Infrastruktur ohnehin überdenken will/muss, hat das Thema auch für mich hohe Priorität. Ich danke zumindest schonmal für die Infos.
 
Ok da kann man dir wohl nicht widersprechen. Mit der Thematik ZFS habe ich mich persönlich noch nicht auseinandergesetzt. Scheint sich aber zu lohnen, wobei sich mir nicht wirklich erschließt, was ein Dateisystem mit Datensicherheit zu tun haben soll, wo ich da bisher immer eher die Hardware als Übeltäter sah. Aber gut, man lernt nie aus.

Es gibt verschiedene Ebenen. Es gibt z.B. Datenredundanz mit Hilfe von Raid. Das hat direkt nichts mit dem Dateisystem zu tun.
Es gibt aber daneben die Faktoren Fehlerverhalten z.B. bei Stromausfall, Datenverfügbarkeit, Datenverläßlichkeit, Langzeitverhalten, Datenreparatur oder Datenversionierung.

Die Palette reicht dabei von z.B. FAT (das ist auf jedem USB Stick), da genügt manchmal schon ein Stromausfall oder ein Abstecken ohne Abmelden, dass die Partition nicht mehr lesbar ist über das solide Mittelfeld wie NTFS, HFS oder ext3/4 bis zu neueren Entwicklungen wie BTRFS oder WinReFS deren Entwicklung vom derzeitigen Highlight ZFS inspiriert wurde, ohne aber den umfassenden Ansatz von ZFS zu erreichen (Kompatibilität war da eben auch wichtig. Ein abgestimmtes komplettes und neues Enterprise Serverbetriebssystem ohne Rücksicht auf Vorversionen rund um das revolutionäre ZFS Dateisystem zu entwickeln, das gelang halt nur SUN mit OpenSolaris im (letztendlich gescheiterten) Überlebenskampf. Sind ja auch mit deswegen von Oracle übernommen worden. Das Geld war eben aus, als ZFS endlich richtig rund lief. Oracle wirds mit Solaris 11 freuen).

Bei ZFS (wobei ZFS kein Dateisystem ist sondern die Kombination aus Dateisystem, Raidmanager, Volumemanager, Dateiprüf- und Reparaturprogramm und Sharemanager für SMB und NFS) sind es im Bereich des Dateisystems vor allem die Prüfsummen auf allen Daten und Copy on Write, die entscheident sind neben dem umfassenden Ansatz der vieles spielend leicht erscheinen läßt und der Grund ist, dass es ohne viel Zutun einfach läuft.

Ersteres sorgt dafür, dass jedwede Datenfehler im Bereich Platte, Kabel, Controller und Controllertreiber entdeckt werden und bei ausreichender Redundanz (Raid) sofort repariert werden. (Das Feature nennt sich selbstheilendes Dateisystem). Copy on Write, bei dem grundsätzlich keine Daten überschrieben sondern immer neu angelegt werden hat die Folge, dass die alten Versionen vor Überschreiben geschützt werden können (Snapshot). Man kann damit auf Vorversionen zugreifen, ohne dass wie bei TimeMachine Daten kopiert werden müssen oder es anfänglich Platz braucht. Selbst Tausende von Snapshots jede Minute einer wären kein Problem.
Das ist ein Feature des Dateisystems, genauso wie die praktisch unbegrenzten Datenpools oder Pools die online auf Fehler geprüft werden können oder Pools mit Raid-Z3 (3 Platten dürfen ausfallen ohne dass Daten verloren sind), kein Write Whole bei Raid, mit der Anzahl der Platten/Raids in der Geschwindigkeit skalierendes System und viele weitere Feature, alles Eigenschaften von ZFS und alles ziemlich einmalige Features.

Das ist der Grund warum für mich das Dateisystem bei einem Storageserver überragende Bedeutung hat. Ob es unter FreeBSD, Linux, OSX oder Solaris läuft ist dann nur insofern wichtig, als dass die Entwicklung eben bei OpenIndiana/Solaris stattfindet und es dort am schnellsten/ausgereiftesten arbeitet.

Das soll aber nicht nur ein Loblied auf ZFS sein, Da gibt es auch noch viel zu verbessern. Es ist halt momentan das Beste was möglich ist. Ein Backup für den Disasterfall ersetzt es nicht, die allgemeine Verfügbarkeit ist aber schon einmalig.
 
Zuletzt bearbeitet:
Also OpenIndiana schaue ich mir mal genauer an. Oder gibt es für ZFS-Einsteiger empfehlenswertere Lösungen?
 
Also OpenIndiana schaue ich mir mal genauer an. Oder gibt es für ZFS-Einsteiger empfehlenswertere Lösungen?

Kostenlos und mit Web-Interface zum Bedienen gibt es:

- Free-BSD
- NexentaStor3 CE (max 18TB frei, basiert auf einem älteren OpenSolaris Stand,
wird demnächst mit V4 auf den gleichen Kernel wie OpenIndiana umgestellt)
- Openindiana 151a4/ napp-it (derzeit neueste Enwicklung, Openindiana ist ein Developer-Release
aber kurz vor dem stable Status, wird aber überall schon produktiv genutzt)
 
+1 für eine ZFS-Lösung, alles andere ist Murks! :fresse:
 
Zuletzt bearbeitet:
+1 für eine ZFS-Lösung, alles andere ist Murks! :fresse:

Ich les grad, "There is no OS level support for ZFS in Windows." Ich denke mir das bedeutet, man kann ganz einfach in Windows selbst dieses Dateisystem nicht verwenden. Wenn ich aber z.B. den N36L mit einem ZFS-unterstützendem OS (die oben genannten) aufsetze, kann ich ganz normal über smb-Freigaben auf den Storage zugreifen und damit arbeiten, oder? :popcorn:
 
Ich denke mir das bedeutet, man kann ganz einfach in Windows selbst dieses Dateisystem nicht verwenden.
richtig.

Wenn ich aber z.B. den N36L mit einem ZFS-unterstützendem OS (die oben genannten) aufsetze, kann ich ganz normal über smb-Freigaben auf den Storage zugreifen und damit arbeiten, oder?
auch richtig.


ZFS ist ein lizenztechnisch problematisches und technisch äußerst anspruchsvolles Dateisystem, dass es in verschiedenen Versionen gibt. Folglich gibt es nur sehr wenige Systeme, auf denen ZFS überhaupt funktioniert, lizenztechnisch unproblematisch ist und es funktioniert dann auch nicht auf allen Systemen gleich (Versionsbedingt. FreeNAS verwendet v28, OpenSolaris eine Version > v30, jeweils mit unterschiedlichen Features). Daher sind nicht mal diese ZFS unterstützenden Betriebssysteme untereinander uneingeschränkt kompatibel. Einen OpenSolaris Pool kannst du z.B. nicht unter FreeNAS importieren.

Aber: ZFS ist das flexibelste und robusteste Dateisystem, das mir je untergekommen ist und wenn man anständige Hardware hat, ist es auch noch sehr schnell. Folglich eignet es sich ideal für ein PROFESSIONELLES Storage-System. Allerdings ist es nicht ganz trivial, es richtig einzurichten, so das es auf die Bedürfnisse passt.
 
Zuletzt bearbeitet:
sandreas;18930811Allerdings ist es nicht ganz trivial schrieb:
Das ist es eben. Wieviel Zeit muss man investieren, um sich ein verlässliches und stabiles System einzurichten? (rethorische Frage) Wobei es hier sicher schwer darauf ankommt, was ich dann für Bedürfnisse an das System habe, oder? Hier wurde ja schon mehrmals gesagt, es sei ähnlich einfach wie das Einrichten auf einer Diskstation. Kann man das tatsächlich vergleichen?
 
ZFS ist ein lizenztechnisch problematisches und technisch äußerst anspruchsvolles Dateisystem, dass es in verschiedenen Versionen gibt. Folglich gibt es nur sehr wenige Systeme, auf denen ZFS überhaupt funktioniert, lizenztechnisch unproblematisch ist und es funktioniert dann auch nicht auf allen Systemen gleich (Versionsbedingt. FreeNAS verwendet v28, OpenSolaris eine Version > v30, jeweils mit unterschiedlichen Features). Daher sind nicht mal diese ZFS unterstützenden Betriebssysteme untereinander uneingeschränkt kompatibel. Einen OpenSolaris Pool kannst du z.B. nicht unter FreeNAS importieren.

Aber: ZFS ist das flexibelste und robusteste Dateisystem, das mir je untergekommen ist und wenn man anständige Hardware hat, ist es auch noch sehr schnell. Folglich eignet es sich ideal für ein PROFESSIONELLES Storage-System. Allerdings ist es nicht ganz trivial, es richtig einzurichten, so das es auf die Bedürfnisse passt.

Vereinfacht zur Klarstellung.
ZFS ist OpenSource, allerdings unter einer SUN Lizenz, die closed source Erweiterungen erlaubt.
Das ist z.B. für Linux problematisch, da alles was in den Kernel aufgenommen wird, unter einer Lizenz steht,
die dem ursprünglichen Entwickler alle Rechte entzieht. Deshalb ist ZFS unter Linux auch nicht oer default im Kernel sondern muss extra installiert werden.

Zu den ZFS Versionen ist zu sagen, dass ZFS Version 28 die neueste freie Version ist. Diese wird von allen ZFS Systemen inkl. Solaris unterstützt und ist damit austauschbar. Solaris 11 hat aber ZFS Version 33 mit Verschlüssellung. Ein damit erstelltes Dateisystem ist Solaris 11 only. Man kann aber auch mit Solaris 11 austauschbare ZFS Pool V28 erstellen, dann halt ohne Verschlüssellung.

Das freie OpenSolaris ist übrigens Geschichte. Das wurde von Oracle eingestellt. Nachfolger als closed source ist Solaris 11. Der freie OpenSource Fork davon ist OpenIndiana.
 
Das ist es eben. Wieviel Zeit muss man investieren, um sich ein verlässliches und stabiles System einzurichten? (rethorische Frage) Wobei es hier sicher schwer darauf ankommt, was ich dann für Bedürfnisse an das System habe, oder? Hier wurde ja schon mehrmals gesagt, es sei ähnlich einfach wie das Einrichten auf einer Diskstation. Kann man das tatsächlich vergleichen?

Ja, das ist vergleichbar mit einem NAS.
Du installierst das OS als erstes, die Config wird dann über ein Webinterface gemacht. Je nach OS ist das dann napp-it, die FreeNAS GUI oder die Webconsole von Solaris. Ist eigentlich ziemlich einfach zu administrieren. FreeNAS ist z.B. in 5 min. auf aktueller Hardware installiert, die Config ist in 15 min. erledigt.
 
Zuletzt bearbeitet:
Das ist es eben. Wieviel Zeit muss man investieren, um sich ein verlässliches und stabiles System einzurichten? (rethorische Frage) Wobei es hier sicher schwer darauf ankommt, was ich dann für Bedürfnisse an das System habe, oder? Hier wurde ja schon mehrmals gesagt, es sei ähnlich einfach wie das Einrichten auf einer Diskstation. Kann man das tatsächlich vergleichen?

Im Falle von OpenIndiana + napp-it
Sofern die Hardware problemlos läuft und der Rechner an einem Netz mit DHCP Server hangt (automatische Netzwerkkonfiguration):

- Openindiana live herunterladen http://dlc.openindiana.org/isos/151a3/oi-dev-151a3-live-x86.iso und auf DVD brennen
- Rechner von DVD starten, Land, Tastatur eingeben
- Auf dem grafischen Desktop der nach dem Booten erscheint, auf Installieren klicken und auf eine Sata Festplatte installieren
User und Passwort angeben
- neustarten (Die Fehlermeldung am Ende der Installation von der Developer3 ISO ignorieren)

- napp-it installieren: Eine Console öffnen und folgendes eingeben:
su
wget -O - www.napp-it.org/nappit | perl

- neustarten und root Passwort neu eingeben
- Web-UI im Browser aufrufen: http://serverip:81

Videos dazu:
ESXi5 Video 8 - How to Install Napp-it on Open Indiana 151a in ESXi and vSphere - YouTube
ESXi5 Video 9 - Configuring Napp-it Raidz ZFS on Open Indiana using ESXi 5 and vSphere - YouTube


das war's eigentlich, mehr unter:
napp-it.org
Oracle Solaris 11 Information Library (Deutsch) 11/11 Release
http://www.hardwareluxx.de/community/f101/zfs-stammtisch-570052-79.html
OpenSolaris derived ZFS NAS/ SAN (Nexenta*, OpenIndiana, Solaris Express) - [H]ard|Forum
 
Zuletzt bearbeitet:
Wow, danke für die Infos und die Anleitung! Ich hoffe das war jetzt nicht zu sehr OffTopic. ;)
Eine Frage bleibt dann noch: WIe läuft das mit diesem Raid-Z3. Benötigt man dazu einen Raid Controller? Wenn ja gibt es da Empfehlungen für 4 Ports? Wenn nicht, würde dann nicht im Falle eines HP N36L/N40L die Transferleistung extrem niedrig sein?
 
Wow, danke für die Infos und die Anleitung! Ich hoffe das war jetzt nicht zu sehr OffTopic. ;)
Eine Frage bleibt dann noch: WIe läuft das mit diesem Raid-Z3. Benötigt man dazu einen Raid Controller? Wenn ja gibt es da Empfehlungen für 4 Ports? Wenn nicht, würde dann nicht im Falle eines HP N36L/N40L die Transferleistung extrem niedrig sein?

Raid-Z3 (das ist ein Raid bei dem 3 Platten ausfallen dürfen, ohne dass Daten verloren gehen) ist etwas für
ein Raid aus mehr als 10 Platten. Bei 4 Platten gibt es nur drei Optionen:

1.
Spiegelung (Raid-1), man kann auch Spiegelungen aus 3 (und mehr) Platten aufbauen,
das wird dann beim Lesen entsprechend schneller und ist ultra sicher

2.
Raid-10 aus 4 Platten als Kompromiß z. Es darf in jeder Spiegelhälfte nur eine Platte ausfallen,
sonst ist alles weg. Ist aber ein guter Kompromiß zwischen Datensicherheit, Schnelligkeit und Kapazität.

3. Raid-Z1 (wie Raid-5). Hochste Kapazität bei geringster Geschwindigkeit und mäßiger Sicherheit.
Es darf eine Platte ausfallen.

Bei wichtigen Daten würde ich große Platten nehmen und Variante 1 als 3 x mirror,


Ansonsten.
ZFS braucht kein Hardware Raid sondern möchte die Platten einzeln sehen um fehlerhafte Daten reparieren zu können. Dieses "automatische Selbstreparieren" verliert man bei Hardware-Raid. Außerdem kann man dann die Platten nicht mehr irgendwo einstecken und den Pool einfach importieren. Also Finger weg von Hardware Raid und einfach AHCI Sata einstellen. Bei Raid 1 und Raid 10 ist die Prozessorlast eh zu vernachlässigen. Selbst Raid Z1 wird kein Problem sein.
 
Ok, verstanden. Da es sich tatsächlich um sehr wichtige Daten handelt (Geschäftsdaten, Projekt Files) würde ich auch zu Variante 1 tendieren. Geschwindigkeit spielt auch eine Rolle, da das System auch als zentrales Arbeitslaufwerk fungieren soll, sofern die Performance eines N40L dafür ausreicht. Aber ich gehe mal davon aus. Dein Vorschlag (Variante 1 als 3 x mirror) würde bedeuten, 4 möglichst große HDDs, wobei der Inhalt der ersten Platte auf die drei weiteren gespiegelt wird. Bleibt eben die kleinste Kapazität übrig.
 
Ok, verstanden. Da es sich tatsächlich um sehr wichtige Daten handelt (Geschäftsdaten, Projekt Files) würde ich auch zu Variante 1 tendieren. Geschwindigkeit spielt auch eine Rolle, da das System auch als zentrales Arbeitslaufwerk fungieren soll, sofern die Performance eines N40L dafür ausreicht. Aber ich gehe mal davon aus. Dein Vorschlag (Variante 1 als 3 x mirror) würde bedeuten, 4 möglichst große HDDs, wobei der Inhalt der ersten Platte auf die drei weiteren gespiegelt wird. Bleibt eben die kleinste Kapazität übrig.

Immer gleichgroße Platten nehmen.
Ein 4 fach mirror ist aber etwas heftig. Die Lese-Performance entspräche zwar dem 4fachen einer Einzelplatte, ich würde es aber so machen: Wenn die Daten wirklich wertvoll sind, dann einen 3 fach Mirror machen und den 4. Slot für "Platte-Ersetzen" oder Backup frei lassen.

(Eventuell einen 4fach mirror machen und die 4. Platte regelmäßig reihum ersetzen -> ab in den Safe)
 
Zuletzt bearbeitet:
Ok, HP-Päckchen steht neben mir und wartet aufs Auspacken. Iso hab ich schon auf DVD gebrannt. Werde dann heute Abend mal testen, wie einfach sich das tatsächlich (für mich) darstellt. ;)
 
So, also gestern Abend den MicroServer in Betrieb genommen, von DVD installiert, danach napp-it installiert. HDD war im ersten Slot. Dann das DVD Laufwerk ausgebaut, durch einen 5,25" HDD Rahmen ersetzt und die HDD da rein getan. Seit dem bootet er nicht mehr bis zum Desktop durch, sondern hängt beim openIndiana loading screen oder startet gleich neu. Es handelt sich um einen Sharkoon Sata Quick Port.

Außerdem kam ich mit dem Browser nicht auf http://serverip:81 drauf.

Ich habe mich exakt an die Anweisungen gehalten.
 
Zuletzt bearbeitet:
So, also gestern Abend den MicroServer in Betrieb genommen, von DVD installiert, danach napp-it installiert. HDD war im ersten Slot. Dann das DVD Laufwerk ausgebaut, durch einen 5,25" HDD Rahmen ersetzt und die HDD da rein getan. Seit dem bootet er nicht mehr bis zum Desktop durch, sondern hängt beim openIndiana loading screen oder startet gleich neu. Es handelt sich um einen Sharkoon Sata Quick Port.

Außerdem kam ich mit dem Browser nicht auf http://serverip:81 drauf.

Ich habe mich exakt an die Anweisungen gehalten.

Das ist von HP so nicht vorgesehen.

Die 4 Slots sind AHCI, der CD Slot aber nur IDE und braucht damit einen anderen Treiber zum Booten.
Das kann deshalb nur funktionieren, wenn dort eine Platte bereits zum Installieren drin ist und das OS von USB installiert wird.

Es gibt aber ein Bios, das auch im CD Laufwerk AHCI aktiviert.
Einfach mal im Micrsoserver Thread stöbern.

PS
wurde denn "serverip" durch die tatsächliche ip ersetzt, die nach der Installation angezeigt wird?
Alternativ unter OpenIndiana den Browser starten und Hardwareluxx eingeben
 
Achso das erklärt einiges. Auch die Bezeichnung ODD des Ports auf dem Mainboard. Also muss ich entweder von USB auf die oben verbaute Platte installieren, oder gleich auf einen internen USB-Stick. Ich glaube letzteres werde ich heute Abend tun und Meldung machen.

Noch ein Frage zu den Treibern für die Hardware. Woher bekomme ich die? Der Paketmanager schlägt mir jede Menge Pakete vor (u.a. AMD Zeug, Realtek ...). Schlägt er mir nur das vor, was er bei mir im HP gefunden hat? Muss ich überhaupt was nachinstallieren oder sind Treiber im OS enthalten? Netzwerk funktioniert jedenfalls, nur die Darstellung ist sehr ruckelig beim Fenster verschieben.

PS: DANKE!!! :)
 
openindiana ist jetzt auf der HDD im oberen Abteil des HP installiert und läuft rund mit napp-it. (hab ich mich auf meinen Kreuzzügen durch Internet verlesen oder hast du (gea) napp-it geschrieben?)

Aus zwei Raid 1 vdevs hab ich ein Raid10 erstellt, einen ZFS Folder angelegt und eine SMB Freigabe. Von anderen Rechnern kann ich mit den jeweiligen Usern darauf zugreifen.
Was nicht geht ist der Zugriff von einem Rechner im Netzwerk über den Browser mit http://serverip:81. Laut guide sollte das ja eigentlich schon direkt nach der Installation von napp-it gehen. :confused:
Woran kann das liegen?
 
openindiana ist jetzt auf der HDD im oberen Abteil des HP installiert und läuft rund mit napp-it. (hab ich mich auf meinen Kreuzzügen durch Internet verlesen oder hast du (gea) napp-it geschrieben?)

Aus zwei Raid 1 vdevs hab ich ein Raid10 erstellt, einen ZFS Folder angelegt und eine SMB Freigabe. Von anderen Rechnern kann ich mit den jeweiligen Usern darauf zugreifen.
Was nicht geht ist der Zugriff von einem Rechner im Netzwerk über den Browser mit http://serverip:81. Laut guide sollte das ja eigentlich schon direkt nach der Installation von napp-it gehen. :confused:
Woran kann das liegen?

Läuft denn der Webserver von napp-it?
z.B. Local unter OI den Firefox starten und für serverip localhost angeben?

ps
Ja, napp-it ist mein Projekt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh