[Sammelthread] ZFS Stammtisch

Ist alles so, wie du es schreibst. Wäre ein anderes OS besser als OpenIndiana? OmniOS?
Habe auch schon wget -O - www.napp-it.org/afp | perl ein zweites mal gemacht. Hat aber nichts geändert.

Ansich bevorzuge ich OmniOS da es wesentlich häufiger Updates erfährt als OI. Das neue OmniOS 1008 stable macht aber Probleme mit der Installation von netatalk. (1006 + netatalk, dann Update auf 1008 scheint aber zu funktionieren)

Was ich versuchen würde:
Nochmal wget -O - www.napp-it.org/afp | perl laufen lassen.
Das heutige Update installiert netatalk 3.1

Wenn es da genauso aussieht, würde ich mal einen anderen Mac probieren, eventuell den Mac per Crossover Kabel direkt anschliessen um sonstige Kabel oder Switchprobleme auszuschließen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jetzt tut AFP gar nicht mehr (netatalk-Panic meldungen hören gar nicht mehr auf. OS X sieht keine shares.).

Aber ich nehme an "wget -O - www.napp-it.org/afp30 | perl" macht das erstmal rückgängig?
Danke, ich werde das mit dem Corssover-Kabel mal versuchen.
 
Zuletzt bearbeitet:
Jetzt tut AFP gar nicht mehr (netatalk-Panic meldungen hören gar nicht mehr auf. OS X sieht keine shares.).

Aber ich nehme an "wget -O - www.napp-it.org/afp30 | perl" macht das erstmal rückgängig?
Danke, ich werde das mit dem Corssover-Kabel mal versuchen.

afp3.04 wäre der letzte AFP Installer (afp30 ist die erste netatalk 3.0).
Einfacher ist es aber auf ein Boot environment vor der Installation zurückzugehen.
 
Danke, gea. War wirklich nur ein kaputtes Kabel, was die Probleme verursacht hat.
 
Bei Solaris ist ZFS das originäre Dateisystem. Wenn man also die Platte zum Backup in OmniOS nutzen möchte, dann auf dieser Platte einen ZFS Pool anlegen und den Mirror darauf sichern (per Replication oder rsync). Anschließen den Pool exportieren und Platte entfernen. Für das nächste Backup Pool importieren und erneut sichern.

Hauptvorteil: ZFS Sicherheit (Prüfsummen), LZ4 Komprimierung und Snapshots (vorherige Versionen)
Die Platte kann man man im laufenden Betrieb in einem Wechselrahmen ein/ausstecken (M1015 ist hotplugfähig).


Alternative:
Platte in einem USB Gehäuse einbauen und am PC anschließen und NTFS formatieren.
Dann Daten von einem OmniOS SMB share auf diese Platte syncronisieren (Ich würde robocopy nehmen, ist bei Windows dabei und kopiert nur geänderte Dateien/ syncronisiert den Inhalt zweier Ordner).

Vielen dank für deine Antwort. Ich werde die kommenden Tage hoffentlich die Hardware bekommen. Danach werde ich mich mal dran machen. Evtl. kommen da dann noch Fragen auf.

Habe eigentlich 2 Projekte. Aktuell habe ich eine N40l, dieser wird durch einen Ml310e v2 ersetzt.
Auf dem Ml310e, 12GB Ram soll ESXi inkl. Napp-it und 2x3TB mit M1015 laufen + 1x4TB als zusätzlicher Sicherung. Wie dies dann umgesetzt wird muss ich dann schauen.
Zum anderen möchte ich den N40l mit 8GB Ram nehmen und rein Napp-it darauf betreiben. Dieser ist dann auch nicht in der Nähe vom Ml310e!

Dazu hätte ich noch eine Frage, USB-Stick oder SSD?
Was wird denn hier empfohlen? Ein oder Zwei USB 3.0 Sticks oder eine SSD, zb. die Kingston SSDNow V300 60Gb. Preislich ja kein so großer Unterschied.
Ich möchte im N40l 4x 3Gb WD Red einsetzen, somit hätte ich noch einen Sata Port frei (Bios Mod).
 
Hallo nochmals,

ich habe wiedermal eine Frage, diesbezüglich über die TimeMachine Funktion. ich habe das afp Protokoll installiert und danach ei neues ZFS Volume für TimeMachine angelegt. Danach afp on und ein Häckchen bei Timemachine. Die ZFS Übersicht zeigtmir auch die Freigabe mit einem (T).

Ist das so richtig?

Leider habe ich mein MacBook erst seit 2 Wochen und das ist für mich totales Neuland. Wenn ich Timemachine öffne auf dem macbook sehe ich nur die Möglichkeit auf die angehängte USB Platte zu sichern oder auf ein anderes Time Capsule. Wenn ich auf Time Capsule gehe, öffnet sich das Airport Dienstprogramm und es wird eine Station gesucht. Leider findet es meine Freigabe nicht.

Mache ich hier etwas falsch, ich weiss es ist eher eine Frage fürs MacForum, aber ich möchte nicht gleich doppelt nachfragen.

Danke wie immer für eure Hilfe.

LG
 
ich habe wiedermal eine Frage, diesbezüglich über die TimeMachine Funktion. ich habe das afp Protokoll installiert und danach ei neues ZFS Volume für TimeMachine angelegt. Danach afp on und ein Häckchen bei Timemachine. Die ZFS Übersicht zeigtmir auch die Freigabe mit einem (T).
Den Beitrag von gea oben beachtet?
zfs set nbmand=off rpool/timemachine
zfs set aclmode=passthrough rpool/timemachine
zfs set aclinherit=passthrough rpool/timemachine
gesetzt?
den Rechner nach AFP-Installation neugestartet?
EDIT: oh da war ein fehler drin
 
Zuletzt bearbeitet:
Ist alles so gemacht worden, Mein Share heißt ../TimeMachine. Muss das cassensitive in diesem Fall beachtet werden?

Sollte mein MacBook die TimeMachine Freigabe von napp-it als Time Capsule finden?
 
Ist alles so gemacht worden, Mein Share heißt ../TimeMachine. Muss das cassensitive in diesem Fall beachtet werden?

Sollte mein MacBook die TimeMachine Freigabe von napp-it als Time Capsule finden?

Der Mac sollte die Timemachine Freigabe in der Systemeinstellung "TimeMachine" > Volume auswählen finden und nach Auswahl ein Loginfenster anbieten.

Die Sinnhaftigkeit von Timemachine selber ist aber was anders. Ich habe ja viel mit Macs zu tun, empfinde TimeMachine allerdings als ziemlichen Murks. Es ist zwar vielen anderen Snap/Replikationsmöglichkeiten überlegen - schon vom Handling her, aber kein Vergleich zu ZFS. Das ist umso bedauerlicher als Apple mal vorhatte ZFS in die OSX Server zu übernehmen. (Bevor sie begonnen haben primär eine iIrgendwas Firma zu werden). Ich selber kam erst über Apple zu ZFS.

Wir machen das so:
- bootfähige Systemimages/Clones/Restores (OSX, Windows, Dual boot) erstellen wir mit Clonezilla per USB Stick -> ZFS share
- Daten liegen direkt auf dem ZFS Storage und nicht lokal. Damit können wir ZFS snaps nutzen.
 
@gea, benutzt du dann Snapshots auch innerhalb von AFP-Shares? (also sichtbar machen von snapshots, damit man die im Finder sieht) weil bei mir ging das mit AFP nicht
 
Zuletzt bearbeitet:
Der Mac sollte die Timemachine Freigabe in der Systemeinstellung "TimeMachine" > Volume auswählen finden und nach Auswahl ein Loginfenster anbieten.

Habe oben gelesen dass du ein neues Netatalk anbietest und habe dies gleich installiert. Jetzt findet er es gleich unter Backupvolume auswählen.
 
@SunMorph mal interessehalber, welches OS benutzt du für napp-it?
 
@widdo Nutze OmniOS, wurde/wird von Gea favorisiert, deswegen habe ich es damals auch genommen bei der Installation. (Rennt bei mir aber nur rein in einer privaten Umgebung)
 
Wir machen das so:
- bootfähige Systemimages/Clones/Restores (OSX, Windows, Dual boot) erstellen wir mit Clonezilla per USB Stick -> ZFS share
- Daten liegen direkt auf dem ZFS Storage und nicht lokal. Damit können wir ZFS snaps nutzen.

Hallo gea,

verstehe ich das richtig: Mac booten mit Clonezilla auf USB Stick. Dann mount eines ZFS Shares und dann mit Clonezilla den Mac als bootfähiges Image auf den ZFS-Share sichern? Unterstützt Clonezilla Änderungen am Filesystem des Macs, also beim nächsten Sichern werden nur die Änderungen auf den Share gesichert? Ich benutze bisher SuperDuper bzw. Carbon Copy Cloner und arbeite mit externen Platten oder iSCSI Zielen auf ZFS Systemen. Wir läuft denn dann ein Restore eines Macs ab?
 
Von der Clonezilla-Seite:
"Differential/incremental backup is not implemented yet."
"Due to the image format limitation, the image can not be explored or mounted. You can _NOT_ recovery single file from the image."
"The destination partition must be equal or larger than the source one."
Ich vermute Carbon Copy Cloner sollte also besser sein, zumindest für OS X-Partitionen, außer dass man halt CCC nicht vom USB-Stick oder CD booten kann.
Und vielleicht hat der nächste Mac, den man sich kauft ja eine SSD drin und der vorherige noch eine Festplatte und die SSD ist kleiner. Hier würde Clonezilla auch nicht helfen.
 
Zuletzt bearbeitet:
@gea, benutzt du dann Snapshots auch innerhalb von AFP-Shares? (also sichtbar machen von snapshots, damit man die im Finder sieht) weil bei mir ging das mit AFP nicht

Der einfachste Weg wäre es das ZFS Snapshotverzeichnis extra zu mounten (ist readonly).
Wenn man also z.B. einen AFP share "data" hat, dann kann man das zugehörige Snapshotverzeichnis per Finder Gehe zu -> mit Server verbinden: afp://serverip/data/.zfs/snapshot mounten.

Das ginge auch auf SMB oder NFS shares.

- - - Updated - - -

Hallo gea,

verstehe ich das richtig: Mac booten mit Clonezilla auf USB Stick. Dann mount eines ZFS Shares und dann mit Clonezilla den Mac als bootfähiges Image auf den ZFS-Share sichern? Unterstützt Clonezilla Änderungen am Filesystem des Macs, also beim nächsten Sichern werden nur die Änderungen auf den Share gesichert? Ich benutze bisher SuperDuper bzw. Carbon Copy Cloner und arbeite mit externen Platten oder iSCSI Zielen auf ZFS Systemen. Wir läuft denn dann ein Restore eines Macs ab?

Der Vorteil von Clonezilla ist, dass man damit ein 1:1 Abbild der Festplatte direkt und sehr schnell auf ein SMB oder NFS share kopieren kann. Das geht sogar mit Dual-Boot (bootcamp). Das restore geht genauso einfach. Clonezilla vom USB stick starten und Image vom Server auf den lokalen Mac zurückclonen.

Für incrementelles Backup ist das nichts. Es werden immer komplette Images erstellt. Ich nehme das aber eh nur für Recovery und zum Bereitstellen vorkonfigurierter Mac Systemimages. Daten sind immer auf dem ZFS Storage und normalerweise nicht lokal.

Die Zielplatte muss halt mindest so groß wie das Image sein. Man kann aber mit dem Festplattendienstprogramm Partitionen vor/nach dem Klonen in der Größe ändern.
 
Danke sehr, ich hab eben einen bequemeren Weg gefunden für mich, ich mach mir ein Verzeichnis in meinem Share und mount -F lofs /pool/data/.zfs/snapshot/ /pool/data/snapshots
falls das noch jemand braucht
 
Info

Ich habe meine vorkonfigurierte und freie ESXi ZFS Storage-Appliance VM (napp-in-one) v. 13b auf OmniOS 1008 stable gebracht.

- und eine weitere (14a) zum Testen beigefügt, die alle Dienste und add-ons wie netatalk 3.1, proftpd, Apache with MySQL, MySQLAdmin, Owncloud, tftpd, rsync 3.1 oder den Mediatomb DLNA server enthält.

- beide mit napp-it 0.9e1 preview - beinhaltet ftp, iSCSI and www (virtual server) als Eigenschaft eines ZFS Filesystem, siehe Menü ZFS Dateisysteme

changelog
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris downloads

download
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris downloads
 
Dazu hätte ich noch eine Frage, USB-Stick oder SSD?
Was wird denn hier empfohlen? Ein oder Zwei USB 3.0 Sticks oder eine SSD, zb. die Kingston SSDNow V300 60Gb. Preislich ja kein so großer Unterschied.
Ich möchte im N40l 4x 3Gb WD Red einsetzen, somit hätte ich noch einen Sata Port frei (Bios Mod).

Hat zu meiner Frage denn jemand Empfehlung?
 
Bedenke, dass es für Sockel FM2 (afaik) keine ECC-Unterstützung gibt. Bei AM3+ schon, da liegt aber "nur" der FX-6300* in der gleichen Preisklasse. Und ne Graka wäre zusätzlich nötig.

*Reicht bei mir locker für 8x2TB im RAIDZ2, stellenweise mit Kompression und Dedup (bei kleineren Files, wo die Platten eh rödeln)
 
benötigt man denn zwingend ECC-Ram? wäre nur für den privaten gebrauch mit 3x3TB vorerst.
 
benötigt man denn zwingend ECC-Ram? wäre nur für den privaten gebrauch mit 3x3TB vorerst.

Nein, braucht man nicht zwingend - eigentlich fast nie.
Ist so wie beim Airbag im Auto. Braucht man nicht zwingend - eigentlich fast nie.

Wenn man aber die Wahl hat, würde ich trotzdem beides nehmen.

ps
ZFS braucht eigentlich keine besonders starke CPU, viel Speicher bringt eher was (wegen dem Readcache)
 
Zuletzt bearbeitet:
Nö, natürlich nicht. Aber genausowenig braucht man ZFS, ein normales Windows (NTFS)- oder Linuxdatenlager (extX) täts ja auch ;)
 
Dazu hätte ich noch eine Frage, USB-Stick oder SSD?
Was wird denn hier empfohlen? Ein oder Zwei USB 3.0 Sticks oder eine SSD, zb. die Kingston SSDNow V300 60Gb. Preislich ja kein so großer Unterschied.
Ich möchte im N40l 4x 3Gb WD Red einsetzen, somit hätte ich noch einen Sata Port frei (Bios Mod).

Das Bootlaufwerk hat nur Auswirkung auf die Bootzeit und beim Management.
Ideal ist halt etwas ab 16GB - besser mehr (Solaris/OI/OmniOS). Man kann gute USB Sticks nehmen, ich würde aber zwei davon spiegeln. Besser ist eine SSD in einem USB Gehäuse. Am billigsten ist Sata. Bei Neukauf hier auch eine kleine SSD ab 30GB.
 
Zuletzt bearbeitet:
Kann mir jemand sagen bis zu welcher ZFS Version ein Solaris und OmniOS System kompatibel ist? Ich möchte Snapshots eines älteren Solarissystems (Oracle Solaris 11 Version 0.5.11, Branch 0.175.0.6.0.6.0, mit ZFS Version 33) auf ein OmniOS System überspielen, oder geht das vielleicht gar nicht?
 
Zuletzt bearbeitet:
Hy ich habe wiedermal eine Bitte/Frage.

Irgendwie bin ich zu blöd das Usermapping zwischen napp-it und meiner Windows Domäne hinzubekommen.

Mein Username in der WindowsDomäne lautet TacAdmin@TacTest.at (Windows Server 2012R2)
Mein Lokaler Username bei napp-it lautet: TacAdmin

Habe das Usermapping hinzugefügt - idmap add winuser:TacAdmin unixuser:TacAdmin (auch mit idmap add winuser:tacadmin unixuser:TacAdminprobiert, das ganze auch mit unixuser:tacadmin(den local user auch:tacadmin angelegt))

Bei napp-it unter den Usermappings ist es auch eingetragen

add -d "wingroup:Power Users@BUILTIN" unixgroup:staff
add winuser:tacadmin@tactest.at unixuser:tacadmin

Wenn ich jetzt unter ACL on Folders auf meinem Share den user everyoone@ rausnehme und den lokalen user TacAdmin hinzufüge. kann ich unter Windows nicht mehr auf die Freigabe zugreifen. (Ich lasse bei der Freigabe alle Useroptionen auf standard. Full_set, file udn dir inherit)


Was mache ich den falsch?
 
Zuletzt bearbeitet:
Hy ich habe wiedermal eine Bitte/Frage.

Irgendwie bin ich zu blöd das Usermapping zwischen napp-it und meiner Windows Domäne hinzubekommen.

Mein Username in der WindowsDomäne lautet TacAdmin@TacTest.at (Windows Server 2012R2)
Mein Lokaler Username bei napp-it lautet: TacAdmin

Habe das Usermapping hinzugefügt - idmap add winuser:TacAdmin unixuser:TacAdmin (auch mit idmap add winuser:tacadmin unixuser:TacAdminprobiert, das ganze auch mit unixuser:tacadmin(den local user auch:tacadmin angelegt))

Bei napp-it unter den Usermappings ist es auch eingetragen

add -d "wingroup:Power Users@BUILTIN" unixgroup:staff
add winuser:tacadmin@tactest.at unixuser:tacadmin

Wenn ich jetzt unter ACL on Folders auf meinem Share den user everyoone@ rausnehme und den lokalen user TacAdmin hinzufüge. kann ich unter Windows nicht mehr auf die Freigabe zugreifen. (Ich lasse bei der Freigabe alle Useroptionen auf standard. Full_set, file udn dir inherit)


Was mache ich den falsch?

ganz einfach, der Benutzer Domain/TacAdmin hat eine andere Windows SID als der Benutzer OmniOS/TacAdmin .
Wenn also der Domänenbenutzer Rechte hat bzw die Datei angelegt hat, nützt einem ein mapping auf den lokalen User nichts.

Ganz generell bei Dömänen:
- ein manuelles mapping ist nicht notwendig (allenfalls damit andere Unix-Dienste mit der gleichen Userkennung arbeiten können)
- Sinn macht eigentlich nur ein mapping:
winuser: (domain)TacAdmin -> unixuser: root

damit man als Domainadmin per SMB alle Rechte hat- ohne sich als root anmelden zu müssen.


Was sollte denn mit obigem Mapping erreicht werden?
 
Zuletzt bearbeitet:
Guten Abend zusammen,

habe mich ein gutes Jahr ausgeklingt. Der Grund war erfreulich - die Kisten laufen. Nun grübele ich gerade ob ich mein altes SE 11 mal über Bord werfen soll. Habe einen Esxi 5.x auf Romaschka laufen und eben SE11. Habe gerade mal bei Gea vorbeigeschaut (an der Stelle mal ein warmes Danke für das napp-it - tut seit Jahren seinen Dienst und so wird Solaris auch für Politologen handhabbar...) und da wird OmniOS empfohlen bzw OI. Auf dem Micro habe ich OI laufen und das geht gut. Einziger Punkt der mich noch interessieren würde (neben der Empfehlung welches der beiden OS) - geht auf OI, OmniOs inzwischen Verschlüsselung?

Beste Grüße
Otto
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh