[Sammelthread] ZFS Stammtisch

Logo! Partitionierung aller 4 HDDs mit GPT table: part1:500GB part2:Rest

2-fach redundant für Netto 1TB:
zpool create -o ashift=12 -O compression=lz4 kerndaten raidz2 sda1 sdb1 sdc1 sdd1
..und der Rest ohne Redundanz:
zpool create -o ashift=12 -O compression=lz4 alletandere sda2 sdb2 sdc2 sdd2

..und da ich es gerade erst gemacht habe: So installiert man ZFS auf Ubuntu:

apt-add-repository ppa:zfs-native/stable
apt-get update
apt-get ubuntu-zfs

Funktioniert, kann man machen, muss man aber nicht machen - würde ich nie machen-.
So unwichtig können 2 TB Daten gar nie sein, dass man die garantiert irgendwann verliert.
Von den wichtigen 1 TB mal ganz zu schweigen. Irgendwann raucht eine Platte ab und man
muss erst dreimal überlegen, was man dann macht um die nicht auch zu verlieren.

Und ob die viel gerühmten Austauschbarkeit der ZFS Pools zwischen BSD, Linux und Solaris
noch funktioniert - da bin ich mir nicht sicher.

Irgendwie muss man akzeptieren dass 4 x 4 TB Platten und Top Datensicherheit für 1 TB
und minimale Datensicherheit für den Rest nicht zusammenpasst.

Ich würde nochmal 2 Platten kaufen und ein Raid-Z2 aus 6 Platten machen oder ein
Raid-Z1 aus 4 Platten. In ersterem Fall ist Backup angeraten in zweitem Fall extrem notwendig.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Fehlt beim letzten nicht ein "install" zwischendrin? So ist das keine mir bekannte apt-get-Syntax.
Des Adlers Augen.. ;) Ja das Wort hat es verschluckt.

Und ob die viel gerühmten Austauschbarkeit der ZFS Pools zwischen BSD, Linux und Solaris
noch funktioniert - da bin ich mir nicht sicher.
Sowas kann man testen. Das ist durchaus interessant. Problem könnte es mit Zpool version 5000 von ZFSonLinux geben.
 
Ich wollte am Wochenende einen FreeBSD zPool v5000 in ein Debian mit aktuellem ZFSonLinux, welcher ebenfalls v5000 verwendet, importieren. Das ist grandios gescheitert. Aber das Problem lag/liegt wohl ehr an den unterschiedlichen Devicenamen bei FreeBSD vs. Linux. Jedoch habe ich bisher mit derartigen unterfangen nie ein Problem gehabt und ZoL hat sich immer die passenden Devices selbst gesucht. Aber mit den Devicenamen haben ich generell bisher den meisten Aerger unter ZFS gehabt. Ansonsten ist noch anzumerken, dass afaik bisher unter Linux ACLs mit ZFS immer noch nicht vernuenftig funktionieren, was in groesseren Anwendungen schon ziemlich nervig ist.
 
Hallo,

ZFS liefert ja NFS und SAMBA direkt mit. Hat jemand ein gutes Howto diesbezüglich gefunden? Hab das noch nicht ganz gerafft, wie ich meinen Samba/NFS-Share mit den ZFS-Utilities konfigurieren soll.
 
Hallo,

ZFS liefert ja NFS und SAMBA direkt mit. Hat jemand ein gutes Howto diesbezüglich gefunden? Hab das noch nicht ganz gerafft, wie ich meinen Samba/NFS-Share mit den ZFS-Utilities konfigurieren soll.

Eingebauten Support gibt es bei Solaris und Co (nutzt nicht SAMBA sondern den kernelbasierter Solaris CIFS Server mit Windows ACL Support).
Unter BSD und Linux muss man SAMBA ganz konventionell installieren und konfigurieren.
 
Unter FreeBSD bietet ZFS mit Samba als CIFS Server so weit ich das bisher getestet habe auch einen vollwertigen Windows ACL Support (vgl. https://mywushublog.com/2012/05/zfs-and-acls-with-samba/). Da ich hier aber noch Probleme mit dem AD Kerberos habe, bin ich noch nicht endgueltig mit der eruierung durch. Das ganze muesste dann auch mit NFSv4 kompatibel sein. Aber alles noch im Konjunktiv.
 
Unter FreeBSD bietet ZFS mit Samba als CIFS Server so weit ich das bisher getestet habe auch einen vollwertigen Windows ACL Support (vgl. https://mywushublog.com/2012/05/zfs-and-acls-with-samba/). Da ich hier aber noch Probleme mit dem AD Kerberos habe, bin ich noch nicht endgueltig mit der eruierung durch. Das ganze muesste dann auch mit NFSv4 kompatibel sein. Aber alles noch im Konjunktiv.

NFS v4 ACL support ist ein erster Schritt und viel Windows kompatibler als die sonstigen PosixACL.
Dennoch ist Samba vom Ansatz her ein Konzept, um basierend auf Unix/Linux UID/GID per SMB Protokoll
auf einen X-Server zu kommen.

Windows basiert dagegen auf Windows SIDs und Benutzer/ Gruppen mit anderen Optionen.
Und in diesen Punkten ist lediglich Solaris "Windowskompatibel"

z.B.
Einen Solaris-Server in die AD-Domäne aufnehmen und mit AD Benutzern was darauf schreiben.
Daten auf einen anderen Server replizieren, mit Robocopy syncron halten oder Pool auf einem anderen Server importieren (auch Domänenmitglied)

Alle Benutzer und Gruppenrechte bleiben dabei erhalten da der Solaris CIFS Server die Windows SIDs benutzt.
Das kann sonst nur Windows mit ntfs und eben Solaris CIFS (SAMBA auf Solaris kann das auch nicht).
 
Ah, danke für die hilfreichen Infos. Das kann ich bei ZoL dann vergessen ^^
 
Zuletzt bearbeitet:
Unter FreeBSD klappt ACL mit ZFS, siehe Anyone using ZFS on Linux in production? : sysadmin
BitingChaos 7 points 1 month ago

It works great with AD.

We're using Windows Active Directory for management (two 2003 R2 boxes and one 2012 box). All of our Mac and Linux systems authenticate with that (Kerberos + LDAP for user authentication, Winbind for SMB shares).

"Windows users" can work with their shares, do roaming profiles, use NFS to get to stuff from our Linux workstations, SSH in and change their password, etc. FreeBSD has been a "do it all" setup for us, combining the strengths of all of our server platforms.

Samba was compiled with "ADS" support. Installing a pre-compiled version ("pkg_add -rv samba", etc) won't work, as ADS is not in it by default on FreeBSD.

I haven't updated it in a bit, but here's the config I was using:

Sample Configuration « XdN

I tried to add comments for each setting.

The end result? Our XP/7/etc clients see a "Windows" server that has Windows server permissions and Windows 'Previous Versions' shadow copies. Permission management is done from Windows, and everything works as expected. Proper inheritance, etc. I've never had a Linux or OS X server work this seamlessly with Windows.

Unter ZFSonLinux wird es aber leider noch etwas dauern.
 
Zuletzt bearbeitet:
Hi!

Kann man sich auch anzeigen lassen, welche Dateien im Moment im Cache sind und genutzt werden?

Grüße Reiner
 
Hallo,


Ich beschäftige mich schon längerer Zeit mit dem Gedanken, ein stromsparendes und leises NAS selbst zu bauen und dabei auf solide Hard- und Software zu setzen ;)
Daher würde ich im Input / Feedback bitten bzgl. meiner aktuell geplanten Konfiguration (Ausbaustufe 1):


Hardwre:
Gehäuse: Nanoxia Deep Silence 5 schwarz, schallgedämmt mit einem zusätzlichem Rahmen für 3 HDDs
Netzteil: be quiet! Straight Power E9-CM 480W mit zwei weiteren SATA-Kabelsträngen
Mainboard: Supermicro X10SL7-F
CPU: Intel Xeon E3-1230 v3
RAM: 4 * Kingston ValueRAM DIMM 8GB, DDR3-1600, CL11, ECC oder Crucial DIMM 8GB, DDR3L-1600, CL11, ECC
RAID-Z2 VDEV: 6 * Seagate NAS HDD 4TB, SATA 6Gb/s + HotSpare
System-Pool sowie L2ARC: 2 * Crucial M500 240GB
CPU-Kühler: Scythe Mugen 4


Ich will in der 2. Ausbaustufe dann entweder ein zweites baugleiches VDEV oder einen weiteren RAID-Z2 Pool hinzufügen, wenn der Datenbestand es nötig macht.
Der Server soll nicht nur Storage anbieten sondern ich will andere Dienste wie Plex, iTunes, OwnCloud, Time Machine, ... sowie einen Terminal-Server (vermutlich auch Linux für Offline-Medientranscodierung) darauf betreiben.


Nun die Fragen:
- Welchen RAM sollte man nehmen, ich finde in der Kompatibilitätsliste nur Speicher von Samsung und Hynix?
- Lohnt sich für das zweite VDEV oder den weiteren Pool später ein zusätzlichen LSI SAS-Adapter anzuschaffen, oder kann ich dazu die übrigen Ports verwenden (dann natürlich unter dem Verlust der HotSpare-Ports)?
- Da ich keine Datenbanken auf dem Pool(s) ablegen will, ist eine SLC SSD für ZIL sicher unnütz - bzw. kann man ja nachträglich immer noch in den Pool hinzufügen, falls die Statistiken es "erfordern" (oder ich später wider Erwarten doch synchrone Schreibvorgänge beschleunigen möchte).
- L2ARC/ZIL für einen Systempool auf SSD macht sicher auch keinen Sinn, wenn man in den KVMs keine Dienste mit geringsten Latenzen anbieten will?
- Kann man einen "Share" transparent zwischen Pools "senden", ohne dass die Freigaben-Nutzer etwas merken (ausser einem Wartungsfenster und nach "umkonfigurieren" der Freigabe-Parameter)?
- Wenn ich einen Snapshot zwischen Freigaben sende, ist nur die Poolversion von Bedeutung, d.h. Kompression(styp) oder eventuelles Dedup müsste nicht in beiden Freigaben identisch von den technischen Parametern sein (Grund: Sync der wichtigsten Daten auf einen kapazitätsbegrenzten Linux-vServer per iSCSI oder ein NAS ausserhalb meiner Wohnung)?
- Ich schwanke momentan zwischen einer Lösung mit Hypervisor und ohne: etwas Overhead mit ESXI oder fast kein Overhead mit SmartOS vs. OmniOS - was ist hier der bessere Weg?
- Unterstützt ESXI dann die Stromsparmöglichkeiten der Hardware (C-States)?
- Für OmniOS, wie kann ich die Installation verstehen: Die ISO booten und einen Root-Pool mit LZ4-Kompression auf der System SSD einrichten. Ist dann der ganze Datenträger in Verwendung (drauf könnte man KVM-Zones anlegen) oder geschieht dies dann im "freien" Bereich der SSD, der als Pool im Root-Pool eingebunden ist?
- SmartOS, so wie ich es verstehe, boote ich von einem USB-Stick und die SSD wäre dann mein System-Pool, auf dem die Zones und KVMs sowie die Konfiguration abgelegt wäre. Sind Freigaben dann ein Thema des konfiguriertem System-Pools oder müsste ich eine Storage-Zone dafür anlegen - in der bspw. auch Dienste zu AFP und Time Machine installiert sind?
- Bei ESXI würde die System-SSD als Datenträger (Datastore) eingebunden werden und ich müsste die VM-Instanzen jeweils mit Ihrem Datei-System installieren; Die Storage-VM könnte dann OmniOS mit napp-IT werden, wobei der/die SAS-Kontroller per VT-d durchgereicht würden? Die Freigaben der Storage-VM würden dann mit NFS den anderen VMs zugänglich gemacht werden...


Ich hoffe, dass war nicht zu viel Input - aber ich vermute hier mir mehr Wissen als in anderen ZFS-Threds (anderer Communities) :bigok:
Habt ihr noch Verbesserungsvorschläge bzgl. der Hardware (bis auf die SSDs ist noch nichts gekauft) oder noch Tipps, damit ich das NAS nach Weihnachten dan einrichten kann, dann immer her damit :)
Über Antworten meiner Fragen würde ich mich auch freuen - Rückfragen beantworte ich gerne.
 
Nun die Fragen:
- Welchen RAM sollte man nehmen, ich finde in der Kompatibilitätsliste nur Speicher von Samsung und Hynix?

- Lohnt sich für das zweite VDEV oder den weiteren Pool später ein zusätzlichen LSI SAS-Adapter anzuschaffen, oder kann ich dazu die übrigen Ports verwenden (dann natürlich unter dem Verlust der HotSpare-Ports)?

ein weiteres gleiches vdev verdoppelt Kapazität und Performance

- Da ich keine Datenbanken auf dem Pool(s) ablegen will, ist eine SLC SSD für ZIL sicher unnütz - bzw. kann man ja nachträglich immer noch in den Pool hinzufügen, falls die Statistiken es "erfordern" (oder ich später wider Erwarten doch synchrone Schreibvorgänge beschleunigen möchte).

Für ein reines NAS mit genügend RAM brauchts kein ZIL und kein L2Arc SSD

- L2ARC/ZIL für einen Systempool auf SSD macht sicher auch keinen Sinn, wenn man in den KVMs keine Dienste mit geringsten Latenzen anbieten will?


??
L2ARC ist ein SSD Cache, ZIL ein Logdevice für sicheres syncrones Schreiben - beides für einen Datenpool und nicht den Systempool

- Kann man einen "Share" transparent zwischen Pools "senden", ohne dass die Freigaben-Nutzer etwas merken (ausser einem Wartungsfenster und nach "umkonfigurieren" der Freigabe-Parameter)?

??
Man kann ein Dateisystem replizieren (senden) und das dann auch freigeben. Man muss halt die Share Namen gleich halten.

- Wenn ich einen Snapshot zwischen Freigaben sende, ist nur die Poolversion von Bedeutung, d.h. Kompression(styp) oder eventuelles Dedup müsste nicht in beiden Freigaben identisch von den technischen Parametern sein (Grund: Sync der wichtigsten Daten auf einen kapazitätsbegrenzten Linux-vServer per iSCSI oder ein NAS ausserhalb meiner Wohnung)?

??
Man repliziert ZFS Dateisysteme mit Hilfe von Snapshots

- Ich schwanke momentan zwischen einer Lösung mit Hypervisor und ohne: etwas Overhead mit ESXI oder fast kein Overhead mit SmartOS vs. OmniOS - was ist hier der bessere Weg?

SmartOS=Virtualisierung. Man kann damit sinnvollerweise kein NAS oder SAN aufbauen
OmniOS=ideal für ein SAN oder NAS, kann auch virtualisieren
ESXi=ideale Basis für beliebige Systeme inkl virtualisiertes NAS/SAN

- Unterstützt ESXI dann die Stromsparmöglichkeiten der Hardware (C-States)?

Server und Virtualisierung und Energiesparen sind Fremdworte.
ESXi 5.5 ist da aber halbwegs ok. Platten schlafen legen ist aber ohnehin Sache des Storage OS

- Für OmniOS, wie kann ich die Installation verstehen: Die ISO booten und einen Root-Pool mit LZ4-Kompression auf der System SSD einrichten. Ist dann der ganze Datenträger in Verwendung (drauf könnte man KVM-Zones anlegen) oder geschieht dies dann im "freien" Bereich der SSD, der als Pool im Root-Pool eingebunden ist?

Boot SSD/Platte ist nur Systempool.
Datenpool liegt auf anderen Platten

- SmartOS, so wie ich es verstehe, boote ich von einem USB-Stick und die SSD wäre dann mein System-Pool, auf dem die Zones und KVMs sowie die Konfiguration abgelegt wäre. Sind Freigaben dann ein Thema des konfiguriertem System-Pools oder müsste ich eine Storage-Zone dafür anlegen - in der bspw. auch Dienste zu AFP und Time Machine installiert sind?

Storage geht mit SmartOS nicht wirklich gut da diese Dienste in der global zone laufen sollten und die ist nicht frei nutzbar.

- Bei ESXI würde die System-SSD als Datenträger (Datastore) eingebunden werden und ich müsste die VM-Instanzen jeweils mit Ihrem Datei-System installieren; Die Storage-VM könnte dann OmniOS mit napp-IT werden, wobei der/die SAS-Kontroller per VT-d durchgereicht würden? Die Freigaben der Storage-VM würden dann mit NFS den anderen VMs zugänglich gemacht werden...
Bei ESXi und All in One liegt die Storage VM auf einem lokalen datastore (z.B. lokale SSD).
Die anderen Platten hängen idealerweise an einem LSI HBA der an die Storage VM/OmniOS durchgereicht wird.
OmniOS erstellt darauf einen ZFS Datenpool der dann über AFP, CIFS oder NFS freigegeben wird.
ESXi selber kann auf diesem NFS einen datastore für weitere VMs (praktisch alle von BSD über Linux bis OSX und Windows werden unterstützt) anlegen
 
Zuletzt bearbeitet:
Danke Gea,

Bzgl. mancher mancher Formulierungen hast du natürlich recht - wenn ich von Freigaben redete, meinte ich Datasets. Und dass ich keine Datasets sondern Snapshots von Datasets sende, sollte auch klar sein. Die Properties von Datasets sind beim ZFS send/receive also egal nur die Pool-Version sollte passen?
Ich würde mit ZFS send gerne inkrementelle Snapshots auf ein iSCSI-Lun sichern wollen. Da dieses klein ist und ich das per Cron machen möchte, würde ich auf dem fernen Block-Device einen Pool mit Dedup erzeugen und Snapshots von Datasets schicken, welche selbst auf dem NAS kein Dedup haben. Das selbe gilt für die Kompression, die für den Pool auf dem iSCSI Device sicher auf maximaler Kompression stehen sollte. ZFS kann ich auf den anderen Systemen leider aufgrund von Hardware-Limitierungen nicht installieren (z.B. mit ZFSonLinux).

Da ich mit 32GB RAM sicher ganz gut ausgestattet bin (trotz KVMs) denke ich auch, dass ZIL im oben skizziertem Use-Case unnötig ist.

Mit einem L2ARC für den Datenpool verspreche ich mir keine Quantensprünge, sondern nur mehr Platz für MRU und MFU Blöcke des ARC, weniger unnötiges Hochspinnen des Pools und Platz für Dedup-Tabellen, falls der RAM dafür nicht recht, da einzelne - verhältnismässig kleine - Datasets sicher Dedup aktiviert bekommen.

Die Einschränkungen mit SmartOS als Fileserver-OS habe ich auch an anderen Stellen gelesen, deshalb präferiere ich auch eine Lösung mit OnmiOS.
Erfahrungen mit ESXi im Serverbetrieb habe ich mit der 4er Version bereits auf Tyan und Adaptec Hardware gemacht.
Aufgrund de extremen Einschränkungen der Verwaltung gegenüber dem vollen ESX und keiner Notwendigkeit, bestimmte zuvor lokal getestete VMs zu deployen gefällt mir der schlanke Ansatz von SmartOS mit KVM sehr gut (und napp it erscheint mir auch eine sehr angenehme Sache zu sein :coolblue:. Und ich gehe Problemen mit dem Durchreichen von Hardware aus dem Weg - wobei LSI-HBAs da sicher unkritisch wären.
Snapshots der KVMs kann ich dann mit ZFS send sichern. Für Tests kann ich clonen und promoten. Und ich habe keinen Overhead zu NFS-Shares der Storage VM zu ESXi wenn ich zur VM-Ablage auch ZFS verwenden und nicht die VMs in ihrem jeweiligen Dateisystem auf dem ESXi Datenträger ablegen wollte.
Lohnt sich der aktuelle Aufwand bei OnmiOS, LZ4-Kompression im Root-Pool des OS zu aktivieren. Für andere Datasets auf dem System-Pool kann ich diese ja die Properties entsprechend setzen.

Share-Namen von Pools und derer Datasets sind ja zunächst vorgegeben vom Namen (abgeleitet von ihrem jeweiligen Ort).
Also ist es möglich eine CIFS oder AFP-Freigabe mit einem weiteren Namen zu versehen, der unabhängig vom Pool ist?
 
Bzgl. mancher mancher Formulierungen hast du natürlich recht - wenn ich von Freigaben redete, meinte ich Datasets. Und dass ich keine Datasets sondern Snapshots von Datasets sende, sollte auch klar sein. Die Properties von Datasets sind beim ZFS send/receive also egal nur die Pool-Version sollte passen?

ZFS ist bei Solaris Dateisystem + VolumeManager + RaidManager + NFS/CIFS/iSCSI Server + tausend anderer Sachen. Alles hat ähnliche Namen mit damit verbundenen Features. Dazu kommt oft eine unterschiedliche, nicht einheitliche oder gar falsche/verwirrende Namensgebung. Daher ist es wichtig alles eindeutig zu benennen damit wir nicht aneinander vorbeireden.

Freigabe ist also definitiv was anderes. Dataset ist halbwegs gebräuchlich. Ich bevorzuge ZFS Dateisystem denn das ist es ja (bei anderen Dateisystemen heißt sowas Partition was aber nur einen Bruchteil der ZFS Features abdeckt).

Für zfs send ist zunächst die Poolversion + Feature Flags wichtig. Manche ZFS Attribute wie z.B. Compress oder dedup werden nicht gesendet sondern sind vom Parent-Ziel-ZFS abhängig.


Ich würde mit ZFS send gerne inkrementelle Snapshots auf ein iSCSI-Lun sichern wollen.

Das geht nicht. Ein iSCSI LUN ist ja sowas wie eine virtuelle Festplatte. ZFS send überträgt ZFS Dateisysteme und braucht als Ziel ein ZFS Dateisystem (ein Pool ist auch ein ZFS Dateisystem). Man kann allenfalls auf einem LUN wie auf jeder Festplatte oder Festplattenarrays einen Pool anlegen.

Da dieses klein ist und ich das per Cron machen möchte, würde ich auf dem fernen Block-Device einen Pool mit Dedup erzeugen und Snapshots von Datasets schicken, welche selbst auf dem NAS kein Dedup haben.

Dedup ist was hochspezielles und wird nur für ganz besondere Anwendungen benutzt. Es ist auch keine Eigenschaft die sich auf ein Dateisystem beschränken läßt. Einmal aktiviert arbeitet das Poolweit. Man wird es also auch nicht wieder los. Insoweit ist das wie Aids - lebenslang aufpassen. Ich würde mir Echtzeit-Dedup dreimal überlegen. Meist ist der Schaden größer als der Nutzen.

Das selbe gilt für die Kompression, die für den Pool auf dem iSCSI Device sicher auf maximaler Kompression stehen sollte. ZFS kann ich auf den anderen Systemen leider aufgrund von Hardware-Limitierungen nicht installieren (z.B. mit ZFSonLinux).

Ein Pool mit LZ4 Compression ist ideal.
Hat praktisch keine Nachteile und bringt excellente Komrimierungsraten.
Warum übrigens "Pool auf iSCSI device und wie sieht es mit der Redundanz aus?"


Da ich mit 32GB RAM sicher ganz gut ausgestattet bin (trotz KVMs) denke ich auch, dass ZIL im oben skizziertem Use-Case unnötig ist.

ZIL hat mit RAM nichts zu tun.
Zil protokolliert die letzten 5s Schreiben damit die bei einem Crash nicht verloren sind.
Das aber nur bei syncronem (sicheren) Schreiben wie z.B. bei ESXi über NFS der Fall. Ansonsten werden diese 5s im RAM gesammelt und können und als ein schneller sequentieller write auf der Platte landen.
Meist ist syncrones Schreiben nicht aktiv (z.B. als Fileserver) und damit ist ein Extra ZIL dann überflüssig.


Mit einem L2ARC für den Datenpool verspreche ich mir keine Quantensprünge, sondern nur mehr Platz für MRU und MFU Blöcke des ARC, weniger unnötiges Hochspinnen des Pools und Platz für Dedup-Tabellen, falls der RAM dafür nicht recht, da einzelne - verhältnismässig kleine - Datasets sicher Dedup aktiviert bekommen.

Mit genügend RAM werden nahezu alle Reads aus dem RAM bedient. Die Wahrscheinlichkeit dass ein L2ARC was bringt ist dann sehr gering. (Mehr RAM bringt viel mehr als ein L2ARC). Das macht man nur aus Not wenn mehr RAM nicht gehen.

Die Einschränkungen mit SmartOS als Fileserver-OS habe ich auch an anderen Stellen gelesen, deshalb präferiere ich auch eine Lösung mit OnmiOS. Erfahrungen mit ESXi im Serverbetrieb habe ich mit der 4er Version bereits auf Tyan und Adaptec Hardware gemacht.
Aufgrund de extremen Einschränkungen der Verwaltung gegenüber dem vollen ESX und keiner Notwendigkeit, bestimmte zuvor lokal getestete VMs zu deployen gefällt mir der schlanke Ansatz von SmartOS mit KVM sehr gut (und napp it erscheint mir auch eine sehr angenehme Sache zu sein :coolblue:. Und ich gehe Problemen mit dem Durchreichen von Hardware aus dem Weg - wobei LSI-HBAs da sicher unkritisch wären.

ESX Server gibt es nicht mehr. Es gibt nur noch ESXi. Lediglich manche Features sind nur nach Lizenzierung verfügbar. Durchreichen geht mit LSI HBAs recht problemlos. Entscheidend ist eher die Frage der Gastsysteme. Der Vorteil von ESXi ist, dass alles von BSD über Linux, OSX, Solaris und Windows mit optimierten Treibern unterstützt wird und dass es eben pass-through für Gäste gibt. Das ist einmalig.

Snapshots der KVMs kann ich dann mit ZFS send sichern. Für Tests kann ich clonen und promoten. Und ich habe keinen Overhead zu NFS-Shares der Storage VM zu ESXi wenn ich zur VM-Ablage auch ZFS verwenden und nicht die VMs in ihrem jeweiligen Dateisystem auf dem ESXi Datenträger ablegen wollte.

Das schenkt sich wenig. Die VMs legen immer ihre eigenen Dateisysteme an und die liegen immer auf ZFS (ESXi mit NFS datastore)

Lohnt sich der aktuelle Aufwand bei OnmiOS, LZ4-Kompression im Root-Pool des OS zu aktivieren. Für andere Datasets auf dem System-Pool kann ich diese ja die Properties entsprechend setzen.

Nein außer man hat die Platte zu klein gewählt

Share-Namen von Pools und derer Datasets sind ja zunächst vorgegeben vom Namen (abgeleitet von ihrem jeweiligen Ort).
Also ist es möglich eine CIFS oder AFP-Freigabe mit einem weiteren Namen zu versehen, der unabhängig vom Pool ist?

Ja, Sharenamen sind frei wählbar

ps
Ich drehe die Quote Funktion um, damit direkte Antworten einfacher sind
 
Wie sollen direkte Antworten einfacher sein? Beim Antworten verschwinden deine Antworten, weil standardmäßig 2 Quote-Ebenen nicht übernommen werden. Wenn ich auf denjenigen antworten will, auf den sich deine Antworten beziehen, dann nehme ich direkt seinen Post. Deinen Post kann man nicht sinnvoll quoten durch diesen Unfug.
 
Wie sollen direkte Antworten einfacher sein? Beim Antworten verschwinden deine Antworten, weil standardmäßig 2 Quote-Ebenen nicht übernommen werden. Wenn ich auf denjenigen antworten will, auf den sich deine Antworten beziehen, dann nehme ich direkt seinen Post. Deinen Post kann man nicht sinnvoll quoten durch diesen Unfug.

Das stimmt zwar prinzipiell.
Dennoch ist für mich reverse-quote die einfachste Möglichkeit auf einzelne Fragen/ Aussagen in sehr langen Posts zu antworten.

edit
Den Originalpost selber 20mal mit quotes manuell zu zerteilen ist recht aufwändig. Nur den eigenen Kommentar zu markieren ist einfach schneller.

Bei kürzeren Texten stellt sich das Problem ohnehin nicht. Bei kurzen Aussagen wäre es aber tatsächlich eine Option, den Originaltext mit Quotes zu gliedern. Wie gesagt ist halt ein Mehraufwand.
 
Zuletzt bearbeitet:
Hat jemand schon mal EON probiert?

Ich meine minimaler kann ja ein ZFS Filer nicht sein oder? Läuft nach dem Boot aus dem RAM und wird auf einem USB Stick installiert. Ok basiert nur auf dem älteren OI 151a, aber wäre doch rein als Filer wo man z.B. ein CIFS Share braucht vollkommen ausreichend?
 
@gea: habe nun auch eine antwort von omniti bekommmen: We are planning to have r151008 released this week, which is
our next stable release and will include i210 support. It will be
announced on omnios-discuss and in #omnios on Freenode IRC.

btw: kann man den boot mirror auch aus unterschiedlichen platten bauen? wir haben eine 160gb und eine 320gb "rumliegen", die wir einsetzen könnten, oder soll ich versuchen lieber eine weitere 160ér hdd zu bekommen?

vielen dank,
david
 
@gea: habe nun auch eine antwort von omniti bekommmen: We are planning to have r151008 released this week, which is our next stable release and will include i210 support. It will be
announced on omnios-discuss and in #omnios on Freenode IRC.

btw: kann man den boot mirror auch aus unterschiedlichen platten bauen? wir haben eine 160gb und eine 320gb "rumliegen", die wir einsetzen könnten, oder soll ich versuchen lieber eine weitere 160ér hdd zu bekommen?

vielen dank,
david

danke für die Info, die 51008 wird bereits erwartet.
Die 320 wird als zweite Platte gehen wenn sie gleiche Sektoren hat (512B/4k) - probieren.
 
Hallo,

ich bin neu hier und grüße ganz herzlich die Runde.

Ich habe napp-it to Go auf meinem HP MicroServer mit Netatalk am laufen und folgendes Problem:
Wenn ich im Finder eine Datei auswähle und dann den Befehl "Duplizieren" ausführe, wird zwar eine neue Datei mit "Kopie" im Namen angelegt, die Größe ist jedoch Null und folgende Fehlermeldung wird vom Finder angezeigt:

"Der Vorgang konnte nicht abgeschlossen werden, da ein unbekannter Fehler aufgetreten ist (Fehler -50)."

Kopieren und Löschen von Dateien funktioniert jedoch. OS X ist 10.9.
Leider konnte ich zu diesem Problem nichts finden und frage hier mal nach, ob jemand das gleiche Problem hat bzw. es nachvollziehen kann und ob mir eventuell jemand einen Hinweis zur Lösung geben kann.

Besten Dank

pbriesch
 
Mal eine Frage bzgl. napp-it und AD Einbindung wo ich am verzweifeln bin.

Folgene lokale Stellung bei mir:

ZFS Filer:

OmniOS latest stable (r151006y.iso)
napp-it 0.9d2


Windows Server:

Windows Server 2012 R2 Standard mit AD & DNS Rolle.


Windows Clienten im selben Netz können sich ohne Probleme an die AD anmelden. Leider kann OmniOS nicht in die Domäne aufgenommen werden.


Bei napp-it kommt immer beim Versuch die Domäne zu verbinden:

"...kann Domänencontroller für DOMAINBLAH nicht finden..."

Was ich schon versucht habe:

- DNS und IP stimmen, Ping von OmniOS geht sowohl mit IP und auch Netbiosnamen (FQDN) auf den Windows Server.
- Bei Domäne mal ganz normal mit "DOAMINBLAH", dann mal auch einfach so "DOMAINBLAH.local" klappt nicht.
- Habe auch mal bei dem AD Menü in napp-it bei Benutzername mit DOMAIN\Adminiustrator und normal nur Administrator versucht.
- Habe bei der Authentifzierung "0-4" und "-" probiert, immer der gleiche Fehler.

Die Informationen für die möglichen Fehlerquellen die in napp-it bei dem Fehler kommen habe ich mit den oben genannten Versuchen ja schon ausgeschlossen, war kann ich noch falsch machen? Hab auch Testweise mal die Windows FW ausgemacht, aber nein die zickt nicht rum.

Bitte um Hilfe.
 
Zuletzt bearbeitet:
Mal eine Frage bzgl. napp-it und AD Einbindung wo ich am verzweifeln bin.

Folgene lokale Stellung bei mir:

ZFS Filer:

OmniOS latest stable (r151006y.iso)
napp-it 0.9d2


Windows Server:

Windows Server 2012 R2 Standard mit AD & DNS Rolle.


Windows Clienten im selben Netz können sich ohne Probleme an die AD anmelden. Leider kann OmniOS nicht in die Domäne aufgenommen werden.


Bei napp-it kommt immer beim Versuch die Domäne zu verbinden:

"...kann Domänencontroller für DOMAINBLAH nicht finden..."

Was ich schon versucht habe:

- DNS und IP stimmen, Ping von OmniOS geht sowohl mit IP und auch Netbiosnamen (FQDN) auf den Windows Server.
- Bei Domäne mal ganz normal mit "DOAMINBLAH", dann mal auch einfach so "DOMAINBLAH.local" klappt nicht.
- Habe auch mal bei dem AD Menü in napp-it bei Benutzername mit DOMAIN\Adminiustrator und normal nur Administrator versucht.
- Habe bei der Authentifzierung "0-4" und "-" probiert, immer der gleiche Fehler.

Die Informationen für die möglichen Fehlerquellen die in napp-it bei dem Fehler kommen habe ich mit den oben genannten Versuchen ja schon ausgeschlossen, war kann ich noch falsch machen? Hab auch Testweise mal die Windows FW ausgemacht, aber nein die zickt nicht rum.

Bitte um Hilfe.


-DNS muss der AD sein,
-als Domain-Namen das eingeben, was als Domain-Namen im AD Server-Manager als Domain angegeben ist
(alternativ den NT4 Domänennamen).

Wenn dann "kann Domäne nicht finden" kommt, liegt das an
- DNS oder Netzwerkproblem
- falscher auth-Level
- Problem mit SMB Service (mal neu starten)
- Konfigurationsproblem (vor allem bei manueller Konfiguration)

ansonsten käme unsuccessfull (falsches Passwort oder Hostname bereits im AD vergeben)


Zusätzlich kann man im Systemlog nachschauen, ob da noch etwas vermerkt ist.
Insgesamt ist die AD Integration relativ problemfrei. Wir hatten 2008 und jetzt 2012 AD und mehrere OmniOS Filer ohne Probleme.
(Allenfalls ein rejoin, falls der AD-Server bei einem OmniOS Neustart nicht an ist.)

Ich hatte nur einmal ein ähnliches Problem (cannot find). Da vermute ich aber, dass es daran lag, dass unsere AD-Server da nicht syncron waren und es deshalb nicht klappte. Nach einigen Minuten klappte es dann.

- - - Updated - - -

Hallo,

ich bin neu hier und grüße ganz herzlich die Runde.

Ich habe napp-it to Go auf meinem HP MicroServer mit Netatalk am laufen und folgendes Problem:
Wenn ich im Finder eine Datei auswähle und dann den Befehl "Duplizieren" ausführe, wird zwar eine neue Datei mit "Kopie" im Namen angelegt, die Größe ist jedoch Null und folgende Fehlermeldung wird vom Finder angezeigt:

"Der Vorgang konnte nicht abgeschlossen werden, da ein unbekannter Fehler aufgetreten ist (Fehler -50)."

Kopieren und Löschen von Dateien funktioniert jedoch. OS X ist 10.9.
Leider konnte ich zu diesem Problem nichts finden und frage hier mal nach, ob jemand das gleiche Problem hat bzw. es nachvollziehen kann und ob mir eventuell jemand einen Hinweis zur Lösung geben kann.

Besten Dank

pbriesch

Stimmen die Einstellungen für das Dateisystem:

- nbmand=off
- aclmode und aclinheritance=pass-through

bei klappt es damit auf 10.9
 
-DNS muss der AD sein,
-als Domain-Namen das eingeben, was als Domain-Namen im AD Server-Manager als Domain angegeben ist
(alternativ den NT4 Domänennamen).

Wenn dann "kann Domäne nicht finden" kommt, liegt das an
- DNS oder Netzwerkproblem
- falscher auth-Level
- Problem mit SMB Service (mal neu starten)
- Konfigurationsproblem (vor allem bei manueller Konfiguration)

ansonsten käme unsuccessfull (falsches Passwort oder Hostname bereits im AD vergeben)


Zusätzlich kann man im Systemlog nachschauen, ob da noch etwas vermerkt ist.
Insgesamt ist die AD Integration relativ problemfrei. Wir hatten 2008 und jetzt 2012 AD und mehrere OmniOS Filer ohne Probleme.
(Allenfalls ein rejoin, falls der AD-Server bei einem OmniOS Neustart nicht an ist.)

Ich hatte nur einmal ein ähnliches Problem (cannot find). Da vermute ich aber, dass es daran lag, dass unsere AD-Server da nicht syncron waren und es deshalb nicht klappte. Nach einigen Minuten klappte es dann.

Danke gea,

habe heute noch einen OS Snapshot zurückgeholt und von "Null" begonnen. Ich kam dann auch einen Schritt weiter, aber dann kam ein neuer Fehler mit "UNSUCCESSFUL", am Ende war meine krb5.conf Fehlerhaft, die habe ich einmal komplett gelöscht und jetzt hat das einbinden wunderbar geklappt :)

Endlich kann ich die Rechte direkt mit den Usern aus der Domäne einstellen, es gab nur eine einizge Meldung nach dem "SUCCESSFUL" kam, hier mal ein Screenshot:

NbGgZ1uoypmX.jpg



P.S. wie kann ich bei den Autosnapshots anstatt 15 Minuten alle 5 Minuten einstellen?

Ich habe ja nur die Wahl zwischen AutoJob 15 Min, AutoJob 1 Min. und AutoJob aus. Auch wenn ich bei den Snaphot Job "every-5" einstelle, muss ich ja den AutoJob alle 1 Min. wählen, weil bei 15 Min. ja nur alle 15 Min. der Cronjob ausgeführt wird.
 
Zuletzt bearbeitet:
Danke gea,

habe heute noch einen OS Snapshot zurückgeholt und von "Null" begonnen. Ich kam dann auch einen Schritt weiter, aber dann kam ein neuer Fehler mit "UNSUCCESSFUL", am Ende war meine krb5.conf Fehlerhaft, die habe ich einmal komplett gelöscht und jetzt hat das einbinden wunderbar geklappt :)


P.S. wie kann ich bei den Autosnapshots anstatt 15 Minuten alle 5 Minuten einstellen?

Ich habe ja nur die Wahl zwischen AutoJob 15 Min, AutoJob 1 Min. und AutoJob aus. Auch wenn ich bei den Snaphot Job "every-5" einstelle, muss ich ja den AutoJob alle 1 Min. wählen, weil bei 15 Min. ja nur alle 15 Min. der Cronjob ausgeführt wird.

Eigentlich sollte napp-it die krb5.conf Datei korrekt konfigurieren, wenn man damit der Domäne beitritt.
Aber egal, Hauptsache es hat geklappt.

zum Autosnap
Wenn man autojob auf 1 Min stellt, wird jede Minute geprüft, ob etwas anliegt.
Das macht praktisch keine Last.

Dann den Autosnap auf every-5 stellen und gut.
 
Habe Autojob auf 1 Min. Und Autosnap auf every-5, trotzdem wird jede Minute ein Snapshot gemacht. Habe ich was falsch gemacht? Bei den anderen Feldern steh nur "every" drin, muss ich da was anderes wählen, wenn ich wirklich alle 5 Minuten einen Snaphot machen möchte (nur von ganz wichtigen Daten).

/EDIT läuft :wink:, im WebGUI ist bei der Auswahl ein kleiner Unterschied, wenn man normal den SnapJob anlegt, ist every, every-5 zur Auswahl, wenn man dann den SnapJob editiert, kommen noch every-2,-3. etc. zum vorschein. Da ich bei meinem ersten Versuch das nachträglich umgestellt hatte, gab es trotzdem alle Minute einen Snapshot, jetzt hab ich wirklich nur alle 5 Minuten einen Snapshot.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh