[Sammelthread] ZFS Stammtisch

Ist denn in dem ZFS Dateisystem:

- nbmand=off
- ACL auf everyone@=modify/full (Einschränkungen nur auf neue Dateien oder Ordner setzen)
- acl-inheritance auf pass-through
- aclmode auf pass-through oder restricted (hier mal probehalber umstellen)

Ja alle Einstellungen sind so. Allerdings aclmode war auf restricted. Nach Umstellung auf pass-through ist das Problem weg. Nun funktioniert es. Vielen Dank!!

Ich habe auch die alten Shares geprüft, dort ist bei aclmode auch pass-through eingestellt, leider ist mir das vorher nicht aufgefallen.

Ich frage mich nur warum dieser Parameter per default nun plötzlich anders eingestellt wird als früher. An den ACLs hatte ich nie etwas verändert.

Danke für die Hilfe, auch an Fr@ddy!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,
ich plane eine ZFS-Filer mit 10 Festplatten im Raidz2. Sollten alle in einem vdev gepackt werden oder in mehrere? Macht das einen Unterschied?
 
Ich frage mich nur warum dieser Parameter per default nun plötzlich anders eingestellt wird als früher. An den ACLs hatte ich nie etwas verändert.

Aclmode=restricted ist ein neues Illumos Feature das im aktuellen OmniOS enthalten ist. Restricted bedeutet, dass OmniOS das Ändern der Ordner oder Dateirechte per chmod auf Unix permissions ignoriert.

Hintergrund: Das Setzen von Unixpermissions löscht die ACL-Vererbung. Ein Mischbetrieb von CIFS (ACL only) und NFS3 (Unixpermissions) ist damit extrem problematisch. Aclmode=restricted verbessert das erheblich indem die Rechte per ACL gesetzt werden und per NFS nicht verändert werden.

Netatalk scheint damit Probleme zu haben. Ich habe im aktuellen napp-it einen Hinweis im Freigabemenü gesetzt, dass für netatalk nbmand=off und aclmode und aclinheritance auf pass-through gesetzt werden müssen.

Ein Multi-Protokoll Betrieb (AFP, CIFS, NFS) ist immer problematisch. Mal sehen wie das weitergeht. Apple scheint mit 10.9 ja CIFS als Standardprotokoll einzusetzen (bis auf TimeMachine).

---------- Post added at 13:26 ---------- Previous post was at 13:14 ----------

Hi,
ich plane eine ZFS-Filer mit 10 Festplatten im Raidz2. Sollten alle in einem vdev gepackt werden oder in mehrere? Macht das einen Unterschied?

Für einen Fileserver ist ein Raid Z2 vdev mit 10 Platten perfekt. Für einzelne User und große Dateien (sequentielle Performance) skaliert ZFS mit der Anzahl der Datenplatten. Für Datenbanken, ESXi oder andere I/O lastige Sachen wären möglichst viele vdevs besser (ideal 5 x Mirror) da I/O mit der Anzahl der vdevs skaliert (I/O eines Raid-z vdevs entspricht dem einer einzelnen Platte da für jede Schreib-Leseaktion alle Platten positioniert werden müssen).

Für besonders gute I/O Werte würde ich aber heutzutage einen zweiten Pool mit SSD bevorzugen. Selbst 10 x 15k Platten haben gegen eine einzelne gute SSD keine Chance.
 
Danke für die Antwort. Ich benutze Debian Wheezy mit ZoL und möchte per Samba und NFS die Dateien freigeben. Brauche ich hierfür noch die benötigten Pakete (samba-common, nfs-kernel-server etc. pp)? Wenn ja, kann ich die Freigaben doch auch "normal" wie unter Linux gewohnt über /etc/samba/smb.conf bzw. /etc/exports realisieren oder nicht?
 
Aclmode=restricted ist ein neues Illumos Feature das im aktuellen OmniOS enthalten ist. Restricted bedeutet, dass OmniOS das Ändern der Ordner oder Dateirechte per chmod auf Unix permissions ignoriert.

Hintergrund: Das Setzen von Unixpermissions löscht die ACL-Vererbung. Ein Mischbetrieb von CIFS (ACL only) und NFS3 (Unixpermissions) ist damit extrem problematisch. Aclmode=restricted verbessert das erheblich indem die Rechte per ACL gesetzt werden und per NFS nicht verändert werden.

Netatalk scheint damit Probleme zu haben. Ich habe im aktuellen napp-it einen Hinweis im Freigabemenü gesetzt, dass für netatalk nbmand=off und aclmode und aclinheritance auf pass-through gesetzt werden müssen.

Ein Multi-Protokoll Betrieb (AFP, CIFS, NFS) ist immer problematisch. Mal sehen wie das weitergeht. Apple scheint mit 10.9 ja CIFS als Standardprotokoll einzusetzen (bis auf TimeMachine).

Danke für die gute Erklärung. Hoffentlich hat Apple bei 10.9 die CIFS Implementierung überarbeitet. Die alten Versionen sind im Performancevergleich zu AFP ja nicht so doll gewesen. Von NFS ganz zu schweigen.
 
Woran kann es liegen dass das Webinterface unerträglich langsam wird? Verwende einen 16GB USB2 Stick. War vorher zwar nicht schnell aber noch erträglich. Nun muss ich aber bei befülltem Pool manchmal 5-10 Minuten warten bis sich EINE Seite aufgebaut hat, selbst wenn der Server grad nix machen muss.
 
Zuletzt bearbeitet:
Woran kann es liegen dass das Webinterface unerträglich langsam wird? Verwende einen 16GB USB2 Stick. War vorher zwar nicht schnell aber noch erträglich. Nun muss ich aber bei befülltem Pool manchmal 5-10 Minuten warten bis sich EINE Seite aufgebaut hat, selbst wenn der Server grad nix machen muss.

Die zwei häufigsten Gründe
- Pool fast voll
- Platte hat Fehler und antwortet erst mit Verzögerung (testen mit iostat oder format)
 
Was sagt Ihr zu folgender Idee bzgl. ZFS offsite backups:

AWS S3 Storage vm als iSCSI lokal auf Solaris Server (Initiator) mounten und dann die verschlüsselten zfs Dateisysteme ganz normal via zfs send/recv auf dieses iSCSI sichern.
Mit 10 MBit Upload sollte das Ganze bei überschaubaren GByte Mengen und inkrementellen Backups durchaus praktikabel sein...



Die Kosten für die AWS Storage Gateway VM für den ESXi müsste man natürlich mit einrechnen, aber mir geht es erstmal um die theoretische Betrachtung.
 
Zuletzt bearbeitet:
Die zwei häufigsten Gründe
- Pool fast voll
- Platte hat Fehler und antwortet erst mit Verzögerung (testen mit iostat oder format)


Naja der Datapool ist schon sehr voll ~95% (350GB frei). Ich weiß sollte man nicht machen, aber da der Server hauptsächlich als Mediaserver dient wo hauptsächlich lesend drauf zugegriffen wird kann es auch nicht ganz so wild sein oder? Verstehe nicht so ganz inwiefern der Datapool das Webinterface verlangsamt, da das OS ja auf einem Stick installiert ist.

Zu 2: Welche Platte meinst du? Die für das OS oder die aus dem Datapool ?
 
Naja der Datapool ist schon sehr voll ~95% (350GB frei). Ich weiß sollte man nicht machen, aber da der Server hauptsächlich als Mediaserver dient wo hauptsächlich lesend drauf zugegriffen wird kann es auch nicht ganz so wild sein oder? Verstehe nicht so ganz inwiefern der Datapool das Webinterface verlangsamt, da das OS ja auf einem Stick installiert ist.

Zu 2: Welche Platte meinst du? Die für das OS oder die aus dem Datapool ?

1.
Performance und Füllgrad bilden eine Abhängigkeit. Wenn die Platte sehr voll ist, gibt es immer weniger freie und zusammenängende Blöcke auf der Platte. Daraus folgt eine extreme Fragmentierung - vor allem bei CopyOnWrite Dateisystemen.

Deshalb nach Möglichkeit unter 70-80% bleiben.

2.
Da napp-it bei jedem Aufruf die Basisdaten einliest, kann eine langsam reagierende Platte (meist wg bad sectors etc, unterhalb eines nicht behebbaren Fehlers) die Performance verringern. ZFS wartet ja sehr lange darauf dass eine Platte Daten oder einen Fehler liefert.
 
1.
Performance und Füllgrad bilden eine Abhängigkeit. Wenn die Platte sehr voll ist, gibt es immer weniger freie und zusammenängende Blöcke auf der Platte. Daraus folgt eine extreme Fragmentierung - vor allem bei CopyOnWrite Dateisystemen.

Deshalb nach Möglichkeit unter 70-80% bleiben.

2.
Da napp-it bei jedem Aufruf die Basisdaten einliest, kann eine langsam reagierende Platte (meist wg bad sectors etc, unterhalb eines nicht behebbaren Fehlers) die Performance verringern. ZFS wartet ja sehr lange darauf dass eine Platte Daten oder einen Fehler liefert.

Naja Scrub und Smart zeigt keine Auffälligkeiten. Auch der Zugriff übers Netzwerk auf die Freigaben selbst ist noch schnell 60-80MB/s schreiben und lesen. Es ist wirklich nur das Webinterface quälend langsam. In dem minilog sieht man aber dass er auf die Datasets zugreift und da auf irgendwas wartet. Das sind dann oftauch mal 5 Minuten und mehr. Aber wie gesagt Platten sind neu und soweit auch alles in Ordnung und habe auch nur "wenige" große Dateien gespeichert.

Denke mit der Fragmentierung dürfte bei mir aber nicht so das Problem sein. Meine Dateien sind idr zwischen 15-35GB groß. Wenn ich da was lösche sind laut meinem Verständnis ja wieder massiv zusammenhängende Blöcke frei. Auch wenn ich über 80% bin.

Ist zumindest mein Verständnis. Wenn ich ständig kleine Dateien schreiben und löschen würde wäre es was anderes das ist mir klar.
 
Zuletzt bearbeitet:
Was sagt Ihr zu folgender Idee bzgl. ZFS offsite backups:

AWS S3 Storage vm als iSCSI lokal auf Solaris Server (Initiator) mounten und dann die verschlüsselten zfs Dateisysteme ganz normal via zfs send/recv auf dieses iSCSI sichern.
Mit 10 MBit Upload sollte das Ganze bei überschaubaren GByte Mengen und inkrementellen Backups durchaus praktikabel sein...



Die Kosten für die AWS Storage Gateway VM für den ESXi müsste man natürlich mit einrechnen, aber mir geht es erstmal um die theoretische Betrachtung.

man ssh

Wie kommt man auf solche haarsträubenden Ideen?
 
Denke mit der Fragmentierung dürfte bei mir aber nicht so das Problem sein. Meine Dateien sind idr zwischen 15-35GB groß. Wenn ich da was lösche sind laut meinem Verständnis ja wieder massiv zusammenhängende Blöcke frei. Auch wenn ich über 80% bin.

Ist zumindest mein Verständnis. Wenn ich ständig kleine Dateien schreiben und löschen würde wäre es was anderes das ist mir klar.

Leider falsch.
siehe ZFS Write Performance (Impact of fragmentation) | Uday
-> Pool Fillrate vs Throughput

Bei welchem Befehl hängt es denn (minilog)?
Den mal per CLI aufrufen oder im Menü System Prüfen ob einzelne Platten außergewöhnliche busy oder wait Werte haben.
Auf jeden Fall sind die 90% Fillrate ein Problem.
 
Ganz einfach: Auf dem iSCSI kann ich meine vdevs erstellen und behalte sämtliche ZFS Dateisystem-Attribute.

Ob du jetzt zfs send/receive über iSCSI nudelst oder SSH, ist egal. Wenn es sicher sein soll, muss das iSCSI eh über ein VPN o.ä., also kannst du es auch gleich weglassen.
 
Hallo zusammen,

vielleicht hat jemand einen Tipp für mich was das Problem sein könnte. Ich habe von napp-it v. 0.8l3 auf 0.9b3 upgedatet. Jetzt kann ich keine e-mails mehr über "smtp.1und1.de" verschicken. Ich habe die E-Mail konfiguration neu eingetragen, aber das hat auch nicht geholfen. Fehlt noch etwas für die 0.9 version?
 
Hallo zusammen,

vielleicht hat jemand einen Tipp für mich was das Problem sein könnte. Ich habe von napp-it v. 0.8l3 auf 0.9b3 upgedatet. Jetzt kann ich keine e-mails mehr über "smtp.1und1.de" verschicken. Ich habe die E-Mail konfiguration neu eingetragen, aber das hat auch nicht geholfen. Fehlt noch etwas für die 0.9 version?

0.9 hat ein neues Jobmanagement.
Alte alert/status-Jobs löschen und neu anlegen.

napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris (beim Übergang von 0.8 -> 0.9)
Code:
Update from 0.8 and lower requires a wget install followed by a reboot.
Beside replication, you must recreate all jobs.
 
Hallo,

ich bitte vorab um Entschuldigung für eine (Halb-)Off-Topic-Frage, aber mir schwirrt inzwischen der Kopf - ich weiß wirklich nicht mehr, wo ich die Frage sonst stellen soll - und hier sind anscheinend die meisten ZFS-Experten versammelt; damit (hoffentlich) auch die Leute, die sich gut in der (Open)Solaris/-Derivate/FreeBSD/-Derivate-etc.-Szene auskennen.

Welche guten Online-Infoquellen gibt es eigentlich noch, wo man sich über (Open)Solaris, seine Abkömmlinge/Spielaten/Forks etc. informieren und diskutieren kann?

Vorzugsweise auf englisch, denn die deutschen Quellen habe ich nun wohl inwischen komplett gesichtet, und die englisch-sprechende Welt ist nunmal größer. Ich habe mir nun so langsam wirklich einen Wolf gesucht, aber kein vernünftiges Ergebnis erzielt. Opensolaris.org ist tot, viele Leute haben sich anscheinend abgewandt, viele Ex-Sun-Blogs sind weg (ein paar sind bei Oracle noch vorhanden, aber bei weitem nicht alle, und es wimmelt von kaputten Links, fehlenden Bildern etc.), OpenIndiana scheint mir halbtot zu sein, andere Derivate (OmniOS, SmartOS, Nexenta) scheinen mir zu spezialisiert, Oracle will für die Anmeldung zu seinem Forum viel zu viel persönliche Informationen, und wie erwünscht Fragen zu anderen Spielarten als seinem kommerziellen Original-Solaris dort sind, kann ich mir vorstellen.

Ich will auf jeden Fall ein ZFS-System, aber die Betriebssystem-Frage treibt mich so langsam zum Wahnsinn. Ich habe tonnenweise Fragen, weiß aber nicht, wo ich damit hin soll. Ich kenne eigentlich nur den Blog von J. Möllenkamp (c0t0d0s0.org) und das Original-Oracle-Forum (mit den besagten Problemen) als einigermaßen umfassende Ressourcen.

Vor allem wüßte ich gerne, in welchem englischsprachigen Forum man Fragen rund um die (Open)Solaris/-Nachfolger/-Alternativen-"Landschaft" und ZFS (OS-übergreifend) loswerden kann.

Zum Schluss noch eine On-Topic-Frage: Auch ich habe einen HP-Microserver und will die 4 Bays möglichst komplett für Datenplatten nutzen, der 5. (oben) steht aus diversen Gründen nicht zur Verfügung. RAIDZ1 ist ein Muss, ein RAID 10-artiger Pool kommt für mich nicht in Frage. 5 Bays wärem mir natürlich lieber, aber ich habe nunmal nur 4. Man liest öfters, z.B. hier, dass man ein RAID Z1 nur mit 3, 5 etc. Platten bauen soll (2^n + 1). In besagtem Thread stehen sich 2 Meinungen darüber, wieviel ds wirklich ausmacht, diametral gegenüber. Mir ist das letzte bisschen Performance nicht so wichtig, bei mir würde sowieso das Netzwerk (Nutzung v.a. über WLAN) am meisten limitieren. Der Kapazitätsverlust einer Platte wäre aber schmerzhaft.
Wie groß ist denn nun wirklich der praktische Geschwindigkeitsunterschied zwischen einem RAIDZ1 aus 3/5 und einem aus 4 Platten?
 
Hallo,

ich bitte vorab um Entschuldigung für eine (Halb-)Off-Topic-Frage, aber mir schwirrt inzwischen der Kopf - ich weiß wirklich nicht mehr, wo ich die Frage sonst stellen soll - und hier sind anscheinend die meisten ZFS-Experten versammelt; damit (hoffentlich) auch die Leute, die sich gut in der (Open)Solaris/-Derivate/FreeBSD/-Derivate-etc.-Szene auskennen.

Welche guten Online-Infoquellen gibt es eigentlich noch, wo man sich über (Open)Solaris, seine Abkömmlinge/Spielaten/Forks etc. informieren und diskutieren kann?

Vorzugsweise auf englisch, denn die deutschen Quellen habe ich nun wohl inwischen komplett gesichtet, und die englisch-sprechende Welt ist nunmal größer.

http://smartos.org/2011/12/15/fork-yeah-the-rise-and-development-of-illumos-2/
Distributions - illumos - illumos wiki
OpenSolaris derived ZFS NAS/ SAN (Nexenta*, OpenIndiana, Solaris Express) - [H]ard|Forum
Solaris, Nexenta, OpenIndiana, and napp-it
www.openindiana.org
www.napp-it.org

etc

wg Raid-Z1:
Bis auf den Kapazitätsverlust bei nicht optimaler Anzahl (3,5,9,..) skaliert die sequentielle Performance mit der Anzahl der Datenplatten. Ein Z1 vdev aus vier Platten ist damit ca 30% schneller als eines aus drei Platten wenn die CPU nicht limitiert. I/O Performance ist aber immer wie bei einer Platte.

Den Microserver würde ich von USB booten (Am besten ein USB ZFS Boot-mirror wg besserer Performance und Ausfallsicherheit). Mein Tipp: OmniOS
 
Zuletzt bearbeitet:
Danke.

Meine erster Gedanke war, ehrlich gesagt, "bäh, nicht schon wieder, kenne ich doch schon alles, habe ich doch schon alles durchgekaut" (ja, auch Napp-it, ich weiß schon, mit wem ich es zu tun habe...).
Aber die Threads in Hardforum und ServeTheHome waren mir wohl bisher entgangen, und dass es gerade jetzt anscheinend etwas Neues bei OpenIndiana gibt, hat mich wirklich überrascht. Ich hatte gedacht, die Distro wäre inzwischen "belly-up" (es ist mir nicht entgangen, dass der führende Kopf vor einiger Zeit über Bord gegangen ist).

Insgesamt bleibt mir aber immer noch ein bisschen der Eindruck, dass sich die OpenSolaris-Derivate-"Familie" in einem chaotischen Wirrwarr befindet.

Gibt es denn irgendwo eine umfassende Plattform, die opensolaris.org ersetzen könnte? Ich sehe die nirgends, auch (und gerade) nicht bei Illumos, die sich ja wohl als "Mutter aller OpenSolaris-Forks" verstehen.

Ach ja, ich hatte ja noch eine "originäre" ZFS-Frage gestellt. Kann noch jemand etwas dazu sagen? Wäre nett.

EDIT:
Microserver/RAIDZ1 etc. ... hat sich leider überschnitten.
USB-Boot etc. habe ich leider nicht ganz verstanden. Ist damit gemeint USB-Boot und 5 Daten-HDs (d.h. 4 nutzbare Daten-Kapazität + 1 "Parity") oder 4 Daten-HDs (d.h. 3 nutzbare Daten-Kapazität + 1 "Parity")? Ich bin auf 4-Daten-HDs (im Sinne des vorhergehenden Satzes) beschränkt, also alle die im "normal" im HP-Microserver vorgesehenen 4er-Array. Boot von USB ist keine Option, weil zu sehr beschränkt auf *ein* OS. Das OS muss bei mir auf eine gespiegelte (!) Platte im oberen Bay, wg. VMs/Multi-Boot, und genau das ist auch der Grund, warum der 5. Bay nicht zur Verfügung steht.
OmniOS muss ich mir noch einmal ansehen, ich verwechsle gerne OmniOS und SmartOS.
 
Zuletzt bearbeitet:
Hi,

gibt es eine "magische Formel" für die Anzahl der Festplatten und deren Raid-Level und Anzahl an vdevs?
z.B. ab 8 HDDs: nutze 2xRaid-Z1 und 1xvdev oder 1xRaid-Z2 und 1xvdev
ab 20Platten: nutze 2xRaid-Z2 und 2xvdev etc. pp


Es wäre mal cool, wenn sich jemand die Mühe machen würde und das wichtigste auf die Startseite packen. Der Thread enthält sehr viele gute und wichtige Informationen aber es ist sehr mühselig diese hier rauszufiltern.
 
Zuletzt bearbeitet:
Datenplatten ohne parity sollten bei Software-RAIDs mal 2^n sein, bei ZFS ist das angeblich aber nicht mehr kritisch. Hintergrund war, dass die block size des Filesystems ohne Rest auf die stripe size passt, damit es bei RAID5 z.B. nicht zum read-modify-write kommt sondern nur geschrieben wird.

Bei ZFS wie gesagt nicht mehr wichtig, obwohl manche es als best practice trotzdem weiterbetreiben, also RAIDZ2 dann z.B. nur mit 6, 10, 18 Platten etc.

Edit: Ach, Frage nicht zu Ende gelesen. Es gibt irgendwo einen MTTF-Rechner für RAIDs. Aus dem Bauch raus würde ich z.B. ein RAIDZ z.B. nicht mit 17 Platten aufbauen, 9 wäre für mich schon grenzwertig. Je größer die Platten werden, umso länger dauert der Rebuild, bei dem dann wieder eine Platte ausfallen kann.

http://www.servethehome.com/raid-calculator/raid-reliability-calculator-simple-mttdl-model/
 
Zuletzt bearbeitet:
Insgesamt bleibt mir aber immer noch ein bisschen der Eindruck, dass sich die OpenSolaris-Derivate-"Familie" in einem chaotischen Wirrwarr befindet.

Gibt es denn irgendwo eine umfassende Plattform, die opensolaris.org ersetzen könnte? Ich sehe die nirgends, auch (und gerade) nicht bei Illumos, die sich ja wohl als "Mutter aller OpenSolaris-Forks" verstehen.

Im Prinzip ist es so.
Nachdem das OpenSolaris Projekt durch Oracle beendet wurde, gab es einen Fork der letzten freien OpenSolaris Version bei Illumos. Illumos ist dabei keine Distribution wie vorher OpenSolaris sondern die alleinige Stelle, an der der Kernel, ZFS und die Basistools weiterentwickelt werden. Darauf aufbauend gibt es dann Distributionen wie OmniOS, OI, NexentaStor oder SmartOS. Die Weiterentwicklungen die einzelne Firmen wie z.B. Delphix, Joyent oder Nexenta vornehmen, fließen zurück in Illumos und stehen dann allen als Upstream zur Verfügung. Im Falle von ZFS gilt das auch für BSD und Linux/ZoL.

Illumos ist demzufolge nicht Nachfolger von OpenSolaris (das war ja Entwicklung + Distribution) - das gibt es nicht mehr, obwohl es Diskussionen über eine "Referenzdistribution" bei Illumos gibt..

Das ist ähnlich wie Linux und darauf aufbauende Distributionen.


ach ja, USB Boot ist OS auf USB Stick damit man 5 Platten nutzen kann. Wenn man statt des DVD ein gespiegeltes Bootdrive braucht, kann man da ein 2,5" Hardware Raid mit Sata Anschluß einbauen.
 
Zuletzt bearbeitet:
Kurze Frage zu eSATA/Gehäusen:

Ich habe meine internen SATA-Ports für den ersten Pool aufgebraucht. Jetzt bin ich am überlegen, ob ich noch einen zweiten Pool an den zwei eSATA-Ports mache. Wie ist denn das bei eSATA, da gibt es doch Gehäuse die einen eSATA Anschluss haben und wo mann z.B. zwei oder drei Platten reinbauen kann. Wenn ich das richtig verstehe, haben diese Gehäuse dann doch aber intern noch mal einen Controller? Denn eigentlich gilt doch pro SATA-Port eine Platte, oder liege ich da falsch? Ich frage das, weil ja ZFS direkten Zugriff auf die Platten haben sollte. Wenn sich da jetzt noch mal ein Controller dazwischen klinkt, wäre das doch nicht so optimal, oder?
 
Wheezy - ZVOLs und iSCSI (LIO ) - warum ist das so grottenlahm?

OK, iSCSI noob here...

...ich habe einen neuen TV-Recorder (Win7-HPx64) aufgebaut und wollte den Aufnahmen nun auf meinem
ZFS NAS (Wheezy, ZoL mit LUKS/dm-crypt (AES-NI)) mit snapraid ne "Parity Disk" verpassen.

- LOI / targetcli installiert
- ZVOL mit 3TB erstellt (mein pool ist ein raidz3 aus 9x 3TB_7.2k-Disks, ohne das ZVOL zu 30% voll)
- iSCSI target aus dem ZVOL erstellt
- Win7 Initiator mit dem Target verbunden und Disk "eingehängt".

-> Schreib-Performance 7MByte/sec :eek: (über SAMBA zum ZFS Array kriege ich >60MByte/sec) vom gleichen Client.

Woran kann es liegen..ich hätte vermutet, das iSCSI hier mindestens so gut wie SAMBA ist, aber ich kenne mich damit garnicht aus.
 
Das habe ich gemacht, es hat aber leider nichts gebracht. Zum testen habe ich in einer VM eine komplette Neuinstalltion (oi151_a7) gemacht und dort tritt der gleiche Fehler auf. In welchen logs muss ich nachschauen um dem Grund für den Fehler zu finden? Könntest du in deiner Testumgebung das vielleicht versuchen nachzustellen?
Alternativ werde ich mal GMX und Co. Konten probieren.
Aber mit der 0.8 ging 's 100% mit den selben Zugangsdaten und Einstellungen.



0.9 hat ein neues Jobmanagement.
Alte alert/status-Jobs löschen und neu anlegen.

napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris (beim Übergang von 0.8 -> 0.9)
Code:
Update from 0.8 and lower requires a wget install followed by a reboot.
Beside replication, you must recreate all jobs.
 
Wie ist denn das bei eSATA, da gibt es doch Gehäuse die einen eSATA Anschluss haben und wo mann z.B. zwei oder drei Platten reinbauen kann. Wenn ich das richtig verstehe, haben diese Gehäuse dann doch aber intern noch mal einen Controller? Denn eigentlich gilt doch pro SATA-Port eine Platte, oder liege ich da falsch? Ich frage das, weil ja ZFS direkten Zugriff auf die Platten haben sollte. Wenn sich da jetzt noch mal ein Controller dazwischen klinkt, wäre das doch nicht so optimal, oder?

Wenn nicht 1:1 verbunden, dann ist da immer ein Stück kunstvoll in Form gezimmertes Silizium dazwischen. Allerdings gibts da zwei Sorten:

a) Ein nach irgendeinem Prinzip arbeitender Controller, der die angeschlossenen Platten in ein JBOD oder RAIDxy verpackt und dieses dem eigentlichen Host blackboxmäßig als Speicher zur Verfügung stellt. Da kommen in der Regel keine Infos über die Platten durch, und man weiß auch nicht, was dieser Controller so treibt (gerade bei Fehlern). Definitiv ungünstig.

b) Ein Portmultiplier. Dort können Platteninfos prinzipiell rüberkommen und der Host spricht mit jeder Platte selbst. Gibt halt Hindernisse...
1) Der Hostcontroller muss PM-fähig sein, Platten sollens angeblich alle können
2) Alle angeschlossenen Platten teilen sich die maximale Transferrate von Host und/oder PM, also derzeit max. 6 Gbit/s. Mag bei zwei Platten egal sein, bei fünf SSDs sicher nicht mehr
3) Gibts da wohl auch gewisse Qualitätsunterschiede unter den Portmultipliern...
4) Billig ist anders

Hast du Platznot, oder warum externes Gehäuse? eSATA kann man mit den passenden Kabeln auch wieder in normale SATA-Stecker wandeln und dann die Kabel rückwärtig ins Gehäuse bringen. Aber halt ohne die PM-Geschichte nur 1:1, und ich würde (falls möglich) die eSATA-Funktion im BIOS ausschalten, sodass sich alle Platten wie interne Laufwerke verhalten.
 
Mal eine erschreckend simple Frage, von der ich allerdings selbst die Antwort nicht hundertprozentig weiß:

Wenn ein dataset komprimiert ist, dann sind die Daten davon im ARC trotzdem unkomprimiert, oder? L2ARC auch?
 
Kann es auch nicht 100% bestätigen aber das nehme ich auch an da, soweit ich weiss, aktuell gerade erst an einer lz4-Kompression für den Cache gearbeitet wird, was zu Performancesteigerung führen soll.
 
Owncloud auf OmniOS

Hallo ZFS-Fans,

für alle die, die bei ihrem ZFS-Homeserver auch wie ich auf OmniOS gesetzt haben, hätte ich da was...:wink:
In mühevoller Kleinarbeit hab ichs hinbekommen Owncloud auf OmniOS lauffähig zu machen.
Ich hab mir auch einige Notizen gemacht und würde euch gern am Erfolg teilhaben lassen. Aber nur wenn es euch interessiert!:d
Allerdings nicht mehr heute nacht, da ich nun erstmal total müde bin.
Ich hoffe, es finden sich dann ein paar Spezialisten, die
a) Fehler finden,
b) den manuellen Installationsweg optimieren,
c) insbesondere die Apache-,PHP- und MySQL-Konfigurationen optimieren
und
d) evtl. helfen ein napp-it-AddOn draus zu basteln

Guts Nächtle
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh