[Sammelthread] ZFS Stammtisch

napp-it erstellt als Vorgabe beim Anlegen des Pool eine 10% Reservierung.
Damit kann kein Dateisystem über 90% wachsen.

Wenn ein Dateisystem ganz voll wird, gibt es derartige Probleme. Es wird auch alles viel langsamer.
Als Alternative zum Schnappschuss-löschen kann man diese Pool-Reservierung im Menü ZFS Dateisysteme löschen oder kleiner machen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man kann schon von Windows aus die ACL für den Freigabeordner selbst setzen.
Man muss sich halt als root per SMB anmelden. Geht aber nur mit Windows Pro Versionen und mit der
Einschränkung, dass nur allow-Regeln gesetzt werden dürfen da deny Regeln von Solaris anders ausgewertet werden.

Über Windows-Computerverwaltung ließen sich sogar die share-level ACL regeln.
Ist aber von Windows aus etwas fummellig.

Hab Win 8 Pro, unter der Computerverwaltung finde ich nichts dergleichen. Sieht noch genauso aus wie bei Win7...
Kann es sein, dass dieses "Share and Storage Management" ein Windows Server Feature ist?
 
Zuletzt bearbeitet:
Hab Win 8 Pro, unter der Computerverwaltung finde ich nichts dergleichen. Sieht noch genauso aus wie bei Win7...
Kann es sein, dass dieses "Share and Storage Management" ein Windows Server Feature ist?


Ist lange her aber... ging irgendwie in der Art

- Win Pro reicht.
- SMB connect als Solaris user, der in der lokalen Solaris SMB Gruppe administrators ist
- Computer Management in Windows starten
- Computer Management mit Solaris verbinden
- jetzt kann man Share level ACL, nicht aber File/Folder ACL setzen, das darf nur Owner=root
 
Zuletzt bearbeitet:
Sehr cool, das wusste ich gar nicht, dass das mit unixen geht.
Kann man irgendwo explizit angeben mit welchem User man connecten will oder verwendet der einfach die bestehende SMB-Verbindung?
 
Naja, vielleicht teste ich ja mal einen IBM an, habe ich mir sowieso schon mal überlegt.

Trotzdem schade, irgendwie muss man den doch zum laufen bringen, umsonst gibts ja keine Treiber dafür :)

Hy Gea,

habe mir jetzt einen M1015 geholt und auf LSI 9211IT geflashed.

Bin jetzt gerade beim OMNI OS installieren laut deiner Anleitung. (hier nochmals vielen vielen Dank für diesen super Guide)

Leider stehe ich momentan an beim IP Adresse zuweisen. Ich verwende folgenden Befehl

ipadm create-addr –T static –a 192.168.2.18/24 vmxnet3s0/v4

Leider bekomme ich folgende Fehlermeldung danach.

ipadm: Error in creating adress object: Invalid argument provided.

Die Netzwerkkarte sollte richtig eingebunden sein.

Mit dladm show-link und dladm show-phys sehe ich die Ausgabe so wie sie in deiner Anleitung beschrieben sind.

Hast du bitte einen Tipp für mich.

Danke

---------- Post added at 15:44 ---------- Previous post was at 15:25 ----------

Ok hat sich erledigt, nach reboot von OmniOS gings.
 
Ausgenappt?

Hallo zusammen,

eigentlich hat mit napp-it immer alles bestens funktioniert. Habe unlängst mal auf eine Version updaten wollen. Da stand dann "geht über wget" (soweit ich mich erinnere). Habe ich gemacht - tat sich nichts. Neu gebootet. Dann konnte man "activate" auswählen. Gemacht. Und nun ...

Software error:

Can't locate UUID/Tiny.pm in @INC (@INC contains: /var/web-gui/data/napp-it/CGI /usr/perl5/5.8.4/lib/i86pc-solaris-64int /usr/perl5/5.8.4/lib /usr/perl5/site_perl/5.8.4/i86pc-solaris-64int /usr/perl5/site_perl/5.8.4 /usr/perl5/site_perl /usr/perl5/vendor_perl/5.8.4/i86pc-solaris-64int /usr/perl5/vendor_perl/5.8.4 /usr/perl5/vendor_perl .) at admin.pl line 715.
BEGIN failed--compilation aborted at admin.pl line 715.
For help, please send mail to this site's webmaster, giving this error message and the time and date of the error.

Dachte dann ich nutze die Remotekarte und installiere es über wegt (...) neu. Das geht aber leider auch nicht.
Nun bin ich etwas verloren. Was kann man da machen? Habe OI und SE11 drauf (beide Kisten betroffen).

Gruss,
Otto
 
Ausgenappt?

Hallo zusammen,

eigentlich hat mit napp-it immer alles bestens funktioniert. Habe unlängst mal auf eine Version updaten wollen. Da stand dann "geht über wget" (soweit ich mich erinnere). Habe ich gemacht - tat sich nichts. Neu gebootet. Dann konnte man "activate" auswählen. Gemacht. Und nun ...

Software error:

Can't locate UUID/Tiny.pm in @INC (@INC contains: /var/web-gui/data/napp-it/CGI /usr/perl5/5.8.4/lib/i86pc-solaris-64int /usr/perl5/5.8.4/lib /usr/perl5/site_perl/5.8.4/i86pc-solaris-64int /usr/perl5/site_perl/5.8.4 /usr/perl5/site_perl /usr/perl5/vendor_perl/5.8.4/i86pc-solaris-64int /usr/perl5/vendor_perl/5.8.4 /usr/perl5/vendor_perl .) at admin.pl line 715.
BEGIN failed--compilation aborted at admin.pl line 715.
For help, please send mail to this site's webmaster, giving this error message and the time and date of the error.

Dachte dann ich nutze die Remotekarte und installiere es über wegt (...) neu. Das geht aber leider auch nicht.
Nun bin ich etwas verloren. Was kann man da machen? Habe OI und SE11 drauf (beide Kisten betroffen).

Gruss,
Otto

Update auf napp-it 0.9 von einer Vorversion geht nur mit wget Installer + anschließendem Reboot.
Falls dabei etwas schiefläuft, einfach nochmal den wget Installer laufen lassen.

Per napp-it Menü About-Update geht dieses Update nicht, auch kein Downgrade. Das geht nur durch Zurückgehen
auf einen Systemsnap oder durch Neuinstallieren von napp-it.Altversion


Jetzt gibt es folgende Optionen:
- Reboot in älteren Systemsnap mit Vorversion
- Reinstall von napp-it 0.9 per wget

Optional:
tiny.pm ist ein Modul für das alte netatalk2, damit obsolet.
Man könnte also auch ohne Probleme die Zeile 715 in admin.pl auskommentieren. Der obige Fehler tritt aber bei einem nicht vollständigen Update auf.
Das sicherste ist also ein nochmaliges Laufenlassen des wget Installers mit Reboot nach der Installation. (Lokal an der Konsole oder remote mit Putty)

Bei Oracle Solaris 11: napp-it 0.8 ist nur für Solaris 11.0
napp-it 0.9 geht nur mit Solaris 11.1 (viele kleine, gemeine Unterschiede)
 
Zuletzt bearbeitet:
ZFSonLinux 0.6.0-rc14 ist raus mit Support für Feature Flags!
https://groups.google.com/a/zfsonlinux.org/forum/?fromgroups=#!topic/zfs-discuss/xRxTdRCIv_Q
ZFS on Linux

Achtung beim Upgraden auf die neue Poolversion, gilt auch für Illumos und FreeBSD:
To enable support for feature flags on an existing pool they must be
explicitly enabled by upgrading the pool with the 'zpool upgrade'
command. This will roll the pool version forward to v5000 and allow
specific features to be enabled. A newly created pool will default to
zpool v5000 and all supported features will be enabled.

Be aware that after upgrading your pool you will not be able to import
it using a ZFS version which does not support feature flags. The latest
versions of FreeBSD and Illumos include support, but Solaris does not.
You do not need to upgrade an existing pool unless you want to take
advantage of one of these new features.
 
Zuletzt bearbeitet:
ZFS + Snapraid Media server

Ich bin gerade dabei, Snapraid in napp-it ZFS zu integrieren.
Die Idee dahinter ist die Vorzüge beider Systeme komfortabel zu verbinden.

Vorteil von ZFS: stabil, Echtzeit Prüfsummen, unbegrenzt Snaphots
Vorteil von ZFS Software Raid: Echtzeit-Raid, Multi-disk performance
Vorteil von Snapraid: beliebige Erweiterbarkeit durch einzelne Platten beliebiger Größe, Raid "on demand", nicht benötigte Platten können schlafen.

SnapRaids werden unter ZFS dadurch möglich, dass je Disk ein Pool angelegt wird und Snapraid die Redundanz sicherstellt, so dass beim Ausfall einer oder maximal zweier Platten (=Pool) der Datenstand des letzten Snapraid-Sync wiederhergestellt werden kann.

Installation vgl http://zackreed.me/articles/72-snapraid-on-ubuntu-12-04:
cd $HOME
wget =http://sourceforge.net/projects/snapraid/files/snapraid-2.1.tar.gz
tar xzvf snapraid-2.1.tar.gz
cd snapraid-2.1
./configure
./make
./make install

Snapraid liegt dann in /usr/local/bin. Ich würde das in napp-it mit installieren.
Es fehlt dann noch die Konfigurationsdatei in /etc


Bevor ich alles selber ausprobieren muss:
Hat jemand SnapRaid mit Solaris im Einsatz, Erfahrung, Probleme?
 
Zuletzt bearbeitet:
Danke Gea!

OI hat geklappt.

Wie muss aber das Kommando für Solaris Express 11 lauten damit er 0-8 installiert?

Besten Dank vorab,
Otto

Sehe gerade im letzten Jahr hat sich einiges getan. Das OmniOS kenne ich gar nicht. Solaris 11 hatte ich damals Netzwerkconfig nicht hinbekommen. Und scheinbar gibt es nun eine Möglichkeit auch unter OI zu verschlüsseln. Muss mal wieder ein WE investieren um up to date zu werden.
 
Hallo,

ich stehe vor der Wahl zwischen FreeNas oder NAS4Free!
Nas4Free scheint ja für Privatanwender sinnvoller zu sein, weil es auf FreeNAS 0.7 aufbaut!
Jetzt meine eigentliche Frage ... kann NAS4Free auch Raid-Z2(Raid 6), weil auf der Homepage kann ich das leider nicht finden?! :(
Ode rmuss ich für Raid-Z2 gezwungenermaßen FreeNas nehmen?
 
Das geht, es geht auch RAIDZ3 (gibts seit ZFS v17), NAS4Free auf basiert FreeBSD 9.1 und beherrscht ZFS v28, von daher kein Problem.
 
Zuletzt bearbeitet:
Hy Gea,

ich habe schon wieder eine Frage bezüglich Installation OmniOS.

Ich habe ein Problem mit der Freigabe für den SSH Zugriff.

Ich habe laut deiner Anleitung versucht die Freigabe für Putty einzurichten.

cd /etc/ssh
cp sshd_config sshd_config.orig
sed ‚s/PermitRootLogin no/PermitRootLogin yes/‘ sshd_config > sshd_config.new
mv sshd_config.new sshd_config

Ich habs genauso eingegeben, auch den Befehl " sed ‚s/PermitRootLogin no/PermitRootLogin yes/‘ sshd_config > sshd_config.new " soll das hinter dem yes/ ein ' oder ` sein? vielleicht liegt's ja andem.

Ich bekomme auf alle Fälle folgende Fehlermeldung wenn ich versuche mich über Putty einzuloggen.

sshd[707]: failed keyboard-interactive for root from 192.168.2.35 port 53846 ssh2


Wäre wiedermal über jeden Tipp dankbar
 
Hy Gea,

ich habe schon wieder eine Frage bezüglich Installation OmniOS.

Ich habe ein Problem mit der Freigabe für den SSH Zugriff.

Ich habe laut deiner Anleitung versucht die Freigabe für Putty einzurichten.



Ich habs genauso eingegeben, auch den Befehl " sed ‚s/PermitRootLogin no/PermitRootLogin yes/‘ sshd_config > sshd_config.new " soll das hinter dem yes/ ein ' oder ` sein? vielleicht liegt's ja andem.

Ich bekomme auf alle Fälle folgende Fehlermeldung wenn ich versuche mich über Putty einzuloggen.

sshd[707]: failed keyboard-interactive for root from 192.168.2.35 port 53846 ssh2


Wäre wiedermal über jeden Tipp dankbar

napp-it Menü Dienste - SSH -> allow root ?
 
Das ist ein ESXi Problem.
All-In-One bedeutet ja dass alle Daten inkl der ESXi VM's auf ZFS storage liegen.
Der steht aber erst zur Verfügung, wenn die Storage VM gestartet ist, nicht bereits beim Start von ESXi -
es gibt eine Verzögerung von ca 60s.

Das ist bei NFS kein Problem, iSCSI mag das nicht. Da müsste man die datastores immer manuell mounten.

Genau dieses iSCSi-Problem habe ich gerade. Ich habe einen AIO-Homeserver mit dem kostenfreien VSphere Hypervisor. Da ich bisher nur in der Windows-Welt daheim bin, habe auf einer einzelnen SSD einen Datastore erstellt und meinen Dell Perc H710p (ist ein LSI-9265-8i) mit Passthrough an einen Windows Server durchgereicht und ein iSCSi-Target konfiguriert, auf welches ich mit dem ESX zugreife. Das Problem dabei ist, dass ich nach jedem Neustart des ESX diesen Datastore manuell mounten muss, weil meine VMs "unknown" sind, was tierisch nervt. Da die kostenlose Variante keinen Zugriff auf die API zulässt, kann ich das auch nicht per PowerCLI automatisieren.

Warum hätte ich mit NFS dieses Problem nicht? Hat NFS sonst irgendwelche Vorteile/Nachteile in so einem AIO-Server ggü. iSCSI?

Hat jemand von Euch Erfahrung damit, wie groß die Leistungsunterschiede bei der Hardware sind, wenn der Controller nicht durchgereicht wird, sondern der ESX direkt darauf zugreift? Ich habe das so umgesetzt, weil ich es auf diversen Webseiten so gelesen habe, aber ob es stimmt bzw. best practice ist, kann ich selbst nicht sagen.
 
napp-it Menü Dienste - SSH -> allow root ?

Tja so leicht kanns sein :)

Thx das wars

---------- Post added at 14:53 ---------- Previous post was at 14:31 ----------

Kurze Hardwarefrage bezüglich napp-it/ZFS.

da ich meinen Adaptec 71605 sowieso jetzt verkaufen muss und ich jetzt napp-it mit einem geflashten M1015 teste stellt sich mir die Frage, soll ich für den Livebetrieb dann auf 3xM1015 setzen oder auf einen M1015 + HP 468406-B21 ExpanderCard setzen. Vom Preis ist es ca. das gleiche.

Momentan sind/werden 12x ST3000DM1 (RaidZ2) verbaut und 4 ältere Platten. Später werden es dann 24 ST3000DM1.

Über Tipps, wie immer dankbar.
 
Mit 3 Controllern hast du mehr Bandbreite. Im Allg. sind SATA-Platten an SAS-Expandern auch nicht so problemfrei wie 3 Controller.

Wenn du also nicht noch ewig expandieren willst mit externen Zusatzgehäusen, sind 3 Controller glaub ich die bessere Wahl.
 
Kurze Hardwarefrage bezüglich napp-it/ZFS.

da ich meinen Adaptec 71605 sowieso jetzt verkaufen muss und ich jetzt napp-it mit einem geflashten M1015 teste stellt sich mir die Frage, soll ich für den Livebetrieb dann auf 3xM1015 setzen oder auf einen M1015 + HP 468406-B21 ExpanderCard setzen. Vom Preis ist es ca. das gleiche.

Momentan sind/werden 12x ST3000DM1 (RaidZ2) verbaut und 4 ältere Platten. Später werden es dann 24 ST3000DM1.

Über Tipps, wie immer dankbar.

Wenn Expander, dann würde ich eher einen LSI nehmen,
z.B. Intel® RAID SAS* Expander RES2SV240

Expander + Sata ist aber so eine Sache. Wenn man das vermeiden kann, sollte man es auch.
Ich würde auf jeden Fall 3 x IBM 1015 bevorzugen.
 
Funktioniert ein M1015 in einem 4x elektrisch (mechanisch 8x) PCIe Slot einwandfrei, oder habe ich da irgendwelche Nachteile?

Theoretisch bietet PCIe 2.0 x4 2000 MB/s an Durchsatz, bei Vollbelegung also 250 MB/s je Port. Wenn du kein striped Raid aus SSDs anlegst sollte das genügen, selbst wenn man ein paar Verluste mit einrechnet ;)
 
Durchsatz ist das eine, obs korrekt funktioniert das andere. Man steckt ja auch keine Netzwerkkarte mit breiterem Anschluss in nen x1, auch wenn der das bei PCIe1-Dualportkarten und bei PCIe2 mit Quadport noch grade so tragen könnte.
Frage würde mich aber auch interessieren, schließlich gibts weit mehr interessante AMD-Boards mit nem brachliegenden x4 (meist im x16-Format) als mit nem zusätzlichen x8 oder gleich x16. Limitierung durch PCIe ist mir in den Regionen auch ziemlich wurscht, zumal eh vorher CPU und Gigabit bremst... ;)
 
Hallo zusammen,
ich bin eigentlich eher im HP N40L Thread aktiv... aber ich denke hier paßt es eher rein. Nachdem OpenIndiana mit napp-it und mediatomb soweit zu laufen scheint, stellt sich mir die erste sehr einfache ZFS Frage:
Momentan hab ich als Datengrab nur eine 3TB Platte. Kann ich diese erstmal alleine als Pool nehmen und später noch eine Platte als Mirror reinhängen und diesen Pool quasi on-the-fly zu Raid-1 konvertieren?

Viele Grüße und Gute N8
Timo
 
Yep, das ist der einzige Fall wo sowas mit ZFS geht: Managing Devices in ZFS Storage Pools (Solaris ZFS Administration Guide)
Example 4–6 Converting a Non-Redundant ZFS Storage Pool to a Mirrored ZFS Storage Pool

In addition, you can convert a non-redundant storage pool into a redundant storage pool by using the zpool attach command. For example:


# zpool create tank c0t1d0
# zpool status tank
pool: tank
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
c0t1d0 ONLINE 0 0 0

errors: No known data errors
# zpool attach tank c0t1d0 c1t1d0
# zpool status tank
pool: tank
state: ONLINE
scrub: resilver completed after 0h0m with 0 errors on Fri Jan 8 14:28:23 2010
config:

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c0t1d0 ONLINE 0 0 0
c1t1d0 ONLINE 0 0 0 73.5K resilvered

errors: No known data errors
 
Genau dieses iSCSi-Problem habe ich gerade. Ich habe einen AIO-Homeserver mit dem kostenfreien VSphere Hypervisor. Da ich bisher nur in der Windows-Welt daheim bin, habe auf einer einzelnen SSD einen Datastore erstellt und meinen Dell Perc H710p (ist ein LSI-9265-8i) mit Passthrough an einen Windows Server durchgereicht und ein iSCSi-Target konfiguriert, auf welches ich mit dem ESX zugreife. Das Problem dabei ist, dass ich nach jedem Neustart des ESX diesen Datastore manuell mounten muss, weil meine VMs "unknown" sind, was tierisch nervt. Da die kostenlose Variante keinen Zugriff auf die API zulässt, kann ich das auch nicht per PowerCLI automatisieren.

Warum hätte ich mit NFS dieses Problem nicht? Hat NFS sonst irgendwelche Vorteile/Nachteile in so einem AIO-Server ggü. iSCSI?

Hat jemand von Euch Erfahrung damit, wie groß die Leistungsunterschiede bei der Hardware sind, wenn der Controller nicht durchgereicht wird, sondern der ESX direkt darauf zugreift? Ich habe das so umgesetzt, weil ich es auf diversen Webseiten so gelesen habe, aber ob es stimmt bzw. best practice ist, kann ich selbst nicht sagen.

Kann mir keiner etwas dazu sagen?
 
Yep, das ist der einzige Fall wo sowas mit ZFS geht:

Danke für die schnelle Info und den hilfreichen Link. Du schreibst "das ist der einzige Fall wo sowas mit ZFS geht". Allerdings ist im Link noch ein anderer - für mich interessanten - Fall aufgezeigt.
Ich möchte, dass mein Pool immer schön mitwächst. In der Zukunft wird also nicht nur eine weitere Platte dazu kommen, sondern noch eine und vielleicht noch eine...
Mit drei Platten würde ich z.B. gerne meinen Pool als RAID-01 Verbund konfigurieren. Wenn ich das richtig verstehe ist doch genau dieser Fall auch im von Dir verlinkten Artikel unter "Example 4–5 Converting a Two-Way Mirrored Storage Pool to a Three-way Mirrored Storage Pool" aufgeführt, oder?

Ich hab momentan nur 2GB RAM in meinem HP N40L, allerdings noch ne Menge Platz auf meiner SSD, einen ca. 8-9GB großen unpartitionierten Bereich den ich theoretisch als Cache Device nutzen könnte. Ist das sinnvoll? Und inwiefern wird die Lebensdauer der SSD drunter leiden?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh