[Sammelthread] ZFS Stammtisch

Kann ich ESXi parallel mit der Storage VM auf einer SSD betreiben (vermutlich mit 2 Partitionen)? Ich habe dazu in den napp-it Dokus nichts gefunden.
Ja, habe ich gerade eingerichtet
ESXi legt auf dem Bootlaufwerk einen Datastore an, da drin installiert man die VM.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@gea@all

hast Du das HP Microserver Image noch online zum Download ?

Das System bootet von beiden Sticks nicht.
Nun könnte ich ja das System neu installieren und den zPooL mit den Daten importieren. Der zPool wurde natürlich zuvor nicht exportiert.
Abgesehen von ein paar Anpassungen im Napp-IT Menü ( ashift=9 ) sollte nach dem Import doch alles wieder wie gewohnt funktionieren ?

Nun muss ich gestehen, dass ich das noch nie machen musste. Was geht bei zPOOL importort verloren, was ich neu konfigurieren müsste ?
 
Zuletzt bearbeitet:
Die Images sind so alt, die habe ich vom Server entfernt.
Also entweder ein normales Setup auf einen USB Stick oder eine USB SSD machen,
siehe napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : OmniOS und dann das Image sichern.

oder auf eine SSD wechseln.
Ich biete dafür aktuelle napp-it ToGo Images zum Clonen entweder für eine 60GB Kingston (30Euro)
oder wenns professioneller sein darf für eine 80GB Intel S3510

Nach der Installation von OmniOS und Napp-it den Pool importieren. Wenn man einen napp-it backup Job laufen hatte,
kann man alle wichtigen Einstellungen wiederherstellen, für napp-it Pro gibts dafür das Menü User > Restore settings,
das stellt alle User Settings und ale sonstigen Einstellungen wieder her.

Ansonsten die Dateien aus dem /pool/napp-it backup/var-web-gui/_log manuell wiederherstellen und die User neu anlegen.


Worst Case:
User und Jobs neu anlegen, alles andere ist auif dem Pool.

ps
Ashift ist eine vdev Eigenschaft die man nachträglich nicht ändern kann.
 
Moin,

ich möchte einen Produktiv-AllinOne-ESXi-OmniOS-Server bauen:
- Gehäuse Supermicro xx (16x LFF-Drivebays + 2x SFF-Drivebays rear) ohne Expander
- MB Supermicro MBD-X10DRH-CT retail (MBD-X10DRH-CT-O) oder MB Supermicro X10DRC-T4+ retail (MBD-X10DRC-T4+-O)
- CPU E5-2620/v3 oder v4 oder E5-2630/v3 oder v4
- viel RAM :d
- 2. HBA: LSI SAS 9300-8i
- SSD-only Pool als VM-Storage (mit preiswerten SSDs evtl. ohne PowerlossProtection) als 2x mirrored VDEV(entspr. RAID10)
- HDD-Pool als "Not-VM-Storage" sowie als Fileserver mit 6 SAS-HDDs als RaidZ2
- PCIe-NVME als ZIL
- PCIe-NVME als L2ARC
- 2x SSD als ESXi-Boot und Datastore für OmniOS
- verwaltet mit Napp-IT (Kunde droht mit Auftrag! :d)
------------------
- welche preiswerten SSDs sind für den SSDonly Pool zu empfehlen? Z.B. diese hier? SanDisk Ultra II 960GB oder Crucial BX200 960GB
- für den HDD-Pool dachte ich an diese: HGST Ultrastar 7K6000 ISE 512e 5TB, SAS 12Gb/s
- als ZIL: Produktvergleich Intel SSD 750 400GB, PCIe 3.0 x4, Intel SSD DC P3500 400GB, PCIe 3.0 x4, Intel SSD DC P3600 400GB, PCIe 3.0 x4, Intel SSD DC P3700 400GB, PCIe 3.0 x4
Ich finde die 750er sehr interessant...hohe Write-IOPs, daher nehme ich kurze Latenzzeiten an... Mit den TBW würde ich locker hinkommen (denke ich) - ca. 20-50GB wird pro Tag geschrieben... Hmm, allerdings kommt noch ESXi-vswp und wohl auch Windows-swap hinzu... Trotzdem okay?
-als L2ARC dieselbe Entscheidung: Produktvergleich Intel SSD 750 400GB, PCIe 3.0 x4, Intel SSD DC P3500 400GB, PCIe 3.0 x4, Intel SSD DC P3600 400GB, PCIe 3.0 x4, Intel SSD DC P3700 400GB, PCIe 3.0 x4
Oder soll ich den L2ARC mit auf die erste NVME legen?
- ESXi-Boot: 2x Crucial BX200 240GB u.a. wg. Powerloss-Protection (falls mal temporär ne VM auf diesen Datastore muss)

Ich bitte um eure fachkundige Meinung! :hail:

Grüße
effe
 
Beim Board kann man wenig meckern, dicker gehts kaum.
Der onboard Raid-6 Controller ist wohl für ESXi, ansonsten eher was mit LSI 3008 onboard für ZFS nehmen.

Um den Rest zu beurteilen, müsste man den Workload kennen.
Eventuell wäre es bei gleichem RAM interessanter ein single Xeon System zu nehmen und mehr Geld in Storage zu investieren.

Der SSD Pool soll wohl ca 2 TB groß werden. Ich habe zwar aus Kostengründen in der Vergangenheit auch SSDs ohne Powerloss Protection betrieben, stelle die jetzt aber alle um auf SSDs mit Powerloss Protection, aktuell meist auf die Intel S3610 um das prinzipielle Risiko zu vermeiden, dass im Falle eines Crashs korrupte Daten auf einer SSD entstehen (Ursache: Garbage Collection im Hintergrund durch die Firmware). Das Risiko ist da aber gering vor allen durch die Fehlererkennung in ZFS mit Prüfsummen und Raid als Reparaturoption.

Wichtig bei SSDs im Raid ist auf jeden Fall eine hohes Overprovisioning. Bei Desktop SSDs ist da die Sandisk Extreme Pro besser geeignet. Raid 10 muss bei den hohen iops einer SSD nicht sein. Raid-1 oder Zn geht auch

NVMe sind bei AiO ein Problem da pass-through aktuell nicht funktioniert. Man müsste die dann als virtuelle ESXi Platte bereitstellen. Ein extrem schneller Log oder L2Arc Device reißt es aber auch nicht mehr wenn der eigentliche Pool langsam ist. Bei SSD only Pools mit guten SSDs kann man zudem auf L2Arc und ZIL verzichten.

Optionen
- Ein billigeres single Core Xeon System. Meist limitiert eher RAM und Storage, nicht die CPU,
z.B. X10SRH-CF (onboard SAS 3008) mit Extra Intel X520-D2 mit Broadwell 6 oder 8 Core

- ESXi Bootraid kann man machen. Da aber darauf nur ESXi und die Basis Storage VM liegt, könnte man auch darauf verzichten und eine bootfähige Reserve SSD bereitlegen. Wenn man Raid möchte täte es aber was billigeres als ein 12G Highend Controller.

Ich würde einfach eine sehr gute Enterprise Boot-SSD nehmen, z.B. Intel S3510-80 und auf Raid verzichten und ein zweites Exemplar in Reserve halten oder ein 3,5" Raid-1 z.B. von dazu benutze um regelmäßig das Bootlaufwerk zu klonen.
iR2420-2S-S2B

Als dauerhaftes Raid würde ich es nicht nehmen. Es ist kein ZFS und kann Veränderungen auf einem Mirror nicht erkennen. Ich hatte deswegen schon Abstürze. Zum Clonen der Bootplatte und danach herausnehmen ist es ideal.

Dafür für den SSD Pool Enterprise SSDs z.B. Intel S3610 oder Samsung SM863 nehmen.
Ob ale einfacher 2TB Mirror oder Raid-Z2/10 ist egal.

Zum HD Pool
Der ist auf 20TB usable ausgelegt und soll auch Backup und Filerdienste machen.
Wenn man hier Performance möchte, sind mehr Platten im Raid-10 schneller, eventuell mit den etwas billigeren Sata Ultrastar 4TB-6TB Exemplaren.

Auf das L2Arc kann man verzichten, wenn genügend RAM da ist.
Als Slog für den Notbetrieb wäre eine Intel S3710-200 ausreichend - eventuell mit extra manuellem Overprovisioning . NVMe über ESXi würde ich vermeiden.

Ich würde eventuell gleich ein 24Bay Gehäuse nehmen.
Storage wächst schnell, vor allem wenn man Snaps nutzt und man könnte den Pool aus mehr kleineren Platten bauen (schneller)

10G ist Pflicht.
Ich würde aber auf SFP+ im Server gehen. Das ist deutlich zuverlässiger/ kabelunempfindlicher und damit besser Servergeeignet. Auch haben 10G Switche meist SFP+. 10Gbase-T ist eher interessant zum Desktop.

Gibt es ein weiteres Backupsystem?
Ansonst eher eventuell den Plattenpool in ein eigenes (kleineres) System packen

Akltuell habe ich dazu auch ein PDF mit Konfigurationsbeispielen hochgeladen
http://www.napp-it.org/doc/downloads/napp-it_build_examples.pdf
 
Zuletzt bearbeitet:
Hallo zusammen,

ich hätte wiedereinmal eine Frage bezüglich napp-it.

ich verwende die letze all in one Lösung von gea.

Meine "Standardeinstellungen Heim NAS Funktion" funktionieren absolut perfekt.

Nun möchte ich mir aber gerne OwnCloud auf napp-it installieren, scheietere aber schon bei der AMP Installation.

Ich habe mir die letze AMP Version von gea geholt. wget -O - www.napp-it.org/amp-15.4.2 | perl

Leider startet der Apache Server nicht.

apache-server : maintenance (Include proxy-html, httpd_php, httpd_phpmyadmin, httpd_owncloud)

svc:/pkgsrc/apache:default (Apache 2 HTTP server)
State: maintenance since Mon May 30 10:38:42 2016
Reason: Start method failed repeatedly, last exited with status 1.
See: SMF-8000-KS
See: httpd(8)
See: Welcome! - The Apache HTTP Server Project
See: /var/svc/log/pkgsrc-apache:default.log
Impact: This service is not running.

Ich als Laie nehme mal an es kommt vielleicht davon das ich kein PHP 7 installiert habe?

Wenn ja wo bekomm ich das den her, habe leider nichts gefunden.

Desweieteren habe ich auf der napp-it Seite folgenden Hinweis gefunden

Infos:
If you have not installed php7, you must edit /opt/local/etc/httpd/httpd_php.conf

from

# add php specific settings
#LoadModules
LoadModule php7_module lib/httpd/mod_php7.so


#AddHandler
AddHandler application/x-httpd-php .php


to

# add php specific settings
#LoadModules
LoadModule php7_module lib/httpd/mod_php7.so


#AddHandler
AddHandler application/x-httpd-php .php

Aber für mich sehen die Einträge identisch aus. Kann sein das ich auch hier ebenfalls blind bin.

Ich habe auch die Installationsdateien von zos getestet.

(4) Apache, MySQL, Redis, PHP7 (ohne php7-redis extension) (Installation mit "wget -O - http://www.wp10455695.server-he.de/amphp7 | perl")

Dann rennt der Apache Server, aber bei napp-it habe ich dann keine Pulldown Einträge im Servicebereich

Bin wie immer über Tipps sehr dankbar wie ich AMP und Owncloud zum laufen bringe.

Danke Andreas
 
Zuletzt bearbeitet:
Nun möchte ich mir aber gerne OwnCloud auf napp-it installieren, scheietere aber schon bei der AMP Installation.
Ich habe mir die letze AMP Version von gea geholt.
Leider startet der Apache Server nicht.

Was steht im Log-File /var/svc/log/pkgsrc-apache:default.log?
 
Was steht im Log-File /var/svc/log/pkgsrc-apache:default.log?

Hier die Fehlermeldung

httpd: Syntax error on line 526 of /opt/local/etc/httpd/httpd.conf: Syntax error on line 4 of /opt/local/etc/httpd/httpd_php.conf: Cannot load lib/httpd/mod_php7.so into server: ld.so.1: httpd: fatal: /opt/local/lib/httpd/mod_php7.so: open failed: No such file or directory


Danke für die Hilfe

Edit:

Oh ich hab egerade auf der napp-it seite folgenden Link gefunden.

wget -O - www.napp-it.org/amp-php7-15.4.1 | perl

ich werde den mal testen

- - - Updated - - -

Hallo nochmals.

mit dieser Installationsdatei hats funktioniert

wget -O - www.napp-it.org/amp-php7-15.4.1 | perl

ich habe hier zwar auch keine Menueeinträge in napp-it, aber ich glaube ich komme las Laie auch ohne aus hoffe ich.

Leider finde ich momentan den login zu pvpmyadmin von dieser installation nicht.

Kann mir die vielleicht wer sagen.

Danke
 
Zuletzt bearbeitet:
ich habe hier zwar auch keine Menueeinträge in napp-it, aber ich glaube ich komme las Laie auch ohne aus hoffe ich.

Leider finde ich momentan den login zu pvpmyadmin von dieser installation nicht.

Kann mir die vielleicht wer sagen.

Danke

Napp-it unterstützt Menü-Sets für verschiedene Sprachen, Anwendunger, Admin/Operator Benutzer oder Distributoren die z.B. napp-it als Frontend nutzen und manche Menüs weglassen und eigene hinzufügen..

Das aktuelle Default Menü-Set ist Solaris (sol). Damit werden nur Menüs für originale Solaris Dienste gezeigt. Im normalen napp-it kann man zwischen den Sets umschalten, entweder in About>Settings z.B. auf de oder en oder im Topmenü neben Logout auf von "sol" auf "en" (englische Menüs) schalten.

"en" enthält alle Menüs in englisch.
 
Napp-it unterstützt Menü-Sets für verschiedene Sprachen, Anwendunger, Admin/Operator Benutzer oder Distributoren die z.B. napp-it als Frontend nutzen und manche Menüs weglassen und eigene hinzufügen..

Das aktuelle Default Menü-Set ist Solaris (sol). Damit werden nur Menüs für originale Solaris Dienste gezeigt. Im normalen napp-it kann man zwischen den Sets umschalten, entweder in About>Settings z.B. auf de oder en oder im Topmenü neben Logout auf von "sol" auf "en" (englische Menüs) schalten.

"en" enthält alle Menüs in englisch.

Danke für die Info.

Hat natürlich funktioniert

Hast du vielleicht eine Info bezüglich des Logins in phpadmin von deiner Installation.

Finde hierzu keine Info im Netz.

Danke nochmals
 
Leider finde ich momentan den login zu pvpmyadmin von dieser installation nicht.
Kann mir die vielleicht wer sagen.
Danke

Ich habe mal ein aktuelles OmniOS-r151018 inkl. Napp-It in einer VM hochgezogen und anschließend AMP installiert (mit aktualisiertem SmartOS-Repo 2016Q1). Eine aktuelle AMP-(Neu-)Installation kann mit

wget -O - http://www.wp10455695.server-he.de/amphp7 | perl

durchgeführt werden. Danach findest Du unter

http://<serverip>/phpmyadmin

den Zugang zu phpmyadmin. Du solltest zuvor aber noch (wie im letzten Ausgabeblock des AMP-Scriptes angegeben)

export PATH=/opt/local/bin:/opt/local/sbin:/opt/csd/bin:$PATH
./mysqlsec.sh

ausführen, wobei Du dabei ein root-Passwort setzen solltest und zumindest für die erste Konfiguration den root-Login erlauben solltest. Dann kannst Du Dich unter http://<serverip>/phpmyadmin anmelden und dort ein neues Benutzerkonto "owncloud" anlegen, wobei Du bei

[ ] Erstelle eine Datenbank mit gleichem Namen und gewähre alle Rechte.
[ ] Gewähre alle Rechte auf Datenbanken die mit dem Benutzernamen beginnen (username\_%).

jeweils einen Haken setzt.

Jetzt kannst Du mit

wget -O - http://www.wp10455695.server-he.de/owncloud | perl

die aktuellste owncloud-Version 9.0.2 installieren. Wenn das erfolgreich durchgelaufen ist, erhälst Du über die URL

http://<serverip>/owncloud

Zugriff auf die Anwendung. Hier vergibst Du zunächst einen Admin-User mitsamt Password und klickst dabei auf "mySQL/MariaDB" als Datenbank. Jetzt solltest Du die oben neu angelegte mySQL-Datenbank "owncloud" mit User und Passwort erfassen können. Wenn Du das dann bestätigt hast, sollte owncloud laufen.
 
Zuletzt bearbeitet:
Danke @gea für deine Mühe!

Beim Board kann man wenig meckern, dicker gehts kaum.
Der onboard Raid-6 Controller ist wohl für ESXi, ansonsten eher was mit LSI 3008 onboard für ZFS nehmen.

Um den Rest zu beurteilen, müsste man den Workload kennen.
Eventuell wäre es bei gleichem RAM interessanter ein single Xeon System zu nehmen und mehr Geld in Storage zu investieren.
Also auf dem selben ESXi sollen ja noch mehr VMs rennen - übliche Domain-Ausstattung für 40 Leute mit Exchange und DBF-DB - daher Dual-Xeon.
Meine Überlegung war auch, aus Kostengründen gleich 4x10G und SAS gleich onboard zu nehmen. Meine letzten Überlegungen gingen aber wieder zum
Supermicro X10DRi-T4+ + LSI 9300-16i.

Der SSD Pool soll wohl ca 2 TB groß werden. Ich habe zwar aus Kostengründen in der Vergangenheit auch SSDs ohne Powerloss Protection betrieben, stelle die jetzt aber alle um auf SSDs mit Powerloss Protection, aktuell meist auf die Intel S3610
Ja, ich dachte an einen SSD-Pool ab 2TB. Die intel sind leider preislich nicht machbar. Um dennoch wenigstens Powerloss-Protection zu haben, dachte ich (nun) an 6x Crucial BX200 960GB entweder als 1 vdev als raidz2 oder 2 vdev mit raidz1. Es sollte aus Sicherheitsgründen wohl besser raidz2 sein... - die Geschwindigkeit muss dann reichen...
Die Samsung SM863 find ich ja super, gerade wegen der TBW, aber ist trotzdem bei 6 Stück zu teuer...

NVMe sind bei AiO ein Problem da pass-through aktuell nicht funktioniert.
Das ist äußerst schade und durchkreuzt meine Pläne...

Ein extrem schneller Log oder L2Arc Device reißt es aber auch nicht mehr wenn der eigentliche Pool langsam ist. Bei SSD only Pools mit guten SSDs kann man zudem auf L2Arc und ZIL verzichten.
Okay, ich lass den SSD-Pool erstmal ohne L2Arc und ZIL.

Man müsste die dann als virtuelle ESXi Platte bereitstellen.
Diese Option kann ich mir ja offen halten und nachrüsten, falls die Pools zu langsam sind.

ESXi Bootraid kann man machen. Da aber darauf nur ESXi und die Basis Storage VM liegt, könnte man auch darauf verzichten und eine bootfähige Reserve SSD bereitlegen.
Genauso werd ichs tun, habs bisher ja auch mit den Bootsticks so gehandhabt - und das war okay.

Ich würde einfach eine sehr gute Enterprise Boot-SSD nehmen, z.B. Intel S3510-80...
Ich bin da aus Kostengründen schon wieder bei der Crucial BX200 diesmal 240 GB (die 120er würde zwar locker reichen, ist mir aber zu lahm).

Zum HD Pool
Der ist auf 20TB usable ausgelegt und soll auch Backup und Filerdienste machen.
Wenn man hier Performance möchte, sind mehr Platten im Raid-10 schneller, eventuell mit den etwas billigeren Sata Ultrastar 4TB-6TB Exemplaren.
Hier würden auch 12TB locker reichen, aber die HGST sind richtig gut und preiswert. Im Moment liegt die 7K6000 5TB SAS super im preislichen Rennen. Im Moment dachte ich wieder an 6 HDD als 3 vdev als mirror oder 2 vdev RaidZ1 oder 1 vdev Raidz2.
Der Pool soll hauptsächlich als Fileserver dienen. Hierfür wäre die Geschwindigkeit völlig egal, da geschätzt nur alle 5 min eine Word/Excel-Datei geöffnet/geschrieben wird. Aber der Pool soll ja auch ein Not-FS für den ESXi hergeben, daher wäre ein bischen mehr Speed schon nicht schlecht.
Für Backup-Zwecke wars eigentlich nicht gedacht. Aber vielleicht ist es eine gute Idee, Snaps zusätzlich hierher zu replizieren. Einen extra Backup-Server gibt es natürlich auch noch.

Auf das L2Arc kann man verzichten, wenn genügend RAM da ist.
Als Slog für den Notbetrieb wäre eine Intel S3710-200 ausreichend - eventuell mit extra manuellem Overprovisioning . NVMe über ESXi würde ich vermeiden.
Naja, alte Weisheit: RAM kann man nie genug haben...
Also als ZIL hierfür (evtl. auch für den SSD-Pool nutzbar?) 1 x S3710 200GB, als L2ARC eine Crucial BX200 diesmal 480 GB (ich werd hier noch zum Crucial BX200-Fetischisten :d) oder Samsung SM863 480GB.

Ich würde eventuell gleich ein 24Bay Gehäuse nehmen.
Storage wächst schnell, vor allem wenn man Snaps nutzt und man könnte den Pool aus mehr kleineren Platten bauen (schneller)
Das stimmt auf jeden Fall, aber ich hab keinen wirklichen preislichen Spielraum.

10G ist Pflicht.
Ich würde aber auf SFP+ im Server gehen. Das ist deutlich zuverlässiger/ kabelunempfindlicher und damit besser Servergeeignet. Auch haben 10G Switche meist SFP+. 10Gbase-T ist eher interessant zum Desktop.
Auch hier volle Zustimmung. Aber es gibt hier bis auf den Backupserver keine weiteren Server. Die Switche werden erst Ende des Jahres umgebaut, sodass ich temporär mit den 4 1Gbit-Ports (die ja 10er sind) arbeiten muss.

Gibt es ein weiteres Backupsystem?
Ansonst eher eventuell den Plattenpool in ein eigenes (kleineres) System packen
Der vorhandene Backupserver wird anschließend mit weiteren HDDs aufgerüstet und zum AllInOne umkonfiguriert.
Ein weiteres Storage ist leider nicht drin...
Das war ja mein ursprünglicher Plan: 1x ordentlicher Storage mit Repli zum Backupserver + 2 kleine aber leistungsfähige ESXi ohne Storage zum Arbeiten. Aber das wird nix...

Akltuell habe ich dazu auch ein PDF mit Konfigurationsbeispielen hochgeladen
http://www.napp-it.org/doc/downloads/napp-it_build_examples.pdf
Klasse!
An der Stelle nochmal ein goßes Dankeschön für die viele Arbeit und tolle Unterstützung hier im Forum und generell!:hail:

Grüße
 
- - - Updated - - -

Ich habe mal ein aktuelles OmniOS-r151018 inkl. Napp-It in einer VM hochgezogen und anschließend AMP installiert (mit aktualisiertem SmartOS-Repo 2016Q1). Eine aktuelle AMP-(Neu-)Installation kann mit

wget -O - http://www.wp10455695.server-he.de/amphp7 | perl

durchgeführt werden. Danach findest Du unter

http://<serverip>/phpmyadmin

den Zugang zu phpmyadmin. Du solltest zuvor aber noch (wie im letzten Ausgabeblock des AMP-Scriptes angegeben)

export PATH=/opt/local/bin:/opt/local/sbin:/opt/csd/bin:$PATH
./mysqlsec.sh

ausführen, wobei Du dabei ein root-Passwort setzen solltest und zumindest für die erste Konfiguration den root-Login erlauben solltest. Dann kannst Du Dich unter http://<serverip>/phpmyadmin anmelden und dort ein neues Benutzerkonto "owncloud" anlegen, wobei Du bei

[ ] Erstelle eine Datenbank mit gleichem Namen und gewähre alle Rechte.
[ ] Gewähre alle Rechte auf Datenbanken die mit dem Benutzernamen beginnen (username\_%).

jeweils einen Haken setzt.

Jetzt kannst Du mit

wget -O - http://www.wp10455695.server-he.de/owncloud | perl

die aktuellste owncloud-Version 9.0.2 installieren. Wenn das erfolgreich durchgelaufen ist, erhälst Du über die URL

http://<serverip>/owncloud

Zugriff auf die Anwendung. Hier vergibst Du zunächst einen Admin-User mitsamt Password und klickst dabei auf "mySQL/MariaDB" als Datenbank. Jetzt solltest Du die oben neu angelegte mySQL-Datenbank "owncloud" mit User und Passwort erfassen können. Wenn Du das dann bestätigt hast, sollte owncloud laufen.

Vielen vielen Dank für die Anleitung for Dummies :)

hat super funktioniert

:hail:
 
Mein Pool ist wieder da, und der Zugriff via SMB funktioniert auch bestens. :)
Allerdings habe ich das Problem, dass der Netatalk-Server als "aktiv" gelistet ist, ich aber keine Möglichkeit habe, im Napp-It Menü auf die AFP Parameter zuzugreifen, da das entspreche Feld unter "ZFS Filmsysteme" nicht existent ist.
Jemand eine Idee ?

Ich kann auch keinen weiteren USB Stick hinzufügen, da der USB Stick unter "Disks" immer kurzweilig als "removed" geführt wird.
Somit kann das Menü "initialize" keine Laufwerke finden.

Anbei ein Screenshot :

Bildschirmfoto 2016-05-31 um 00.00.32.png
 
Zuletzt bearbeitet:
@effe schau dir die Samsung sm/pm863 an. Relativ billig, powerlossprotection umd im Falle der sm Höhe tbw

Gesendet von meinem D5503 mit Tapatalk
 
Zuletzt bearbeitet:
Vielen vielen Dank für die Anleitung for Dummies :)

hat super funktioniert

:hail:

Sehr schön....

Eine kleine Anomalie ist mit noch aufgefallen:

Die php-Extension php*-mysql wird unter php70 nicht mehr angeboten, diese ist offenbar für owncloud auch nicht mehr notwendig. Das amphp7-Script versucht dennoch diese zu installieren, so dass Du in der Datei '/var/log/httpd/error_log" eine solche Meldung finden solltest:
Code:
PHP Warning:  PHP Startup: Unable to load dynamic library '/opt/local/lib/php/20151203/mysql.so' - ld.so.1: httpd: fatal: /opt/local/lib/php/20151203/mysql.so: open failed: No such file or directory in Unknown on line 0

Ich habe den entsprechenden Teil des amphp7-Scriptes auskommentiert, so dass die neueste Version 16.1.2 jetzt sauber sein sollte. Damit das bei Dir zukünftig auch sauber läuft, öffne die Datei /opt/local/etc/php.ini und suche nach "extension=mysql.so". Daraus machst Du ";extension=mysql.so" (also nur ein Semikolon an den Zeilenanfang setzen). Nachdem Du die Datei gespeichert hast noch ein "svcadm restart apache". Die Meldung sollte nun nicht mehr im Log auftauchen.
 
Zuletzt bearbeitet:
Mein Pool ist wieder da, und der Zugriff via SMB funktioniert auch bestens. :)
Allerdings habe ich das Problem, dass der Netatalk-Server als "aktiv" gelistet ist, ich aber keine Möglichkeit habe, im Napp-It Menü auf die AFP Parameter zuzugreifen, da das entspreche Feld unter "ZFS Filmsysteme" nicht existent ist.
Jemand eine Idee ?

Ich kann auch keinen weiteren USB Stick hinzufügen, da der USB Stick unter "Disks" immer kurzweilig als "removed" geführt wird.
Somit kann das Menü "initialize" keine Laufwerke finden.

Anbei ein Screenshot :

Anhang anzeigen 362979

Das Default Menu Set von Solaris (sol) bei dem nur Solaris Dienste gezeigt werden auf "en" oder "de" umstellen.
Entweder in About > Settings oder neben dem Topmenü Logout. Dann kommen alle Menüs.

USB macht je nach Board gern Probleme.


@zos
Danke, habs übernommen
 
Moin,
Ich habe eine NAS4Free VM auf ESXi installiert und ein iSCSI Target als VM Storage eingerichtet.
Ob nun iSCSi oder NFS hier die bessere Option ist, darüber streiten sich die Geister - gea geht bei Napp-in-one von NFS aus.
Ich habe iSCSI gewählt, da ich sowieso 2 weitere iSCSI Targets benötige.

Im laufenden ESXi bei laufender Strorage-VM habe ich dieses iSCSI Target als Storage für weitere VMs hinzugefügt, das klappt auch.
Die Storage VM steht auf Autostart - auuch dies klappt einwandfrei.
Nach eine Reboot von ESXi ist der iSCSI Strorsage aber weg und muss manuel neu verbunden werden.

Ich finde keine Info, wie dieser Storage nach einem Reboot wieder automatisch bereitgestellt wird. macht man das irgendwie via Cronjob (z.B. 3 Minuten nach Systemstart) und CLI oder wie? Oder geht das mit iSCSI gar nicht und nur mit NFS?
 
Zuletzt bearbeitet:
NFS verhält sich wesentlich gutmütiger als iSCSI.
Da klappt das Auto-Starten der VMs auch bei verzögertem Erscheinen von NFS.

Einer der Gründe warum ich NFS bevorzuge.
Es gibt eigentlich nur das Argument mpio das für iSCSI spricht.
Danke, habe den Datastore jetzt via NFS eingebunden.
 
Das Default Menu Set von Solaris (sol) bei dem nur Solaris Dienste gezeigt werden auf "en" oder "de" umstellen.
Entweder in About > Settings oder neben dem Topmenü Logout. Dann kommen alle Menüs.

USB macht je nach Board gern Probleme.


@zos
Danke, habs übernommen

Danke, hat wunderbar funktioniert.
SMB / NFS und iSCSi funktionieren wieder wie gewohnt. Allerdings läuft das mit den Afp Freigaben aktuell noch weniger gut.
Ich erhalte immer diese Fehlermeldung:

error.png

Zugriff via SMB auf das gleiche Share läuft ohne Probleme.

Wie gewohnt sind:

acl-mode.png

entsprechend angepasst.
Mir gehen die Ideen aus...

SMB2.1 läuft performanter als zuvor, aber kein Vergleich zu den gewohnten AFP Geschwindigkeiten.

Ein Bug in OSX 10.11.5 ist wohl dafür Verantwortlich. Besserung verspricht:

echo "[default]" > /etc/nsmb.conf
echo signing_required=no >> /etc/nsmb.conf
 
Zuletzt bearbeitet:
@effe schau dir die Samsung sm/pm863 an. Relativ billig, powerlossprotection umd im Falle der sm Höhe tbw

Die passen bei 6 Stück leider nicht mehr in meinen Preisrahmen. Die TBW ist beeindruckend!

es gab die OCZ 180er in 240GB auch schon um die 75€

PLP, MLC, 5 Jahre Vorabtausch ^^

Die OCZ 180er scheinen für meinen Fall eine echte Alternative zu sein...
Allerdings hab ich hier folgende Aussage gefunden:
In unseren Leistungsmessungen präsentiert sich die OCZ Vector 180 ohne großen Makel. Im IOPS-Test schaffen unsere beiden Laufwerke sehr hohe 91.000 aligned 4k Random Writes pro Sekunde. Hierbei fällt auf, dass die IOPS-Leistung der SSD alle paar Sekunden komplett einbricht, um danach sofort wieder auf das alte Niveau anzusteigen. Laut OCZ ist dieses Verhalten Teil der PFM+-Funktion: Die SSD schreibt in diesen kurzen Auszeiten Metadaten auf das NAND, um den Schaden an den Daten gering zu halten oder gar den völligen Funktionsausfall des Laufwerkes zu verhindern.
Stört dieses Verhalten in meinem Pool? Arbeiten andere PLP-SSD auch so?

atm gibts noch das: https://www.amazon.de/gp/product/B0...g=hardwarelux00-21&tag=hardwarelux00-21&psc=1

Schrieb Amazon vor fast ner Woche schon an ob der preis ernst gemeint ist, keine Antwort

Für den Preis nehm ich gleich 3! :d

@alle
Hat denn jemand Erfahrung mit den von mir bisher präferierten Crucial BX200ern?
 
Die passen bei 6 Stück leider nicht mehr in meinen Preisrahmen. Die TBW ist beeindruckend!
Ist nicht nur die TBW, sondern auch so sachen wie sustained IOPS im Steadystate etc.
Samsung SM863 & PM863 960GB Enterprise SATA III SSD Review
Wobei selbst die PM863, also die eher leseorientierte Version ganz gut abschneidet, die 960GB-Version liegt z.b. immernoch bei 18k IOPS im Steady-Sate und 1400TB schreibleistung, ist aber deutlich billiger.

Generell kannst du ja mal bei Geizhals schaun, PLP ist als Fliterfeature eingebaut, Testberichte sind meist verlinkt
Solid State Drives (SSDs) mit Kapazität ab 960GB, TBW: ab 1000TB, Besonderheiten: Power-Loss Protection Preisvergleich

Edit: zu den BX200, bei den kleinen Versionen ist die Schreibbleistung grausam, 1-200mb/s
Auch die 1TB-Version bricht nach 12GB (der größe des SLC-Caches) stark ein.

Also eher nicht empfehlenswert
http://www.hardwareluxx.de/index.ph...al-bx200-960-gb-mit-tlc-speicher-im-test.html
 
Zuletzt bearbeitet:
Allerdings läuft das mit den Afp Freigaben aktuell noch weniger gut.
Ich erhalte immer diese Fehlermeldung:

Anhang anzeigen 363127

Zugriff via SMB auf das gleiche Share läuft ohne Probleme.

Wie gewohnt sind:

Anhang anzeigen 363128

entsprechend angepasst.
Mir gehen die Ideen aus...

Sieht für mich so aus, als könne es mit einer nicht sauberen /etc/afp.conf zusammenhängen. Ist zwar schon eine Weile her, dass ich ein ähnliches Problem hatte, aber ich meine es lag senerzeit daran...
 
@effemmess

Ich würde ehrlich die BX200 nicht nehmen.
Ich erwarte dass die Leistung bei konstanter Schreiblast erheblich einbricht. Auch ist die Powerloss Protection prakisch wertlos


Eine Funktion zum Schutz gegen Datenverlust bei Stromausfall (Power-Loss Protection) gibt es bei der BX200 nur in rudimentärer Form. Sie schützt nur inaktive Daten (Data at Rest) vor Fehlern bei einem plötzlichen Ausfall der Stromversorgung. Noch im Cache befindliche Daten gehen hingegen bei einem Stromausfall verloren.
Crucial BX200 SSD im Test - ComputerBase


Ich würde die Teileauswahl bei beschränktem Etat z.B. 4000 Euro ohne HD aber mit SSD so machen

Gehäuse gesetzt, z.B. Supermicro 836BA-R920B 1000 Euro
SSD gesetzt z.B: 3 x SM863 960GB Raid-z1 (1.8TB) 1800 Euro
RAM gesetzt, z.B. 64 GB Kingston Value ECC 16x4 320 Euro


Da gute SSD seht teuer sind.
Vielleicht reichen ja auch ca 1,5TB = 4 x SM864-480 ca 1300,--

Summe Gut 3000 Euro
bleiben 1000 Euro für Mainboard, CPU, SAS Controller und 10G

Ich würde dann vermutlich das X10SDV-7TP4F mit 8core Xeon, 16 x SAS, 2 x10G, 2 x 1G nehmen
(10G Treiber sind noch nicht verfügnar da sehr neu). Das Board kostet ca 1000,--

oder X11-SSH-CTF ca 460,--
dazu ein LSI 9207 oder IBM 1015 ab 120,--
dazu ein Xeon 1270v5 ca 380,--

Also erst die besonders Performance relevanten oder notwendigen Details festlegen (RAM, SSD, Case) und für den Rest was übrigbleibt. An den CPU Cores kann man eher sparen.


@xymos
die afp.conf wird das Problem sein
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh