[Sammelthread] ZFS Stammtisch

..

Die Frage ist, wie ich am besten wegkomme. Im Prinzip gibt es folgende Varianten:

1. Zusätzliche 120GB SSD kaufen für Raid Z Pool anstatt Raid1 Pool ==> U.a. bessere Writeperformance; Kosten: 45 EUR
2. Zwei neue 120GB SSDs kaufen und zusätzlichen Raid1 Pool erstellen ==> Kosten: 90 EUR
3. Die zwei verbauten 120GB SSDs verkaufen und dafür zwei neue 240GB SSDs kaufen ==> Ich ärgere mich, warum ich nicht gleich die unwesentlich teureren 240GB Modelle gekauft habe.

Was ist hier gerade im Hinblick auf Performance sinnnvoller für Betriebssysteme?


Danke.

Raid-Z ist mit SSD wegen der hohen iops Werte durchaus ok, Raid-10 dennoch etwas schneller.
Ich würde die Variante wählen, die einen weiteren Ausbau am einfachsten ermöglicht (z.B. max SSD Anzahl). Speicherbedarf wächst ....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Raid-Z ist mit SSD wegen der hohen iops Werte durchaus ok, Raid-10 dennoch etwas schneller.
Ich würde die Variante wählen, die einen weiteren Ausbau am einfachsten ermöglicht (z.B. max SSD Anzahl). Speicherbedarf wächst ....

Dann gehe ich wohl auf Raid Z mit einer zusätzlichen SSD, dass erscheint mir zumindest relativ einfach & kostengünstig. Raid10 habe ich noch gar nicht auf dem Schirm gehabt, nur 2x RAID1 Pool.

Noch eine Frage: Bei mir läuft alles auf einem Host über eine 1Gbit Ethernet Schnittstelle. Speicher stelle ich via NFS dem ESXi Host bereit (Dell Perc IT Modus Controller). Gehen wir einfach mal davon aus, dass ein zur Verfügung gestellter Pool bei mir 500MB/s Read schafft. Wenn jetzt eine VM auf den Pool zugreift, ist dann die maximale Bandbreite nur 1Gbit/s , also ca. 125MB/s? Oder ist der Host so "intelligent" und routet alles intern (localhost IP Adresse)?
 
Der rockt intern was die Hardware (CPU, controller, Platten) hergibt.
 
Hat wer Ahnung ob bzw. hat evtl. schon den SAS Controller (LSI 2308) auf dem Board "ASRock Rack E3C224D4I-14S" in den IT-Modus geflasht? Was ich im Netz darüber gefunden habe, kann ich nicht richtig deuten.
Oder läuft Solaris/Omnios auch so? Es wäre halt für mich das ideale Brett für ein Q26 Gehäuse.
 
Ich hatte das Board noch nicht.

Prinzipiell unterstützt Solaris/OmniOS 2308 HBAs auch mit IR- Raid 1/10 Firmware
Prinzipiell sollte auch ein Flashen mit IT-Mode Firmware (LSI 9207) möglich sein.
 
Zuletzt bearbeitet:
Ich habe versucht napp-it ToGo auf einem HP N36L zum Laufen zu bekommen, doch leider stürzt jedes mal der Rechner ab.

Ich habe mit Clonezille das "2016-04-18-14-img18-SMX11-SSH-60GKingston-v300-512n" Image auf einer SanDisk 120GB SSD Plus Festplatte installiert. Es zeigt mir den OmniOS Bootscreen an (also schwarzer Screen mit dem "Vogel" rechts unten) ohne irgendeinen Text und dann kommt plötzlich der Absturz des Rechners. Hat jemand eine Idee?
 
Man sollte nach Möglichkeit die SSD nehmen von der das Image gezogen wurde, hier also eine Kingston 60GB.
Andere SSDs können, müssen aber nicht funktionieren. Meistens geht die SSD dann auf jedem Board, aber auch nicht immer.

Also einfach ganz normal eine manuelle Installation machen.
Dann kann man dieses per Clonezilla bei Bedarf als Backup wegsichern.
 
Jetzt mal Butter bei de Fische, wie der Norddeutsche sagen würde, was ist wirklich dran an dieser 1GB RAM pro TB Storage? Gibt es dazu irgendwelche Messdaten oder Belege für diese Daumenregel?

Ich selbst möchte meiner FreeNAS VM 20GB RAM zuweisen bei 6x6TB Raidz1 + 1x80GB L2ARC + 1x1x40GB ZiL -> 2GBit (bonded)

ZFS Parameter: compression=lz4 + encryption, no other fancy shit

Sollte die Performance dabei wirklich so stark einbrechen? Mit welcher Übertragungsrate kann ich ungefähr rechnen?
 
Zuletzt bearbeitet:
Man sollte nach Möglichkeit die SSD nehmen von der das Image gezogen wurde, hier also eine Kingston 60GB.
Andere SSDs können, müssen aber nicht funktionieren. Meistens geht die SSD dann auf jedem Board, aber auch nicht immer.

Also einfach ganz normal eine manuelle Installation machen.
Dann kann man dieses per Clonezilla bei Bedarf als Backup wegsichern.

Vielen Dank :-)
 
Jetzt mal Butter bei de Fische, wie der Norddeutsche sagen würde, was ist wirklich dran an dieser 1GB RAM pro TB Storage? Gibt es dazu irgendwelche Messdaten oder Belege für diese Daumenregel?

Ich selbst möchte meiner FreeNAS VM 20GB RAM zuweisen bei 6x6TB Raidz1 + 1x80GB L2ARC + 1x1x40GB ZiL -> 2GBit (bonded)

ZFS Parameter: compression=lz4 + encryption, no other fancy shit

Sollte die Performance dabei wirklich so stark einbrechen? Mit welcher Übertragungsrate kann ich ungefähr rechnen?

Die Regel bezieht sich auf Dedub. Rest erklärte gea schon mal hier:
http://www.hardwareluxx.de/community/f101/zfs-stammtisch-570052-282.html#post24969517
 
Hallo alle zusammen.

Ich habe zur Zeit folgendes System als mein Backup Server:

ASUS M4A89GTD PRO mit AMD Phenom(tm) II X6 1090T und 16GB ECC Speicher
dazu dann zwei HBA in den GraKa slots (Onboard SATA ist ausgeschaltet)
1x Intel SASUC8I (IT geflashed) mit der Boot SSD
1x HP H220 (HBA) mit 8x 8TB Seagate Archive

Jetzt sieht es so aus das einer der zwei GraKa slots ausgefallen ist, also läuft jetzt nur noch ein Controller.
Der Wechsel der Boot SSD auf internen SATA geht nicht da dann die Controller nicht mehr geladen werden (Controller Firmware ins BIOS oder so).

Daher dachte ich das ich auf einen USB Stick als Bootoption wechseln könnte. Jetzt müsste ich nur wissen was ich dann von SSD > USB kopieren muss, vor allem bezüglich der Aufgaben meiner Replication. Ich würde es gerne vermeiden nochmals die 40TB Nutzdaten über 1GB kurbeln zu müssen.

Oder kann ich einfach SSD Inhalt auf USB Stick kopieren und dann davon booten? Wenn ja wie wäre es am geschicktesten gemacht?

Als Stick dient ein Sandisk Extreme USB 3.0 mit 32GB, ein gleicher dient in meinem NAS als OS Laufwerk.

EDIT: Boot SSD ist 40GB, 12GB allocated
 
Zuletzt bearbeitet:
Hat einer von euch das neue macOS mit omnios im einsatz? Funktioniert das Problemlos? Speziell das timeMachine Backup soll ja smb 3 voraussetzten.
2) Unter samba gibt es die möglichkeit apples spotlight für die suche zu integrieren (https://wiki.samba.org/index.php/Spotlight), gibt es ähnliches auch für den smb server/client auf omnios? Als mac user ist quasi keine suche auf den Netzlaufwerken möglich oder?


Gesendet von iPad mit Tapatalk
 
Timemachine unter OSXi 10.12 hat ganz spezielle Anforderungen damit das unter SMB direkt geht
https://developer.apple.com/library...pec/index.html#//apple_ref/doc/uid/TP40017496

Mit den bisherigen Tricks wird es aber auch unter NFS oder SMB gehen.

Spotlight wird unter Solaris wohl auch nur gehen wenn man netatalk oder SAMBA installiert.
Ich denke nicht, das Oracle oder Nexenta das in den Solaris SMB Server einbauen (Kein Zielmarkt)
 
Zuletzt bearbeitet:
Oder einfach AFP nutzen. lüppt bei mir problemlos :)

Sent from my Nokia 6110 using Tapatalk
 
hi,

Ich bin gerade auf der Suche nach einer Lösung für Storage (zfs) und Virtualisierung (kvm style) - habe dafür einen dell t130 beschafft und etwas aufgerüstet.

1x 16 GB RAM (später mehr)
PCIe bootlaufwerk 256 GB
2x 3 TB intern (HGST Disks)
2x 512 GB intern (Samsung SSD)

4x 3 TB (HGST in esata extern - 4 fach jbod) kommt wenn OS feststeht

Ist für Home use - Storage, Media Server - Box für Development (remote Display / X11). Ich habe lange mit Linux (ab version 0.96) , BSD und Solaris gearbeitet. Eines davon soll es werden. Erste Wahl wäre für mich im Moment illumos (openindiana) - wo später die eine oder andere Linux / BSD VM laufen müsste. Joynet hat mit Smartos wohl die Voraussetzungen geschaffen das effizient und auch sicher zu gestalten. Ich möchte auf keinen Fall eine 'fette' Lösung - wie virtualbox oder vmware.

Zur Frage ...

FreeBsd install war komplett problemlos , Linux auch. Openindiana kommt bis zur Auswahl des Keyboards (language) dann ist Schluss - der erkennt kein Keyboard - egal welcher usb port. Vieleicht hat jemand eine Idee (T130 mit openindiana issue mit -latest iso) oder auch zur Auswahl der Solaris Distro. ZFS ist super wichtig und eine effiziente Virtualisierung die minimal Linux unterstützen muss.
 
Falls das Problem sich nicht löst, kannst du mal einen Blick auf Proxmox werfen. ZFS und LXC.
 
Illumos unterstützt (noch) kein USB3 oder USB3 XHCI Controller.
Vermutlich ist die Tastatur an einem USB3 Port angeschlossen.

Unter einem SuperMicro X11 Board hatte ich das Problem auch schon.
Da musste ich sogar im Bios auf Windows7 Modus für USB Keyboards umschalten.

Ansonsten ist OpenIndiana sicher nicht die erste Illumos Wahl wenn es um Virtualisierung unter Solarish geht sondern SmartOS von Joyent/Samsung. OmniOS ist gerade dabei, Solaris LX branded zones (Linux Container) von SmartOS zu integrieren. Das könnte richtig interessant werden insbesondere da OmniOS für Storage eine bessere/ erstklassige Option ist.

vgl
https://forums.servethehome.com/ind...ncludes-lx-support-from-joyent-smartos.11577/
 
Zuletzt bearbeitet:
hi,

Danke für die Hinweise - auf Proxmox und und smartos. Sobald Illumos usb 3 support hat mach ich einen weitere Solaris Versuch. Im Moment sieht es so aus, als sei FreeBSD die beste Option für den T130 . Full Hardware supported out of the box - zfsroot support und bhyve (hypervisor).
 
Hi Leute,

ich interessiere mich für napp-it unter Linux. Ich bin mir nicht sicher, ob ich hier richtig bin, falls nein, verzeiht mir bitte und schiebt mich gerne mit einem Link an eine bessere Stelle ;-)

Ich will ZFS für meinen Linux-Server und bin daher auf napp-it gestossen. Auf einem Testsystem hab ich das am Laufen und bin sehr angetan. So weit alles gut, nur die Auto-Services bekomme ich nicht ans Laufen (Scrub). Einen Job hab ich angelegt, aber der napp-it auto-service bleibt immer disabled.
Ich bin mir nicht sicher, ob das unter Linux gehen sollte (denke schon) und ob das eine Pro-Funktion ist oder Teil einer (Monitor) Extension?
Ich komme mit den Features und Lizenzen leider nicht so ganz klar, obwohl ich mich echt bemüht hab. Das ganze für Linux ist noch mal deutlich schwieriger ;-)

Danke schonmal ;-)
 
In früheren Versionen von napp-it hatte ich den cron job noch mitinstalliert.
Linux ist aber ein so weites Feld und jede Distribution funzt anders, dass ich jetzt dem User Überlasse.

Man muss je nach Distribution folgendes als root Cronjob starten (z.B. alle 5 Minuten)
perl /var/web-gui/data/napp-it/zfsos/_lib/scripts/auto.pl

Die Extensions machen unter Linux wenig Sinn da unter Linux höchstens 40% der Funktionalität der Solaris Version verfügbar ist. Napp-it Free ist da die Lizenz der Wahl.

Als Option könnte man
- ESXi nehmen und alle OS/Systeme inkl. Storage virtualisieren
(und dann Solaris/ OmniOS für Storage nehmen)

- OmniOS und Linux Container im Auge behalten.
Das wird gerade vom SmartOS nach OmniOS portiert.
 
Vielleicht als Feedback von einem, der das auch erst mit Linux gemacht hat (weil ich das halt kannte und online so gut dokumentiert ist wenn man dann doch mal Neuland betritt): bin aufgrund der sehr eingeschränkten Verwaltbarkeit dann doch weg von Linux hin zu Solarish für alles rund um Storage und schaue nicht zurück. Wenn ZFS dann kann man eben auch die anderen Vorteile von ZFS unter Solarish mitnehmen (Stichworte Samba vs. Solarish-"Onboard" inkl. "vorherige Version", Replikation und und und... die Einarbeitung in Solarish fällt einem Linuxer m.E. recht leicht und der Komfortgewinn Nappit+Solarish ist immens. Ja, unter Linux geht im Zweifel auch alles irgendwie, ist aber eben viel (mehr) Handarbeit.

Die anderen (nicht primär storagebezogenen) Dienste kann man ja dann in einem Linux (-VM) lassen. Habe ich auch so zum Beispiel für VPN.
 
Ich bräuchte mal Eure Einschätzung bzgl. Abbau meines Backupservers:

Aktuell sichere ich jeden Tag meine ZFS Pools (liegen auf Raid-Z1 & einmal auf Mirror) auf einen Backupserver, der neben dem Fileserver (napp-it) steht (kleine Wohnung).

Gea hat ja schon oft erwähnt das ein Backup altes Brot ist und wenn man nicht aufpasst, es schimmlig wird.

Deshalb bin ich am überlegen ob ich nicht meinen Fileserver "sichere" mache mit einem RAID-Z2 Pool (4 HDDs). Den Backupserver würde ich dann verkaufen und Backups nur noch auf externe USB HDDs machen (kann man problemlos örtlich auslagern).

Ich stelle ehrlich gesagt ein wenig den Sinn des Backup Servers in Frage. Er ist im selben Brandabschnitt und hängt dauernd an der Stromleitung (wird via WOL aufgeweckt). Gut, ich habe immer ein halbwegs aktuelles automatisches Backup, aber kann ich dies nicht auch über eine externe HDD realisieren? Stell mir das so vor, dass eine externe HDD dauernd am Server angeschlossen ist und täglich automatisch ein Backup eingespielt wird. Die HDD soll dann nach dem Backup in den Spindown gehen. Kann dies napp-it bzw. OmniOS? Zusätzlich würde ich dann manuell Backups auf externe HDDs machen.

Ich habe im Prinzip nur einen sehr kleinen Bestand an sich ändernden Daten, diese backup ich ohnehin täglich bei einem Cloudanbieter.
 
Ein Backupsystem am gleichen Ort ist "suboptimal".
Man hat zwar noch Daten wenn der Pool komplett ausfallen sollte, bei einem Raid-Z2 wo 2 Platten ausfallen dürfen ist das aber ziemlich unwahrscheinlich. Eher wahrscheinlicher ist ein Brand, Blitzschlag oder Diebstahl und da ist das Backup auch futsch.

Jeweils einen Pool auf einer von mehreren (wenigstens 2) Wechselplatten (USB oder Sata/eSata) anlegen, darauf mit zfs send täglich inkrementell sichern und den nach einiger Zeit umlaufend z.B. wöchentlich oder monatlich austauschen und woanders lagern ist da wohl sicherer.

OmniOS unterstützt Spindown, man muss aber eventuell den Fault Management Daemon (fmd service) ausschalten. Dann gibts aber keine automatische Fehlererkennung und Hotspare mehr.


Übrigens
Es gibt ein Update zu OmniOS 151019 bloody


Aus der Mitteilung von OmniTi

"I hope this is the bloody that will form the r151020 branch. Please note that because of the sheer volume of upstream illumos-gate activity, we froze pulls from -gate early this time, early enough to not include BSD Loader and Python 2.7 support. A few cherrypicks may happen pre-020, and a couple have already happened:

- illumos 4498, update ACPI to version 6.x
- A series of nvme and blkdev fixes culminating in illumos 7382, basic NVMe 1.1 support.

uname -v says omnios-master-2f9273c, corresponding to the illumos-omnios:master commit, and omnios-build is at commit 8d79e11. This is likely to be where we branch r151020."

Wichtig vor allem der Update bei NVMe
 
Zuletzt bearbeitet:
Ein Backupsystem am gleichen Ort ist "suboptimal".
Man hat zwar noch Daten wenn der Pool komplett ausfallen sollte, bei einem Raid-Z2 wo 2 Platten ausfallen dürfen ist das aber ziemlich unwahrscheinlich. Eher wahrscheinlicher ist ein Brand, Blitzschlag oder Diebstahl und da ist das Backup auch futsch.

Jeweils einen Pool auf einer von mehreren (wenigstens 2) Wechselplatten (USB oder Sata/eSata) anlegen, darauf mit zfs send täglich inkrementell sichern und den nach einiger Zeit umlaufend z.B. wöchentlich oder monatlich austauschen und woanders lagern ist da wohl sicherer.

OmniOS unterstützt Spindown, man muss aber eventuell den Fault Management Daemon (fmd service) ausschalten. Dann gibts aber keine automatische Fehlererkennung und Hotspare mehr.


Übrigens
Es gibt ein Update zu OmniOS 151019 bloody


Aus der Mitteilung von OmniTi

"I hope this is the bloody that will form the r151020 branch. Please note that because of the sheer volume of upstream illumos-gate activity, we froze pulls from -gate early this time, early enough to not include BSD Loader and Python 2.7 support. A few cherrypicks may happen pre-020, and a couple have already happened:

- illumos 4498, update ACPI to version 6.x
- A series of nvme and blkdev fixes culminating in illumos 7382, basic NVMe 1.1 support.

uname -v says omnios-master-2f9273c, corresponding to the illumos-omnios:master commit, and omnios-build is at commit 8d79e11. This is likely to be where we branch r151020."

Wichtig vor allem der Update bei NVMe

Danke gea, dann werde ich wohl den Backupserver abbauen. Theoretisch könnte ich den Backupserver bei meinen Eltern lagern, aber ich will ehrlich gesagt ungern private Fotos etc. übers Netz schicken (auch wenn verschlüsselt).

Ansonsten bin ich schwer begeistert von OmniOs in Kombination mit napp-it. Läuft absolut stabil und macht absolut keine Problem!
 
@gea

wie groß ist das OmniOS? Wieviel Platz sollte ein USB-Stick haben (HP Gen8)? Leider finde ich keine technischen Voraussetzungen auf der Seite zum Download.

Thomas
 
Vielleicht hilft dir das weiter:

2b. Install on Hardware:
You can install Omni + napp-it onto Sata or fast USB sticks >=32 GB)
If you use USB, use reliable/fast sticks, best are USB enclosures with an 2,5" Sata SSD

https://napp-it.org/downloads/omnios.html
 
Danke gea, dann werde ich wohl den Backupserver abbauen. Theoretisch könnte ich den Backupserver bei meinen Eltern lagern, aber ich will ehrlich gesagt ungern private Fotos etc. übers Netz schicken (auch wenn verschlüsselt).

Ansonsten bin ich schwer begeistert von OmniOs in Kombination mit napp-it. Läuft absolut stabil und macht absolut keine Problem!
| gzip | openssl enc -aes-256-cbc -a -salt
Mit passend langem PW praktisch unknackbar ( da sym enc gilt das sogar in einem Post Quantum pc Szenario )

Gesendet von meinem ZTE A2017G mit Tapatalk
 
Moin, ich brauch mal Eure Meinung.
Mein Pool bestand bisher aus 4x3tb raidz1. Nun ist eine Platte nicht mehr gut in Schuss. Also wird sie gerade vorsorglich gegen eine notgedrungen besorgte 6tb ausgetauscht.
Leider hab ich es bisher versäumt meinen pool zu vergrößern und so ist er bis auf 900gb gefüllt.
Ich könnte jetzt noch 3 weitere 6tb platten kaufen, das liegt aber nicht im budget. Max 1 weitere wäre noch drin.
Ich hab aber die Option die Daten auszulagern, den pool zu zerstören und das ganze neu anzulegen. Wie würdet ihr vorgehen?

Gesendet von meinem SM-N9005 mit Tapatalk
 
Daten auslagern und Pool neu anlegen ist die Option um einen Pool um eine Platte zu vergrößern.
Ich würde dennoch gleich 2 Platten nehmen und ein Raid-Z2 machen. Man schläft einfach besser....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh