[Sammelthread] ZFS Stammtisch

Mir ging es durchaus um das Solaris Release/die dafür vergebene Nummer. Ich wollte einfach gleich das aktuellste ISO installieren. Mein Direktlink von oben zeigt aber schon auf die Beta 3 ISO, wie ich mittlerweile festgestellt habe.
Mich hatte nur der Dateiname /11.4beta1/sol-11_4-beta1-text-x86.iso irritiert. Beim Booten steht aber direkt "Booting 'Oracle Solaris 11.4 B3'"

Grüße
Martin
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da irritierende ist dass die zweite veröffentlichte Beta eben B3 ist und Oracle auf der Downloadseite keine Releaseinfo hat.
 
Ist es mit dem Solaris Kernel CIFS Server möglich, eine dynamische Benutzer-Freigabe zu erstellen?
Damit meine ich einen Share z.B. HOME, der für jeden Benutzer individuell ist, aber immer gleich heißt.
Ich vermute, das ist nicht möglich, oder?
 
Zuletzt bearbeitet:
Profitiert zfs eher von Takt oder von cores? Bin am überlegen, ob ich mein Opteron 3280 als Filer einsetzen soll und als proxmox-server eher was wie n dell r210-ii holen soll. CPU-Stromsparen muss man ja wohl per hand irgendwie aktivieren? Funktioniert spindown? Tendiere zwischen nas4free und freenas. Möchte erst nach und nach den Pool erweitern. Hier geht es mir primär um Datendurchsatz und Kapazität, Integrität ist jetzt nicht soooo wichtig, da vom wichtigsten eh Backups existieren.

Ist der Opteron 3280 dafür ausreichend?

Was ich machen möchte: als Speichergrab für Mediendateien, als VM-host (nur um die Rechenleistung bei encodiervorgängen zu beschleunigen) und als installationsort für VMs und Windows (10Gbit).
Aktuell habe ich einen A10-6800k mit non-ecc RAM als Fileserver mit openmediavault mit snapraid und mergerfs auf 3TB 3.5" hdds.
Da diese Festplatten etwas zu viel Strom fressen, sollen es viele kleinere 1TB 2.5" werden in zfs für mehr Durchsatz.
Der Opteron ist aktuell mein proxmox-server für n Dutzend LXC, jedoch dafür total oversized. Windows VMs laufen da zwar auch sporadisch, da ich aber mit GPU-Passtrough das auf eine weitere Maschine auslagern will z.B. auf den dann freiwerdenden A10 oder gar auf n FX-8300 (damit die GPU nicht immer Strom verbraucht), sind 8 Kerne für n paar LXC zu viel. Auch benötige ich etwas mehr Bandbreite, weshalb ich ZFS ins Auge fasse.
 
Danke Dir erstmal. Ein Mapping für root auf /root habe ich hinbekommen. Am Mapping für die anderen Benutzer scheitert es gerade noch. Sehe die Freigabe, aber komme nicht drauf. Ob es daran liegt, dass deren Home Verzeichnis auf einem bestehenden Share liegt oder ob es an den Berechtigungen hapert, muss ich noch eruieren.
Wenn ich root testweise mal auf den gleichen Share mappe, werde ich es sehen. Werde das die Tage mal testen.
 
Tty.c: loadable library and perl binaries are mismatched (got handshake key 9e00080, needed 9e40080)

Bekomme diese Fehlermeldung wenn ich in der WebGui auf "Pools" oder ""ZFS Filesystems" klicke.
Einzige Veränderung war in letzter Zeit ein Update auf die aktuelle Version (26) und dass ich eine USB Platte dran gesteckt habe.
 
Zuletzt bearbeitet:
napp-it unterstützt OmniOS 151026 ab 18.01 (April 02)

Nach dem Update muss man sich in napp-it aus/einloggen.
Wenn nach dem Update der Fehler mit der Perl-Bibliothek bleibt, das Update nochmal laden.
 
Kann man mit napp-it auch den rpool produktiv nutzen? Ich habe Solaris auf eine eingebaute Platte installiert. Die zweite Platte habe ich dann als Mirror hinzugefügt.
Anlegen kann ich ZFS Filesystems aber nur auf einer dritten Platte, die extern dranhängt.
Bedeutet das im Umkehrschluss, dass ich Solaris und napp-it zwingend auf einen Stick o.ä. installieren muss, wenn ich die zwei internen Platten produktiv für SMB Shares, NFS usw. nutzen will?
 
Kurz gesagt: Ja.
 
Vom OS aus gesehen: ja, für napp-it eher nein (ausser man macht die Shares auf der Console)

Prinzipiell ist rpool ein normaler ZFS Pool auf dem man Dateisysteme anlegen und sharen kann (könnte). Man kann rpool auch spiegeln und bei einigen Systemen (aktuelles OmniOS, BSD) kann man auch einen Rpool auf einem Raid-Zn anlegen.

Es ist aber dennoch so, dass man System und Daten trennen sollte, zumindest bei etwas professionelleren Anwendungen. Napp-it selber geht auch davon aus und unterstützt viele Features nur auf einem Datenpool nicht auf rpool. Der Systempool muss auch rpool heißen.

Früher ging das auch gar nicht anders. Wenn ich mal Zeit finde werde ich das vielleicht ändern um die Möglichkeiten eines aktuellen OmniOS abzudecken. Das greift aber an sehr vielen Stellen in das Management ein.

Solaris oder genauer gesagt der Bootmanager Grub unterstützt nach wie vor nur Mirror. Mir ist zumindest nicht bekannt dass Oracle da was ändert.
 
Ist aber kein Beinbruch bei nem gescheiten USB Stick mit wear leveling wie zB Sandisk Extreme Pro
 
Gibt es eigentlich einen schnellen Weg alle Snapshots eines ZFS Datasets mit auf einen neuen Pool zu nehmen?


Note that the first argument (snap1) is the earlier snapshot and the second argument (snap2) is the later snapshot. In this case, the newtank/dana file system must already exist for the incremental receive to be successful.
Was ist mit earlier und later gemeint? Meint earlier den älteren Snapshots? Oder derjenige der vom jetzigen Zeitpunkt ausgesehen noch net so lange her ist?
 
Bei nem kompletten Pool inkl. allem (Snapshots und aller Datasets):

zfs snapshot -r pool_A@migrate
zfs send -R pool_A@migrate | zfs receive -F pool_B

Bzw. so wenn du den Fortschritt live sehen willst: zfs send -Rv pool_A@migrate | zfs receive -F pool_B
 
Dann halt nicht pool sondern pool/filesystem als Quelle für die rekursive Replikation
 
Mit Rekursiv sind doch immer nur die darunter liegenden Filesysteme gemeint dachte ich?
Steh grad auf dem Schlauch. Meinte Rekursiv jetzt auch die Snapshots?
 
Rekursiv bedeutet inkl darunter liegender Dateisysteme.
Damit das aber inkrementell keine Probleme macht (wg neuen oder gelöschten Dateisystemen) werden die Snaps repliziert.

Einfach mal ausprobieren ob das Ergebnis so ist wie gewünscht.
 
Glaube Rekursiv ist der falsche Befehl.

Habe einen Snapshot erstellt den nach ssdpool/test123 gesendet und anschließend folgenden Befehl eingegeben:

zfs send -I tank/test123@2018.05.17.17.47.21 tank/test123@2018.05.17.18.02.41 | zfs receive ssdpool/test123

Jetzt sind auch die Snapshots am Ziel die zwischen den beiden angegeben Snapshots erstellt worden sind.

Müsste doch korrekt sein oder?
 
Zuletzt bearbeitet:
Ist aber kein Beinbruch bei nem gescheiten USB Stick mit wear leveling wie zB Sandisk Extreme Pro

Hab ich was verpasst? Extreme 32, 64 und Extreme Pro 128 kann man mit normaler Nutzung in die Knie zwingen. Das Contröllerchen dadrin hat am Anfang zwar viel Dampf, aber wehe man nutzt das Teil intensiv.

Ja, definitiv lieber nehmen als Sticks vom Grabbeltisch.
Nein, definitiv nicht nehmen, wenn man auch echte SSDs verbauen kann. Und seien sie noch so billig. Vertex2 40GB :hust:
 
Hast Du die eigentliche Fragestellung gelesen? Es ging nicht darum, das "Teil intensiv zu nutzen". Es ging darum, ein Solaris mit napp-it von dort laufen zu lassen. Da passiert nach dem Booten fast nichts auf dem USB-Stick.

Meine Frage wurde beantwortet, vielen Dank!
 
Zuletzt bearbeitet:
Hab ich was verpasst? Extreme 32, 64 und Extreme Pro 128 kann man mit normaler Nutzung in die Knie zwingen. Das Contröllerchen dadrin hat am Anfang zwar viel Dampf, aber wehe man nutzt das Teil intensiv.

Ja, definitiv lieber nehmen als Sticks vom Grabbeltisch.
Nein, definitiv nicht nehmen, wenn man auch echte SSDs verbauen kann. Und seien sie noch so billig. Vertex2 40GB :hust:

Es wurd auch nirgendwo gesagt dass eine SSD nicht vorzuziehen ist. Aber was wenn man nur einen SATA Port benötigt?
Ferner geh vielleicht auch mal auf die Seite von Sandisk
Solid State USB Flash-Laufwerk

Das SanDisk Extreme PRO USB 3.1 Solid State Flash-Laufwerk bietet die Leistung, Kapazität und Zuverlässigkeit einer SSD in einem vollständig mobilen USB Flash-Laufwerk.
Das Teil ist quasi ne SSD nur mit nem USB Anschluss.
Zumal auch nicht gesagt wurde dass man da jetzt 5 VMs gleichzeitig drauf betreiben soll sondern es war nur als Alternative zusehen wo man das OS drauf installiert wenn man keinen Sata Port zur Verfügung hat.
 
Zuletzt bearbeitet:
Das ist lieb von Euch, dass ihr euch weiter Gedanken macht, aber meine Frage ist wirklich beantwortet.
Es geht dabei um einen kleinen ungenutzten 1HE Supermicro Atom. Der soll nichts weiter machen, als an einem anderen Ort einmal die Woche Proxmox Backups auf die internen Platten zu empfangen und gelegentlich auf die externe Platte Snapshots anzufertigen, weil der Platz auf den internen Platten begrenzt ist. Wenn der USB-Stick die Grätsche macht, ist das System in einer Stunde wieder aufgesetzt. Wenn der ganze Server in Flammen aufgeht, weine ich ebenfalls nicht. Es handelt sich dabei nur ums Backup vom Backup vom Backup.
 
@Martingo

Im zweifel könnte man auch eine m.2 Sata SSD nach Wahl und ein entsprechendes m.2 USB-Stick - Gehäuse nehmen, wenn man den Platz hat, da die ja doch etwas größer sind.

z.B
Silverstone SST-MS09C externes M.2-SATA-SSD Gehäuse silber 4710007225424 | eBay

Könnte man, aber einen Vorteil sehe ich nicht wenn man das auch direkt mit einem Gerät erreichen kann. Ich denke ein moderner "HighEnd" Stick ist im Grunde sowieso doch dasselbe wie eine "externe" USB SSD.

Mein Sandisk Extreme Pro läuft immer noch obwohl der "nur" 16GB groß ist und schon locker über 2TB drauf geschrieben wurde. Kann man ja mit CrystalDiskInfo auch auslesen, wie bei klassischen SSDs. Nen 16GB billig USB Stick den ich auch mal benutzt habe war nach etwa einem Jahr defekt.

Wollte nur ne Empfehlung für den Stick aussprechen falls man was in der Richtung sucht. Irgendwo in einem Sandisk Forum hatte ja auch mal ein Mitarbeiter behauptet dass sämtliche Produkte über Wear Leveling verfügen von denen.
Ist ja nicht so dass sich da in den letzten Jahren bei USB Sticks und SD Karten überhaupt nix getan hat.
 
Zuletzt bearbeitet:
Vom OS aus gesehen: ja, für napp-it eher nein (ausser man macht die Shares auf der Console)

Prinzipiell ist rpool ein normaler ZFS Pool auf dem man Dateisysteme anlegen und sharen kann (könnte). Man kann rpool auch spiegeln und bei einigen Systemen (aktuelles OmniOS, BSD) kann man auch einen Rpool auf einem Raid-Zn anlegen.

Es ist aber dennoch so, dass man System und Daten trennen sollte, zumindest bei etwas professionelleren Anwendungen. Napp-it selber geht auch davon aus und unterstützt viele Features nur auf einem Datenpool nicht auf rpool. Der Systempool muss auch rpool heißen.

Früher ging das auch gar nicht anders. Wenn ich mal Zeit finde werde ich das vielleicht ändern um die Möglichkeiten eines aktuellen OmniOS abzudecken. Das greift aber an sehr vielen Stellen in das Management ein.

Solaris oder genauer gesagt der Bootmanager Grub unterstützt nach wie vor nur Mirror. Mir ist zumindest nicht bekannt dass Oracle da was ändert.

Das würde aber doch Sinn ergeben um OS und VMs /LXZones gemeinsamm auf einem Mirror Pool abzulegen. So würde man sich die seperate SSD sparen können für VMs, bzw könnte einen einzigen Mirror Pool sowohl fürs OS als auch VMs benutzen.
 
Zuletzt bearbeitet:
Prinzipiell ist das auf der Todo Liste so wie auch beliebige Poolnamen für den Systempool und Shares auf rpool.

Die Grundphilosophie ist aber:
Auf rpool gehört absolut nichts wichtiges das man sichern müsste. Wenn die Systemplatte ausfällt, so sollte eine Neuinstallation + Pool Import das Standardverfahren sein um das Storage innerhalb von wenigen Minuten nach System Totalcrash wieder lauffähig zu haben. Je mehr man auf die Systemplatte legt, desto aufwändiger wird ein Restore nach Crash, bis hin zur Notwendigkeit von Backup und Disaster Recovery Verfahren. Ein Rpool Mirror ist daher auch nur dazu da, die Verfügbarkeit zu verbessern.

Wer sich daran hält, muss ein paar Euro extra für eine kleine separate Bootplatte ausgeben, hat dafür aber im Fall eines Crashs weniger Probleme (und nutzt den SSD Mirror dann für VMs)
 
Hallo ZFS-Freunde,

ich habe einen Heim-File-Server aus 6 Supermicro SAS826-TQ Backplanes (je 12 Anschlüsse) gebaut. Je 2 Backplanes hängen an einem HP-24fach SAS Expander, welcher wiederum von einem Dell Perc H200 (IT geflasht) betrieben wird. Zur Zeit betreibe ich da 4 Pools, die aus jeweils einem raidz2 vdev mit 9 Platten bestehen. Die Geometrie ist so, dass je 3 Platten an einer Backplane hängen, d.h. jedes vdev hängt an 3 Backplanes über 3 Expander an 3 Controllern. Ich hielt das aus Performance-Gründen für eine gute Idee, frage mich jetzt aber, wie es im Falle eines Hardware-Fehlers seitens Backplane/Expander/Controller aussieht? Wenn von denen ein Gerät aussteigt, fehlen den vdevs plötzlich 3 Platten. Wie reagiert ZFS in dem Fall? Sind die Pools dann Schrott, oder kann ich die wiederholen, wenn das entsprechende Bauteil ersetzt wurde?
 
Pool geht offline, du ersetzt die Hardware, Pool geht mit ein paar Klicks bzw. Zeilen wieder online. Falls die Platten häppchenweise weggefallen sind, werden noch ein paar Bytes auf die zuerst gegangenen Platten nachsynchronisiert. Fertig.


Mein Sandisk Extreme Pro läuft immer noch obwohl der "nur" 16GB groß ist und schon locker über 2TB drauf geschrieben wurde. Kann man ja mit CrystalDiskInfo auch auslesen, wie bei klassischen SSDs. Nen 16GB billig USB Stick den ich auch mal benutzt habe war nach etwa einem Jahr defekt.

Mein 128er Pro auch. Kroch aufm Zahnfleisch, bis irgendwann nur noch Strom in Wärme umgesetzt wurde. Nicht falsch verstehen, ist verglichen mit der Konkurrenz ein toller (und ziemlich teurer) Stick, aber

Ist ja nicht so dass sich da in den letzten Jahren bei USB Sticks und SD Karten überhaupt nix getan hat.

kann ich nicht zustimmen. Sequentiell haut man sich neue Bestwerte um die Ohren (hat jemand PMPO gesagt?), aber bei 4k geht bei 99% der Sticks nicht mehr als vor 5 Jahren. Vielleicht sogar 10, da war SLC noch verbreitet. Aus irgendwelchen Gründen sind gute Micro-SDs inzwischen schneller als der typische Stick, vielleicht sollte man die einsetzen...?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh