CommanderBond
Enthusiast
- Mitglied seit
- 16.04.2012
- Beiträge
- 703
Der OmniOS Installer hat doch mittlerweile ein Menü um Netzwerk einzurichten sodass man sich das CLI sparen kann dafür.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Super, herzlichen Dank für die Info! Mich wundert es etwas, dass im Bug vom Solaris 8.7.x die Rede ist. Hätte nicht gedacht, dass da noch viel dran gemacht wird.
Ich habe leider 11.4 und dort scheint der Patch erst mit der nächsten Beta ausgerollt zu werden.
Zumindest findet pkg update keine zu aktualisierenden Pakete.
Die Vorgenensweise lt. (Option: use DHCP)
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : OmniOS
ipadm create-if e1000g0
ipadm create-addr -T dhcp e1000g0/dhcp
#add nameserver
echo 'nameserver 8.8.8.8' >> /etc/resolv.conf
#use dns (copy over DNS template)
cp /etc/nsswitch.dns /etc/nsswitch.conf
vielleicht fehlt der letzte Schritt (dann wird dns nicht genutzt)
Oder ganz konkret, falls das zufällig jemand beantworten kann: Kriege ich mit einem Xeon 4108/4110 1,25GB/s hin? Was für IOPS darf man erwarten?
In der akltuellen 18.09dev habe ich für min, hour und day die Option every/n1;n2 (ausser) hinzugefügt.
Ein Bug bei der Erkennung von size=0 (bis auf neuesten Snap) ist ebenfalls behoben.
snap ssdpool/daten keep 30 daily del zero, hld 8 - every tue-sun 0 0 1528205817 active 18.jun 00 00 - run now delete
Habe unter "day" manuell nun "tue-sun" eingetragen. Allerdings führt er dann den Job dennoch auch am "mon" aus. Kann man das auch irgendwie unter 18.01 so hinbekommen dass es funktioniert?
eigentlich hätte er diesen job heute nicht ausführen dürfen.
Meine Überlegung war, jetzt einen Pool mit den 500 GB Platten (drei?) anzulegen, wegen mir noch die 2TB Backup Platte mitzunutzen, die Daten vom NAS zu migrieren und nach erfolgreicher Migration die bislang produktive 2TB Platte aus dem NAS als Backup Platte weiter zu nutzen. Ist diese Vorgehensweise sinnvoll? Und kann ich die drei 500GB Platte sinnvoll mit einer 2TB Platte kombinieren, oder bleiben da von vornherein 1,5 TB auf der 2TB Platte ungenutzt? Hmm, da sind bei mir noch viele Fragezeichen...
@gea: Ich nutze in der Tat Linux seit über 15 Jahren und hatte seit fast genauso lange keine Probleme mehr mit NIC-Treibern... Da hatte ich schlicht nicht dran gedacht. Ansonsten alles nach bewährter Methode: H310 auf IT geflasht, besterinos SAS-Expander (ohne PCIe-Slot-Notwendigkeit), XCase 16-Hotswap 19"-3U-Gehäuse und 48GB RegECC RAM. Es sah so gut aus ;(
In OpenIndiana/Proxmox ist das Napp-IT saaaaauuu langsam (2h für "processing" bis - vermutlich - alle Menüpunkte da sin...).
Ich steige wohl doch mit diesem Board wieder auf mein altbewährtes Ubuntu inkl. ZFS@LUKS...
Also liebe Leute: "NappIT || Denverton"
edit: btw, OI mit GUI bare-metal kommt bei Installations-Booten nicht über die ersten drei Zeilen hinaus... :/
Der beste Rat wird wohl der sein, den Pool strukturell so anzulegen wie man ihn später mal haben möchte. Wenn man also auf einen Raid-Z2 Pool möchte, dann z.B. eine Pool aus 6 Platten aufbauen (wobei die kleinste Platte aktuell die Kapazität vorgibt) oder aber einen Raid-10 Pool aus 4 bzw 6 Platten erstellen. Wenn man dann später die kleinen Platten ersetzt wird die volle Kapazität genutzt. Bei Raid-10 kann der Pool einfach jeweils mit zwei Platten als Mirro wachsen.
Einen Pool umzustrukturieren ist momentan noch nicht so einfach. Lediglich das neue Solaris 11.4 beherrscht das Entfernen beliebiger vdevs und das Erweitern eines vdevs um einzelne Platten kommt frühestens Ende des Jahres bei Open-ZFS.
Aber ich fürchte, das klappt so nicht, oder?