Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Can't load '/var/web-gui/data/napp-it/CGI/auto/IO/Tty/Tty.so' for module IO::Tty: ld.so.1: perl: fatal: relocation error: file /var/web-gui/data/napp-it/CGI/auto/IO/Tty/Tty.so: symbol PL_thr_key: referenced symbol not found at /usr/perl5/5.12/lib/i86pc-solaris-64int/DynaLoader.pm line 200. at /var/web-gui/data/napp-it/CGI/IO/Tty.pm line 30 Compilation failed in require at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7. BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7. Compilation failed in require at /var/web-gui/data/napp-it/CGI/Expect.pm line 22. BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Expect.pm line 22. Compilation failed in require at /var/web-gui/data/napp-it/zfsos/_lib/illumos/zfslib.pl line 2816. BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/_lib/illumos/zfslib.pl line 2816. Compilation failed in require at admin.pl line 437.
running on:SunOS [____] 5.11 11.3 i86pc i386 i86pc
Oracle Solaris 113 X86 Copyright c 1983 2015 Oracle andor its affiliates All rights reserved Assembled 06 October 2015
#####################################################
# http://www.c0t0d0s0.org/archives/7453-Configuring-an-NTP-client-in-Solaris-11.html #
#####################################################
server 0.de.pool.ntp.org iburst
server 1.de.pool.ntp.org iburst
server 2.de.pool.ntp.org iburst
server 3.de.pool.ntp.org iburst
#####################################################
Das Problem mit dem Expect.pm Modul unter Solaris 11.3 ist gefixt.
Bitte 16.07 oder 16.08 (bereite da gerade eine neue Free und Pro Edition vor) erneut laden
Zum Thema Zeit einstellen:
Hier mach ich die Einstellungen, in /etc/inet/ntp.conf, wie von Joerg Moellenkamp auf seiner Webseite beschrieben plus den Kommentar von Brian Utterback.
ich hab jetzt einen integrierten ESXi-OmniOS-Stick erstellt. D.h. von dem 32GB-Stick startet der ESXi 6.0U2, gleichzeitig ist auf dem Stick ein ESXi-Datastore, auf dem sich die OmniOS-VM befindet und automatisch startet.
Um den Stick ein wenig besser zu erhalten (Schreibzugriffe reduzieren), würde ich in OmniOS das SWAP- und das DUMP-Volume entfernen. Spricht da was dagegen? Ist das sinnvoll?
Atime steht für den rpool schon auf OFF...
Du hast auf dem 32GB Stick ESXi UND eine VM (OmniOS) installiert?
Ist der Stick mit 32GB nicht etwas zu klein?
partedUtil getptbl /dev/disks/mpx.vmhba32\:C0\:T0\:L0
gpt
3738 255 63 60062500
1 64 8191 C12A7328F81F11D2BA4B00A0C93EC93B systemPartition 128
5 8224 520191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
6 520224 1032191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
7 1032224 1257471 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
8 1257504 1843199 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
9 1843200 7086079 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
10 7086080 59022809 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
Also ich hab den Menüpunkt auch noch nicht gefunden......ob noch immer diese eher aufwendige Vorgehensweise (wie hier beschrieben) notwendig war, oder ob es bei ihnen tatsächlich wie weiter vorne angedeutet sehr simpel per GUI über den Web-Client erledigt werden konnte.
Bei mir steht er sofort zu Verfügung und OmniOS startet wie im ESXi eingestellt automatisch.ob der USB-Datastore auch nach einem Host-Reboot sofort wieder zur Verfügung steht
Hab ich nicht probiert. Ich hab den Dienst komplett deaktiviert. Ich könnte mir aber vorstellen, dass das gehen könnte. Ich nehme an, der Blogbeitragsersteller ging davon aus, einen zweiten USB-Speicher neben dem ESXi-Boot-Device als Datastore zur Verfügung stellen zu wollen. Da kann das natürlich nicht gehen...ob es nach anschließendem Aktivieren des "usbarbitrator" wieder möglich war, USB-Devices an VMs durchzureichen
Hallo zusammen,
würden diejenigen von euch, die es geschafft haben, erfolgreich einen Datastore auf einem per USB angebundenen Datenträger zu erstellen, mir kurz verraten, ob noch immer diese eher aufwendige Vorgehensweise (wie hier beschrieben) notwendig war, oder ob es bei ihnen tatsächlich wie weiter vorne angedeutet sehr simpel per GUI über den Web-Client erledigt werden konnte.
Des Weiteren würde mich interessieren, ob der USB-Datastore auch nach einem Host-Reboot sofort wieder zur Verfügung steht
und ob es nach anschließendem Aktivieren des "usbarbitrator" wieder möglich war, USB-Devices an VMs durchzureichen.
All das klappt bei mir nämlich nicht (mit 6.0u2+).
...ob noch immer diese eher aufwendige Vorgehensweise (wie hier beschrieben) notwendig war, oder ob es bei ihnen tatsächlich wie weiter vorne angedeutet sehr simpel per GUI über den Web-Client erledigt werden konnte.
Ging bei mir simpel per webgui.
Ich habe eine kurze Frage:
habe via HP Smart Arry ein Raid1 aus 2x3TB erstellt und reiche dieses über RAW an OMV weiter.
Wenn ich nun das Raid als ZFS Basic einstelle, betrifft mich diese 80% Kapazitäts-Regel dann auch?
Ja, das habe ich mittlerweile auch schon gelesen.Allerdings ist dein Konstrukt grundsätzlich nicht ideal. Durch den HP-Smart-Array-Unterbau gehen dir ne Menge der zfs-Vorteile verloren.
Ahh, ich verstehe, du legst den Datastore auf dem USB-Stick an, von dem du auch bootest, daher taucht der bei dir schon unter "Speicher" auf!Ging bei mir simpel per webgui.
Ja da sind alle da:
Code:all_disks_unassigned -> 'c2t0d0 →c3t50014EE0AE2D7B0Dd0 →c3t50014EE2B40FD35Fd0 →c3t50014EE058D7E1C1d0 →c3t50014EE058D7EAF4d0 →c3t50014EE058D29090d0 →c3t50014EE00382AB3Fd0'
Code:all_dsk -> 'c2t0d0 →c3t50014EE0AE2D7B0Dd0 →c3t50014EE0AE282758d0 →c3t50014EE2B40FD35Fd0 →c3t50014EE058D7E1C1d0 →c3t50014EE058D7EAF4d0 →c3t50014EE058D29090d0 →c3t50014EE00382AB3Fd0 →c3t50014EE20959D788d0'
- - - Updated - - -
Kann man das Kommentar Info/Feld auch direkt in der Map anzeigen lassen, oder muss man immer auf den Slot klicken?
all_disks_ok_in_slots -> 'c3t50014EE0AE282758d0 →c3t50014EE20959D788d0'
pool: rpool
state: ONLINE
scan: scrub repaired 0 in 0h3m with 0 errors on Mon Aug 1 00:48:18 2016
config:
NAME STATE READ WRITE CKSUM CAP Product /napp-it IOstat mess
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c6t0d0s0 ONLINE 0 0 0 120 GB SAMSUNG MZ7LM120 S:0 H:0 T:0
c6t1d0s0 ONLINE 0 0 0 120 GB SAMSUNG MZ7LM120 S:0 H:0 T:0
errors: No known data errors
pool: tank_hdd_sas
state: ONLINE
scan: scrub repaired 0 in 20h11m with 0 errors on Sat Aug 6 23:11:53 2016
config:
NAME STATE READ WRITE CKSUM CAP Product /napp-it IOstat mess
tank_hdd_sas ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
c2t5000CCA23B1B8FFDd0 ONLINE 0 0 0 8 TB HUH728080AL5200 S:0 H:2 T:0
c2t5000CCA23B3689D1d0 ONLINE 0 0 0 8 TB HUH728080AL5200 S:0 H:2 T:0
c2t5000CCA23B369009d0 ONLINE 0 0 0 8 TB HUH728080AL5200 S:0 H:2 T:0
c2t5000CCA23B52DE89d0 ONLINE 0 0 0 8 TB HUH728080AL5200 S:0 H:2 T:0
c2t5000CCA23B5305CDd0 ONLINE 0 0 0 8 TB HUH728080AL5200 S:0 H:2 T:0
logs
mirror-1 ONLINE 0 0 0
c4t1d0p1 ONLINE 0 0 0 12 GB S:0 H:0 T:0
c7t1d0p1 ONLINE 0 0 0 12 GB S:0 H:0 T:0
cache
c4t1d0p2 ONLINE 0 0 0 124 GB S:0 H:0 T:0
c7t1d0p2 ONLINE 0 0 0 124 GB S:0 H:0 T:0
errors: No known data errors
pool: tank_ssdonly_sata
state: ONLINE
scan: scrub canceled on Sun Jul 24 01:24:30 2016
config:
NAME STATE READ WRITE CKSUM CAP Product /napp-it IOstat mess
tank_ssdonly_sata ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
c1t5002538C00092621d0 ONLINE 0 0 0 1.9 TB SAMSUNG MZ7KM1T9 S:0 H:0 T:0
c1t5002538C0009262Bd0 ONLINE 0 0 0 1.9 TB SAMSUNG MZ7KM1T9 S:0 H:0 T:0
c1t5002538C0009262Dd0 ONLINE 0 0 0 1.9 TB SAMSUNG MZ7KM1T9 S:0 H:0 T:0
c1t5002538C402C5FECd0 ONLINE 0 0 0 1.9 TB SAMSUNG MZ7KM1T9 S:0 H:0 T:0
c1t5002538C402C5FEDd0 ONLINE 0 0 0 1.9 TB SAMSUNG MZ7KM1T9 S:0 H:0 T:0
errors: No known data errors