[Sammelthread] ZFS Stammtisch

- Das gleichzeitige Drücken von STRG + ALT befreit die Maus aus dem ESXi Windows
- Nicht die normale Webconsole in ESXi 6.5 nutzen sondern die Remote Console.
Die kann man wenn man mit der rechten Maustaste in ESXi auf Console klickt alternativ auswählen.

STRG + ALT ist sogar mir schon bekannt. :-)
Ich benutze doch die Remote Console - trotzdem lässt sich auch von dort aus der Gast OI nicht ausschalten.
Geht es bei dir? Und wenn ja, welchen Snapshot hast du zur Installation genommen. DVDLive, Text oder Minimal?

PS
ESXi 6.5d unter Chrome macht richtig Freude
Ich hab momentan ESXi 6.5.0 (Build 5224529) installiert und da geht es mit dem Chrome überhaupt nicht mehr. Den letzten Patch vom 18.04. hab ich noch nicht drauf. Aber Anmeldung über FF oder Edge funzt ohne Probleme.

Oder benutzt du von vmware-flings den WebClient?
für free license: ESXi Embedded Host Client
für Sphere: vSphere HTML5 Web Client
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe ESXi 6.5d = Build 5310538 (gibts glaube ich momentan nur für Tahl)
Die open-vm-tools und shutdown per ESXi geht bei mir (textedition 17.04)
 
Ich habe ESXi 6.5d = Build 5310538 (gibts glaube ich momentan nur für Tahl)
Dann weis ich schon, was ich heute abend noch zu tun habe.

Die open-vm-tools und shutdown per ESXi geht bei mir (textedition 17.04)
OK, ein neuer Versuch macht schlau.
Laut deiner Anleitung http://www.napp-it.org/doc/downloads/setup_napp-it_os.pdf hast du OI auch mit Window Mate am Laufen.
Hast du die text.iso installiert und dann nachträglich so Mate installiert:
pfexec pkg refresh --full
pfexec pkg image-update -v
pfexec pkg mate_install

Oder eine dieser Versionen von hier: Index of /hipster/20160816 ?

Ist dir bekannt wo ich Informationen finde worin sich die Versionen Live, Text und Minimal unterscheiden bzw. was da alles so mitgeliefert wird in der iso?
 
Ich habe direkt die verschiedenen 2017.04 Versionen zum Testen installiert.
Eine genaue Liste der Unterschiede habe ich nicht gesehen. Es wird aber so sein:

Im Gegensatz zu anderen Betriebssystemen ist schon bei einer minimalen Solarish Installation alles dabei, was zu ZFS, Services wie iSCSI/FC, NFS oder SMB gehört. Auch Crossbow, die Netzwerkvirtualisierung mit vlans, vnics und vswitches ist dabei. Dazu die Basis - Tools für System, Service und Plattenmanagement. Das wird alles von Oracle oder Illumos gepflegt und bereitgestellt. Das ist OI Minimal, praktisch keine Fremdtools - Illumos/Solaris pur. Es fehlen aber schon einfachste Fremdtools wie unzip oder wget die z.B. für napp-it benötigt werden.

Die OmniOS Textversion ist etwa wie die OI Textversion. Alle Unix Basistools für einen Server sind dabei.

Die OI GUI Version fügt den Mate Desktop dazu.

Da alle mit der gleichen Repository arbeiten, kann man fehlendes online nachinstallieren.
 
Ich habe gerade nochmal die GUI Version vom OpenIndiana 2017.04 unter dem aktuellen ESXi 6.5d Build 5310538 installiert. Folgendes ist mit dabei aufgefallen

- die Erstinstallation gibt Illumos-build 48d8443e35. Nach einem pkg update gab es build 5806135a39
(eine neuere Version von Illumos). Da sist das Wesen von OI - immer das neueste Illumos.

- Die Maus der OI GUI (Mate) funktioniert nicht in der Webconsole von ESXi 6.5
Die alternative lokale Console (ein Windows/OSX/Linux Programm) hat das Problem nicht.
Im Menü Console kann man diese nach einem "Download VMRC" nutzen. Die macht auch weniger Probleme mit Sonderzeichen in einer Console, ist schneller und in jedem Fall der einfachen HTML-Webconsole vorzuziehen.

- Open-vm-tools installieren klappt (pkg install open-vm-tools). Die Installation dauert aber einige Minuten.
Danach kann man die VM in ESXi herunterfahren. Bei mir klappte das aber erst beim zweiten Aufruf des Befehls.
 
Ob es ein LTS ist bleibt fraglich :)

In den release Notes steht in-kernel smb now supports smb2... dachte smb2 ist schon länger integriert?! wo genau ist der unterschied zu "in-kernel"?
 
Die Release Notes zeigen den Unterschied zur letzten LTS 151014
 
Habe gerade die neue OMNIOS 151022 LTS stable getestet.

Dieses neue Feature sorgt bei meinem Setup für Performance Verschlechterung:

ZFS improvements # ARC now caches compressed data in compressed form

Ich habe meine VMs auf einem Pool mit LZ4 Kompression (sync disabled), vorher waren die Platten kaum ausgelastet und alle x Sekunden wenn ZFS Daten schrieb, war Plattenaktivität. HDDs waren nicht sehr ausgelastet. Jetzt sind die Platten dauernd in Aktion und Performance Monitor in Nappit zeigt oft "Rot".

Kann man das alte Caching irgendwie wieder aktivieren oder mit irgendwelchen Parametern die Zeit in der die ausgepackten Daten im Cache bleiben verlängern?

Grüße Reiner
 
Das liegt garantiert an etwas ganz anderem, sicher nicht hat an diesem Feature.

liefere doch mal den Output von
echo "::arc" | mdb -k

cu
 
Ich habe die Sache gestern abend nicht weiter verfolgen können und auf Ursachensuche gehen. Sieht aber so aus, als hätte sich das Poolverhalten wieder normalisiert, also erstmal Entwarnung.

Werde das Ganze weiter beobachten...
 
@gea
wenn ich einen Pool oder ein ZFS-Filesystem kopieren möchte, kann ich dann napp-it nutzen? Kann das nur die Pro-Edition? Hab auf Anhieb nichts gefunden. Machte es einen Unterschied, wenn der Pool auf einer anderen Maschine liegt? Das es per Kommandozeile geht ist mir schon klar ;-) Bestimmt ne blöde Frage.
 
Napp-it Pro kann übers Netz replizieren (Jobs > Replikation).
Die Free Version macht das nur lokal.

Alternative:
Freie Replikationsscripts oder CLI Befehl zfs send > zfs receive via SSH oder netcat
 


Zwei kleine Anmerkungen zur PDF:

1) In der Sektion 3.5 steht

"Remote graphical management via VNC
- htps://wiki.openindiana.org/oi/4.7+Remote+Graphical+Login:+Using+Xvnc+and+gdm+for+One-Shot+sessions"

Hier ist der Link falsch. Was man nicht auf den ersten Blick sieht :d ... https wird gebraucht

2) Tipp an alle, die nach der verlinkten Anleitung VNC einrichten wollen: Benutzt ihr die aktuelle GUI Variante von Openindiana, dann ignoriert alles, was am Anfang des Artikels steht und macht nur das aus der Sektion "LIGHTDM (MATE)". Dann habt ihr in 2-4 Minuten VNC :d


Wie immer Top und Danke an gea !
 
oh.. ein ZFS Thread... gut das ich den gesehen habe.

afaik übernimmt aber doch schon ein ZFS Nachfolger? Ich weis leider den Namen nicht
 
Dann kann es zum Glück mit der Übernahme nicht weit her sein.
 
@Saine
Meinst du einen Nachfolger für ZFS oder eine Firma/Organisation die Omnios/Illumos weiterentwickelt?
 
Bei mir ist über Nacht ein Ordner verschwunden. Laut ncdu liegen auf /tank ca 160GB an Daten, laut Proxmox Webui und zfs list aber 572GB... wo sind die Daten hin??


Code:
 pool: tank
 state: ONLINE
  scan: scrub repaired 0 in 1h44m with 0 errors on Sun May 14 02:08:35 2017
config:

        NAME                                         STATE     READ WRITE CKSUM
        tank                                         ONLINE       0     0     0
          raidz1-0                                   ONLINE       0     0     0
            ata-HGST_HTS541010A9E680_JD10001VJW784M  ONLINE       0     0     0
            ata-ST1000LM048-2E7172_ZDE0EY6J          ONLINE       0     0     0
            ata-ST1000LM048-2E7172_ZDE0EYE5          ONLINE       0     0     0

errors: No known data errors

warum hat der einen Scrub gemacht??

Edit: es sind ALLE Sambafreigabe Ordner von ALLEN LXC und VMs verschwunden. :wut:

Wenn ich an die Daten nicht mehr rankomme, wie kann ich die 400GB wieder freigeben?

wenn ich bei mc früher in den /tank reingegangen bin, zeigte der mir an 570G/1480G. Nun zeigt der 147G/153G ?!
#

Code:
df -h
Filesystem                    Size  Used Avail Use% Mounted on
udev                           10M     0   10M   0% /dev
tmpfs                         3.2G  9.0M  3.2G   1% /run
rpool/ROOT/pve-1              154G  6.4G  147G   5% /
tmpfs                         7.9G   40M  7.8G   1% /dev/shm
tmpfs                         5.0M     0  5.0M   0% /run/lock
tmpfs                         7.9G     0  7.9G   0% /sys/fs/cgroup
/dev/sdc1                     294G  216G   63G  78% /mnt/sdc1
rpool                         147G  128K  147G   1% /rpool
rpool/ROOT                    147G  128K  147G   1% /rpool/ROOT
rpool/data                    148G  1.2G  147G   1% /rpool/data
rpool/data/subvol-103-disk-1   15G  3.3G   12G  22% /rpool/data/subvol-103-disk-1
rpool/data/subvol-103-disk-2   10G  128K   10G   1% /rpool/data/subvol-103-disk-2
rpool/data/subvol-103-disk-3   20G  128K   20G   1% /rpool/data/subvol-103-disk-3
rpool/data/subvol-104-disk-1   10G  779M  9.3G   8% /rpool/data/subvol-104-disk-1
rpool/data/subvol-107-disk-1   10G  523M  9.5G   6% /rpool/data/subvol-107-disk-1
rpool/data/subvol-110-disk-1   20G  969M   20G   5% /rpool/data/subvol-110-disk-1
rpool/data/subvol-110-disk-2  100G  128K  100G   1% /rpool/data/subvol-110-disk-2
rpool/data/subvol-111-disk-1   15G  2.4G   13G  16% /rpool/data/subvol-111-disk-1
rpool/data/subvol-114-disk-1   10G  846M  9.2G   9% /rpool/data/subvol-114-disk-1
rpool/data/subvol-115-disk-1   15G  487M   15G   4% /rpool/data/subvol-115-disk-1
tank/subvol-103-disk-1        200G  128K  200G   1% /tank/subvol-103-disk-1
tank/subvol-103-disk-2        200G   12G  189G   6% /tank/subvol-103-disk-2
tank/subvol-104-disk-1        500G   14G  487G   3% /tank/subvol-104-disk-1
tank/subvol-107-disk-1        300G  128K  300G   1% /tank/subvol-107-disk-1
tank/subvol-109-disk-3         15G  2.6G   13G  18% /tank/subvol-109-disk-3
tank/subvol-109-disk-4        300G   64G  237G  22% /tank/subvol-109-disk-4
tank/subvol-111-disk-1        300G   66G  235G  22% /tank/subvol-111-disk-1
/dev/fuse                      30M   24K   30M   1% /etc/pve

warum taucht da /tank nicht auf?!
 
Zuletzt bearbeitet:
Code:
 zpool list
NAME    SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
rpool   232G  73.7G   158G         -    27%    31%  1.00x  ONLINE  -
tank   2.72T   858G  1.88T         -    12%    30%  1.00x  ONLINE  -

Code:
zfs list
NAME                           USED  AVAIL  REFER  MOUNTPOINT
rpool                         79.1G   146G    96K  /rpool
rpool/ROOT                    7.47G   146G    96K  /rpool/ROOT
rpool/ROOT/pve-1              7.47G   146G  7.47G  /
rpool/data                    63.1G   146G  1.16G  /rpool/data
rpool/data/subvol-103-disk-1  3.25G  11.7G  3.25G  /rpool/data/subvol-103-disk-1
rpool/data/subvol-103-disk-2    96K  10.0G    96K  /rpool/data/subvol-103-disk-2
rpool/data/subvol-103-disk-3    96K  20.0G    96K  /rpool/data/subvol-103-disk-3
rpool/data/subvol-104-disk-1   778M  9.24G   778M  /rpool/data/subvol-104-disk-1
rpool/data/subvol-107-disk-1   522M  9.49G   522M  /rpool/data/subvol-107-disk-1
rpool/data/subvol-110-disk-1  1.24G  19.1G   968M  /rpool/data/subvol-110-disk-1
rpool/data/subvol-110-disk-2   104K   100G    96K  /rpool/data/subvol-110-disk-2
rpool/data/subvol-111-disk-1  2.36G  12.6G  2.36G  /rpool/data/subvol-111-disk-1
rpool/data/subvol-114-disk-1   846M  9.17G   846M  /rpool/data/subvol-114-disk-1
rpool/data/subvol-115-disk-1   487M  14.5G   487M  /rpool/data/subvol-115-disk-1
rpool/data/vm-100-disk-1      7.21G   146G  7.21G  -
rpool/data/vm-102-disk-1      2.52G   146G  2.52G  -
rpool/data/vm-105-disk-1      7.98G   146G  7.98G  -
rpool/data/vm-106-disk-2      34.3G   146G  34.3G  -
rpool/data/vm-112-disk-1       553M   146G   553M  -
rpool/swap                    8.50G   151G  3.01G  -
tank                           572G  1.20T   271G  /tank
tank/subvol-103-disk-1         128K   200G   128K  /tank/subvol-103-disk-1
tank/subvol-103-disk-2        11.1G   189G  11.1G  /tank/subvol-103-disk-2
tank/subvol-104-disk-1        13.9G   486G  13.9G  /tank/subvol-104-disk-1
tank/subvol-107-disk-1         128K   300G   128K  /tank/subvol-107-disk-1
tank/subvol-109-disk-3        2.58G  12.4G  2.58G  /tank/subvol-109-disk-3
tank/subvol-109-disk-4        63.8G   236G  63.8G  /tank/subvol-109-disk-4
tank/subvol-111-disk-1        65.5G   234G  65.5G  /tank/subvol-111-disk-1
tank/vm-100-disk-1            60.2G  1.20T  60.2G  -
tank/vm-101-disk-1            17.6G  1.20T  17.6G  -
tank/vm-101-disk-2            35.5G  1.20T  35.5G  -
tank/vm-106-disk-1            30.1G  1.20T  30.1G  -

Code:
zfs list -t snapshot
NAME                                             USED  AVAIL  REFER  MOUNTPOINT
rpool/data/subvol-110-disk-1@Vorupdate          26.6M      -   885M  -
rpool/data/subvol-110-disk-1@Wordpress47        1.17M      -   889M  -
rpool/data/subvol-110-disk-1@ssl                1.12M      -   889M  -
rpool/data/subvol-110-disk-1@sslmultidisable    1.66M      -   890M  -
rpool/data/subvol-110-disk-1@LetsEncryptundDNS  21.7M      -   912M  -
rpool/data/subvol-110-disk-2@Vorupdate              0      -    96K  -
rpool/data/subvol-110-disk-2@Wordpress47            0      -    96K  -
rpool/data/subvol-110-disk-2@ssl                    0      -    96K  -

kurioserweise sind die Daten eines LXC-Containers, die NICHT per Samba freigegeben waren, noch vorhanden. Ich erstelle gerade ein Backup und versuche dann das hier:
ZFS Pool files are missing!!! | Proxmox Support Forum

edit: zfs mount -a und alles ist wieder da (reimt sich sogar)
 
Zuletzt bearbeitet:
BTRFS ist doch eher die Linux-Entsprechung zu ZFS mit ähnlichen/gleichen Eigenschaften. Oracle geht doch nicht hin und ersetzt ZFS in Solaris durch BTRFS. *amkopfkratz*
 
Btrfs möchte eine Art ZFS sein, aber kommt nicht aus dem Knick ;) Wenn jetzt XFS noch CoW Features kriegt (Google), dann seh ich das so, das btrfs den ReiserFS Weg gehen wird ;) ich nutze sowieso ZoL.
 
OmniOS ist ja derzeit neuestes Illumos (wie bei OpenIndiana auch)

+ LX/Linux Container
+ regelmäßige Stables/LTS je mit eigenem Repository das in der Support Laufzeit nachgepflegt wird

+ kommerzieller Voll-Support rund um OS, ZFS und Services bei OmniTi mit festem Personal (2500$/ Jahr/ System)

Für die ersten zwei Punkte sieht es gar nicht so schlecht aus. OmniOS 151022 LTS kommt wie geplant noch im Mai und OmniTi nutzt das auch weiter intern, will den Markennamen OmniOS freigegeben und will die Repositories weiter hosten. Für den Voll-Support gab es jedoch einfach zu wenige die das bezahlen wollten.

Wie es genau mit Dan und Dale, den Support Software Ingenieuren für OmniOS bei OmniTi weitergeht ist ja auch noch offen. Wenn die ein entsprechendes Angebot für eine Festanstellung wo auch immer erhalten, sind die eh weg. Auch sind 50k USD/ Jahr Zusagen in einer internen schnellen Umfrage gar nicht so wenig. Das sind ja nur ganz wenige Nutzer und davon gibt es deutlich mehr. OmniOS ist letzlich die führende freie Solaris Distribution bei professionellen Nutzern. Das bisherige Preisgefüge stimmte aber auch nicht. Es muss billiger werden, dafür kann der Leistungsumfang geringer ausfallen. Der Pflegeaufwand für die stable Repositories selbst ist ja auch bei weitem nicht so hoch wie etwa bei OpenIndiana da die ja die gesamte Desktopsoftware mitpflegen. Die OS Entwicklung läuft ja ohnehin woanders (Illumos).

Letzlich läuft auch Solarish und ZFS viel zu problemfrei für so teuren Support.
Ich habe noch einige Benutzer mit einem Uralt OpenIndiana und napp-it das einfach seit Jahren durchläuft.

Es ist also entschieden: Dan McDonald auf Twitter:

cu
 
Da kann man Dan McDonald nur gratulieren.
Das ist auch ein echter Gewinn für Illumos als Plattform.

Mal sehen in welche Richtung die Diskussion bei OmniOS geht. Meine Meinung dazu siehe
OmniOS 151022 long term stable | Page 2 | ServeTheHome and ServeThe.Biz Forums

Hallo gea, kann ich nach Deiner Einschätzung unbesorgt meine Produktivsysteme auf die LTS 151022 updaten oder muss man Sorge haben, dass durch den Weggang von Dan evtl. ein paar Fehler in der LTS stecken?
 
Im Moment dürfte OmniOS 151022 und OpenIndiana 2017.04 ziemlich identisch sein. Beide bieten aktuelle Illumos Builds. OmniOS hat halt zusätzlich schon LX Container falls man das braucht.

Ich hoffe, dass kritische Bugs in OmniOS noch gefixt werden. Das sollte machbar sein. Insofern hat man dann eine stabile Lösung für die nächste Zeit. Die nächste LTS Version würde ja auch erst in zwei Jahren anstehen.

Ein Wechsel zu OpenIndiana wäre möglich. Durch das rollierende Entwicklermodell hätte man aber bei jedem Update den neuesten Illumos Build. Das kann Bugfixes und mehr Features bedeuten, eventuell aber auch Inkompatibilitäten. Eingefrorende stable/LTS Repositories bei denen Bugs rückwirkend gefixt werden ist/war ja das Schöne an OmniOS.

Ich glaube aber nicht, dass es einen eigenständigen Nachfolger auf Basis der jetzigen OmniOS 151023 bloody als Community Version geben wird. Die Community ist einfach zu klein um parallel zwei nahezu identische Distributionen zu pflegen. Ich erwarte und hoffe dass es darauf hinausläuft, dass das etablierte Community Projekt OpenIndiana die Rolle von OmniOS übernimmt. Dann müsste man lediglich stable/LTS Repositories auf Basis der halbjährigen Snapshots anbieten und man hätte das was OmniOS ausmacht ohne den vollen Aufwand einer eigenständigen Distribution mit größerer Community, Support, Packaging, Distribution, Wiki etc.

Ich selber werde bei meinen kritischen Maschinen noch bei OmniOS bleiben. Wenn ich neues ausprobiere, werde ich das aber eher mit OpenIndiana machen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh