[Sammelthread] Proxmox Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hatte de Frage schon vor einiger Zeit gestellt und leider bislang keine Antwrt erhalten. Und das Netzt hat auch nicht wirklich was passendes ausgespuckt.
Ist es jemanden hier oder im Bekantenkreis schon mal gelungen Solaris 11.4 sauber unter Proxmox zum laufen zu bewegen? Welche Einstellungen sind dafür wichtig?
Unter ESXi läuft es natürlich und unter Virtual BOX läuft es relativ easy. ich hätte nur gern Proxmox genommen, weil das halt viele andere Vorteile mit sich bringt.
Aso... wer hat irgendwelche Ideen?
 
Was läuft denn nicht?
(Abgesehen davon, dass man ohne Account nicht mal an das ISO kommt. :fresse:)

//Edith:
1711100351502.png


//Edith2:
gegen die SSL-Handshake-Errors hilft:
pkg set-publisher -G'*' -g http://pkg.oracle.com/solaris/release/ solaris

//Edith3:
So Gnome läuft auch, aber ich seh keinen Grund das zu nutzen, ist ja garnix drauf, nicht mal der mc ist dabei (wird von Oracle nicht mehr supportet) WTF?!
Das ist DAS wichtigste Programm auf nem Unix...
Für Gnome brauchst die VMWare-Graka und ich hab ihr 32 MB RAM spendiert...
Wichtig in den VM-Optionen auch sata1 als Boot-Laufwerk anzugeben, sonst spackt er beim booten rum.
 
Zuletzt bearbeitet:
Ich habe das offizielle ISO von der OracleSeite. Mit Account.
11.4.42.111
Je nach dem was ich an Sachen für die VM einstelle gibt es mal ein Boot-Loop oder die Installation des ISOs hängt bei ca 80% einfach.
Ich probiere deine Einstellungen gern aus. Vielleicht löst sich das Problem damit schon auf. Danke schonmal.
 
Hatte ich am Anfang auch:
Bei 4 %, wenn die Platte am SCSI hängt.
Bei 99 %, wenn nur 4GB RAM da waren.
Mit obigen Einstellungen klappts, einzig die Graka musst du für GNOME nochmal auf "VMWare" umstellen.

//Edith:
1711136765046.png

In den Optionen musst du noch die Boot-Platte rein stellen (habe sie zwischenzeitlich von SATA1 auf SATA0 gewechselt und das DVD-ROM raus geworfen).
Da steht anfangs nur "net0", was dazu führt, dass das UEFI nur vom Netzwerk booten will, egal was du in den Boot-Maintenance-Einstellungen änderst... -.-
 
Ich würde es allerdings eher so machen, dass du einen LXC für Docker verwendest. Dort installierst du dann Portainer als Docker-UI und mappst die Host-Verzeichnisse einfach durch. Beispiel:
  • Mappe vom host /rpool/data/docker nach LXC /mnt/
  • Dann legst du dir /mnt/.docker-data/nextcloud/html/ und /mnt/.docker-data/nextcloude/database/ an
  • In das .docker-data kommen alle Container oder Stack spezifischen Daten (configs, caches, db, etc.)
  • Und im Portainer machst du dann einen Bind-Mount (/mnt/.docker-data/html => /var/www/html und /mnt/.docker-data/db => /var/lib/mysql)


Mehr dazu hier: https://www.hardwareluxx.de/community/threads/proxmox-stammtisch.1039627/post-30317255

ich komme leider nicht weiter.

das mapping des storage war einfach
die User- und Group-ID permissions funktionieren nicht wie erhofft.

ich habe auf dem docker-lxc einen user: vm-user1, userid: 1000
dafür dann in /etc/subuid und subgid die erste zeile hinzugefügt, root kann also auf 1000 mappen
root:1000:1 (new)
root:100000:65536

in /etc/pve/lxc/101.conf
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101001 64535
lxc.idmap: g 1001 101001 64535

das mapping von u+g 1000 angelegt.

wenn ich jetzt auf die lxc shell gehe und auf dem /mnt/ punkt eine neues directory oder file anlegen möchte, bekomme ich permission denied fehler
vm-user1@docker:/mnt$ ls -la
total 5
drwxr-xr-x 2 nobody nogroup 2 Mar 19 17:58 .
drwxr-xr-x 21 root root 4096 Mar 23 12:11 ..

vm-user1@docker:/mnt$ sudo mkdir test
mkdir: cannot create directory 'test': Permission denied

was mache ich falsch?
 
was mache ich falsch?
Weiß ich nicht genau. Aber der LXC mapped user muss auch unter Proxmox angelegt werden:

Bash:
# anlegen der Gruppe und des Benutzers "vm-user1" in Proxmox
# sollte die ID 1000 bekommen, sofern die noch nicht vergeben ist, sonst musst du den Rest anpassen
groupadd vm-user1 && \
  adduser --home /rpool/data/vm-user1 \
    --gecos "" \
    --quiet \
    --disabled-login \
    --ingroup vm-user1 \
    vm-user1

# root im LXC wird auf id 1000 im Host gemapped
# Also wenn du dich als root im LXC anmeldest und eine Datei anlegst, ist das so, als hättest du die in Proxmox mit dem User 1000 angelegt
grep -q 'root:1000:1' "/etc/subuid" || cat << 'EOF' >> "/etc/subuid"
root:1000:1
EOF
# gleiches für die Gruppe 1000
grep -q 'root:1000:1' "/etc/subgid" || cat << 'EOF' >> "/etc/subgid"
root:1000:1
EOF

Jetzt hat /rpool/data/vm-user1 die entsprechenden Rechte und das UID/GID-Mapping.

Nun musst du in der LXC-Konfigurationsdatei noch das Mapping anlegen. Auch in Proxmox:
Code:
# z.B. /etc/pve/lxc/200.conf, wenn die LXC ID 200 ist
mp0: /rpool/data/vm-user1,mp=/mnt/
# ...
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101001 64535
lxc.idmap: g 1001 101001 64535

Dann den LXC neu starten, dich als root im LXC anmelden und zum Testen mal eine Datei in /mnt anlegen:

Bash:
touch /mnt/test.txt

Das sollte gehen. Wenn du jetzt unter Proxmox ein

Bash:
ls -lsa /rpool/data/vm-user1

machst, sollte da eine Datei test.txt liegen, die dem Benutzer 100000 gehört (der auf dem Host nicht existiert).

Meldest du dich jetzt im LXC als root an und wechselst den Benutzer vm-user1

Bash:
# IM LXC
su - vm-user1
touch /mnt/test2.txt

sollte da eine Datei test2.txt liegen, die dem Benutzer vm-user1 gehört (sowohl im LXC, als auch in Proxmox).


Ergebnis:
  • Führst du den Docker-Container als root aus (was man aus Sicherheitsgründen eher nicht machen sollte, aber manchmal wird es nicht anders unterstützt), werden dessen Dateien als der Nutzer 100000 gespeichert und können vom docker geschrieben und gelesen werden, haben aber keine root-Rechte auf dem Proxmox-Host (so wie es sein soll)
  • Führst du den Docker-Container als vm-user1 aus, greift das Mapping und die Dateien erhalten die Berechtigungen auf User-Ebene
  • Fazit: Halbwegs brauchbare Sicherheit trotz voller Funktionalität
 
Zuletzt bearbeitet:
Weiß ich nicht genau. Aber der LXC mapped user muss auch unter Proxmox angelegt werden:

Bash:
# anlegen der Gruppe und des Benutzers "vm-user1" in Proxmox
# sollte die ID 1000 bekommen, sofern die noch nicht vergeben ist, sonst musst du den Rest anpassen
groupadd vm-user1 && \
  adduser --home /rpool/data/vm-user1 \
    --gecos "" \
    --quiet \
    --disabled-login \
    --ingroup vm-user1 \
    vm-user1

# root im LXC wird auf id 1000 im Host gemapped
# Also wenn du dich als root im LXC anmeldest und eine Datei anlegst, ist das so, als hättest du die in Proxmox mit dem User 1000 angelegt
grep -q 'root:1000:1' "/etc/subuid" || cat << 'EOF' >> "/etc/subuid"
root:1000:1
EOF
# gleiches für die Gruppe 1000
grep -q 'root:1000:1' "/etc/subgid" || cat << 'EOF' >> "/etc/subgid"
root:1000:1
EOF

Jetzt hat /rpool/data/vm-user1 die entsprechenden Rechte und das UID/GID-Mapping.

Nun musst du in der LXC-Konfigurationsdatei noch das Mapping anlegen. Auch in Proxmox:
Code:
# z.B. /etc/pve/lxc/200.conf, wenn die LXC ID 200 ist
mp0: /rpool/data/vm-user1,mp=/mnt/
# ...
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101001 64535
lxc.idmap: g 1001 101001 64535

Dann den LXC neu starten, dich als root im LXC anmelden und zum Testen mal eine Datei in /mnt anlegen:

Bash:
touch /mnt/test.txt

Das sollte gehen. Wenn du jetzt unter Proxmox ein

Bash:
ls -lsa /rpool/data/vm-user1

machst, sollte da eine Datei test.txt liegen, die dem Benutzer 100000 gehört (der auf dem Host nicht existiert).

Meldest du dich jetzt im LXC als root an und wechselst den Benutzer vm-user1

Bash:
# IM LXC
su - vm-user1
touch /mnt/test2.txt

sollte da eine Datei test2.txt liegen, die dem Benutzer vm-user1 gehört (sowohl im LXC, als auch in Proxmox).


Ergebnis:
  • Führst du den Docker-Container als root aus (was man aus Sicherheitsgründen eher nicht machen sollte, aber manchmal wird es nicht anders unterstützt), werden dessen Dateien als der Nutzer 100000 gespeichert und können vom docker geschrieben und gelesen werden, haben aber keine root-Rechte auf dem Proxmox-Host (so wie es sein soll)
  • Führst du den Docker-Container als vm-user1 aus, greift das Mapping und die Dateien erhalten die Berechtigungen auf User-Ebene
  • Fazit: Halbwegs brauchbare Sicherheit trotz voller Funktionalität

erstmal vielen vielen Dank für diese massiv ausführliche antwort!
leider hänge ich erneut und es geht nicht :/

1. LXC komplett frisch aufgesetzt mit dem script von tteck, docker-compose und portainer erstellen lassen, feste ip vergeben, läuft.
2. adduser docker-user (statt vm-user1)
3. docker-user in sudo und docker group gepackt
auf LXC

Bash:
id -u docker-user
1000

4. login möglich, passt.
5. auf PVE
Bash:
# anlegen der Gruppe und des Benutzers "vm-user1" in Proxmox
# sollte die ID 1000 bekommen, sofern die noch nicht vergeben ist, sonst musst du den Rest anpassen
groupadd docker-user && \
  adduser --home[I][B] /[COLOR=rgb(226, 80, 65)]rpool[/COLOR]/[/B][/I]data/[B]docker[/B] \
    --gecos "" \
    --quiet \
    --disabled-login \
    --ingroup docker-user \
    docker-user

Bash:
id -u docker-user
1000

dann hab ich deine zeilen code in bash ausgeführt, da passiert nix, habs abgebrochen mit ctrl+c
Bash:
grep -q 'root:1000:1' "/etc/subgid" || cat << 'EOF' >> "/etc/subgid"
root:1000:1
EOF

aber die subuid und subgip beinhalten jetzt eine zeile für den docker-user

Bash:
root@pve:~# cat /etc/subuid
root:1000:1
root:100000:65536
docker-user:165536:65536
gibts jetzt die neue docker-user zeile. verstehe ich nicht.
ich hatte vorher auf PVE aber auch nicht aus subuid und subgid die
root:1000:1
zeile gelöscht.

wenn ich jetzt als root im lxc eine datei anlege permission dennied
Bash:
root@docker:/mnt# touch /mnt/test.txt
touch: cannot touch '/mnt/test.txt': Permission denied

ich glaub ich steh aufm schlauch :/
brauchen meine subuid und subgid im PVE die docker-user id information?

ist das problem ggf. das mein mnt punkt falsch ist?
/vm_tank/data/docker
/vm_tank/data ist dabei mein zfs mirror (vm-tank) als directory im datacenter eingebunden

Bildschirmfoto 2024-03-23 um 17.11.13.png

Bildschirmfoto 2024-03-23 um 17.17.07.png

in meiner pve shell ist mir gerade aufgefallen, dass es den pfad /rpool/data/docker/
gibt, ich habe meinen user falsch angelegt auf pve.
jetzt komme ich leidernicht weiter. user gelöscht, verzeichnis gelöscht, gruppe kann ich nicht löschen, user neu anlegen zu bestehender gruppe macht er nicht.

Bash:
root@pve: deluser docker-user
Removing crontab ...
Removing user `docker-user' ...
Done.

root@pve: rm -r rpool/
root@pve: rm -r /vm_tank/data/docker

root@pve: groupadd docker-user && \
  adduser --home /vm_tank/data/docker \
    --gecos "" \
    --quiet \
    --disabled-login \
    --ingroup docker-user \
    docker-user

groupadd: group 'docker-user' already exists

root@pve: delgroup docker-user
Removing group `docker-user' ...
groupdel: cannot remove the primary group of user 'docker-user'
delgroup: `/sbin/groupdel docker-user' returned error code 8. Exiting.

root@pve: cat /etc/passwd
docker-user:x:1000:1000:,,,:/vm_tank/data/docker:/usr/sbin/nologin

root@pve:/# ls /vm_tank/data/docker

ok user nochmal gelöscht, nochmal neu angelegt, jetzt gibts /vm_tank/data/docker

Bash:
root@pve:~# ls -lsa /vm_tank/data/docker
total 24
9 drwx------ 2 docker-user docker-user    7 Mar 23 18:00 .
1 drwxr-xr-x 5 root        root           5 Mar 23 17:57 ..
5 -rw-r--r-- 1 docker-user docker-user  220 Mar 23 17:57 .bash_logout
5 -rw-r--r-- 1 docker-user docker-user 3526 Mar 23 17:57 .bashrc
5 -rw-r--r-- 1 docker-user docker-user  807 Mar 23 17:57 .profile
1 -rw-r--r-- 1 docker-user docker-user    0 Mar 23 18:00 test2.txt
1 -rw-r--r-- 1      100000      100000    0 Mar 23 17:58 test.txt


jetzt gehts. danke!
 
Zuletzt bearbeitet:
Wichtig ist auch, dass du den pool / das Verzeichnis richtig auswählst. Ich weiß ja nicht, wie es bei dir aussieht.. vermute dass du dann /vm_tank/data/ statt /rpool/data/ verwenden musst.

Hier mal meine Inhalte der subuid und subgid:

Code:
# /etc/subuid
root:100000:65536
docker-user:165536:65536
root:1000:1

Code:
# /etc/subgid
root:100000:65536
docker-user:165536:65536
root:1000:1

Und dann lass das groupadd weg:

Bash:
 adduser --home /vm_tank/data/docker \
    --gecos "" \
    --quiet \
    --disabled-login \
    --ingroup docker-user \
    docker-user


Das Verzeichnis /vm_tank/data/docker muss existieren und dem docker-user gehören.

Bash:
$ ls -lsa /vm_tank/data/
9 drwx------ 10 docker-user docker-user 18 Mar 23 13:41 docker

Falls das nicht so ist:
Bash:
chown -R docker-user:docker-user /vm_tank/data/docker
 
Zuletzt bearbeitet:
ja jetzt geht es, aber backups vom LXC gehen nicht mehr?

Code:
INFO: starting new backup job: vzdump 101 --remove 0 --notes-template '{{guestname}}' --notification-mode auto --compress zstd --mode snapshot --storage Backups --node pve
INFO: filesystem type on dumpdir is 'zfs' -using /var/tmp/vzdumptmp120275_101 for temporary files
INFO: Starting Backup of VM 101 (lxc)
INFO: Backup started at 2024-03-23 18:12:04
INFO: status = running
INFO: CT Name: docker
INFO: including mount point rootfs ('/') in backup
INFO: excluding bind mount point mp1 ('/mnt/') from backup (not a volume) (find ich gut)
INFO: mode failure - some volumes do not support snapshots
INFO: trying 'suspend' mode instead
INFO: backup mode: suspend
INFO: ionice priority: 7
INFO: CT Name: docker
INFO: including mount point rootfs ('/') in backup
INFO: excluding bind mount point mp1 ('/mnt/') from backup (not a volume)
INFO: starting first sync /proc/115417/root/ to /var/tmp/vzdumptmp120275_101
INFO: first sync finished - transferred 1.71G bytes in 7s
INFO: suspending guest
INFO: starting final sync /proc/115417/root/ to /var/tmp/vzdumptmp120275_101
INFO: final sync finished - transferred 0 bytes in 1s
INFO: resuming guest
INFO: guest is online again after 1 seconds
INFO: creating vzdump archive '/vm_tank/backup/dump/vzdump-lxc-101-2024_03_23-18_12_04.tar.zst'
INFO: tar: ./home/docker-user: Cannot open: Permission denied (fail)
INFO: Total bytes written: 1746360320 (1.7GiB, 288MiB/s)
INFO: tar: Exiting with failure status due to previous errors
ERROR: Backup of VM 101 failed - command 'set -o pipefail && lxc-usernsexec -m u:0:100000:1000 -m g:0:100000:1000 -m u:1000:1000:1 -m g:1000:1000:1 -m u:1001:101001:64535 -m g:1001:101001:64535 -- tar cpf - --totals --one-file-system -p --sparse --numeric-owner --acls --xattrs '--xattrs-include=user.*' '--xattrs-include=security.capability' '--warning=no-file-ignored' '--warning=no-xattr-write' --one-file-system '--warning=no-file-ignored' '--directory=/var/tmp/vzdumptmp120275_101' ./etc/vzdump/pct.conf ./etc/vzdump/pct.fw '--directory=/var/tmp/vzdumptmp120275_101' --no-anchored '--exclude=lost+found' --anchored '--exclude=./tmp/?*' '--exclude=./var/tmp/?*' '--exclude=./var/run/?*.pid' . | zstd '--threads=1' >/vm_tank/backup/dump/vzdump-lxc-101-2024_03_23-18_12_04.tar.dat' failed: exit code 2
INFO: Failed at 2024-03-23 18:12:19
INFO: Backup job finished with errors
INFO: notified via target `mail-to-root`
TASK ERROR: job errors
 
ja jetzt geht es, aber backups vom LXC gehen nicht mehr?

Code:
INFO: tar: ./home/docker-user: Cannot open: Permission denied (fail)

Ich vermute du hast im LXC das Verzeichnis /home/docker-user nicht angelegt, es gehört nicht dem Benutzer docker-user oder Proxmox hat n Bug, dass das Verzeichnis /home/docker-user existieren muss, obwohl das home-Verzeichnis eigentlich woanders liegt.

Ich würde mal das /home/docker-user Verzeichnis im LXC und unter Proxmox anlegen und gucken, obs dann geht. Wichtig: Es muss auch dem docker-user gehören (in beiden Systemen).
 
Code:
INFO: tar: ./home/docker-user: Cannot open: Permission denied (fail)

Ich vermute du hast im LXC das Verzeichnis /home/docker-user nicht angelegt, es gehört nicht dem Benutzer docker-user oder Proxmox hat n Bug, dass das Verzeichnis /home/docker-user existieren muss, obwohl das home-Verzeichnis eigentlich woanders liegt.

Ich würde mal das /home/docker-user Verzeichnis im LXC und unter Proxmox anlegen und gucken, obs dann geht. Wichtig: Es muss auch dem docker-user gehören (in beiden Systemen).

hey nochmals danke für deine hilfe.

aktueller stand:
unter PVE shell

Bash:
root@pve:~# cat /etc/passwd
root:x:0:0:root:/root:/bin/bash
...
docker-user:x:1000:1000:,,,:/vm_tank/data/docker:/usr/sbin/nologin

root@pve:~# ls -lsa /vm_tank/data
total 11
1 drwxr-xr-x 5 root        root        5 Mar 23 17:57 .
1 drwxr-xr-x 6 root        root        6 Mar 19 17:58 ..
9 drwx------ 3 docker-user docker-user 8 Mar 24 11:09 docker
1 drwxr-xr-x 2 root        root        2 Mar 19 18:02 dump
1 drwxr-xr-x 2 root        root        2 Mar 19 18:02 private

root@pve:~# ls /home/docker
ls: cannot access '/home/docker': No such file or directory
root@pve:~# ls /home/docker-user
ls: cannot access '/home/docker-user': No such file or directory

root@pve:~# mkdir /home/docker-user
root@pve:~# chown -R docker-user:docker-user /home/docker-user
root@pve:~# ls -lsa /home
total 12
4 drwxr-xr-x  3 root        root        4096 Mar 24 11:15 .
4 drwxr-xr-x 19 root        root        4096 Mar 23 17:20 ..
4 drwxr-xr-x  2 docker-user docker-user 4096 Mar 24 11:15 docker-user

auf LXC wirds irritierend für mich, die berechtigungen für /mnt/ sind auf docker-user wenn ich es richtig verstehe,
aber /home/docker-user/ existiert auch, aber egal ob als docker-user oder als root "permission denied".

Bash:
docker-user@docker:~$ id docker-user
uid=1000(docker-user) gid=1000(docker-user) groups=1000(docker-user),27(sudo),100(users),996(docker)

docker-user@docker:~$ cat /etc/passwd
root:x:0:0:root:/root:/bin/bash
...
docker-user:x:1000:1000:,,,:/mnt:/bin/bash

docker-user@docker:~$ ls -lsa /mnt/        
total 32
9 drwx------  3 docker-user docker-user    8 Mar 24 11:09 .
4 drwxr-xr-x 18 root        root        4096 Mar 24 10:48 ..
5 -rw-------  1 docker-user docker-user  214 Mar 24 11:09 .bash_history
5 -rw-r--r--  1 docker-user docker-user  220 Mar 23 17:57 .bash_logout
5 -rw-r--r--  1 docker-user docker-user 3526 Mar 23 17:57 .bashrc
1 drwxr-xr-x  3 docker-user docker-user    3 Mar 23 18:09 .docker-data
5 -rw-r--r--  1 docker-user docker-user  807 Mar 23 17:57 .profile
1 -rw-r--r--  1 docker-user docker-user    0 Mar 24 11:08 .sudo_as_admin_successful

docker-user@docker:~$ ls /home/docker
ls: cannot access '/home/docker': No such file or directory
docker-user@docker:~$ ls /home/docker-user
ls: cannot open directory '/home/docker-user': Permission denied

als Root

root@docker:~# ls -lsa /home/
total 12
4 drwxr-xr-x  3 root   root    4096 Mar 23 16:38 .
4 drwxr-xr-x 18 root   root    4096 Mar 24 10:48 ..
4 drwx------  2 nobody nogroup 4096 Mar 23 16:42 docker-user

root@docker:~# chown -R docker-user:docker-user /home/docker-user/
chown: cannot read directory '/home/docker-user/': Permission denied

wie kann ich auf dem LXC den /home/docker-user löschen/ändern/mit den korrekten berechtigungen ausstatten?
 
ok reset des LXC,
nochmals von vorne, jetzt hat alles funktioniert. k.a. wo mein fehler war
:rolleyes2: sorry for the hassle forum! danke für eure engelsgeduld so far.

btw. hab den home userpfad im LXC jetzt auf standard gelassen und nicht auf /mnt/, vielleicht war das der fehler?


Bash:
root@pve:~# ls -lsa /vm_tank/data/docker/
total 29
9 drwx------ 3 docker-user docker-user   10 Mar 24 17:43 .
1 drwxr-xr-x 5 root        root           5 Mar 23 17:57 ..
5 -rw------- 1 docker-user docker-user  395 Mar 24 11:28 .bash_history
5 -rw-r--r-- 1 docker-user docker-user  220 Mar 23 17:57 .bash_logout
5 -rw-r--r-- 1 docker-user docker-user 3526 Mar 23 17:57 .bashrc
1 drwxr-xr-x 3 docker-user docker-user    3 Mar 23 18:09 .docker-data
5 -rw-r--r-- 1 docker-user docker-user  807 Mar 23 17:57 .profile
1 -rw-r--r-- 1 docker-user docker-user    0 Mar 24 11:08 .sudo_as_admin_successful
1 -rw-r--r-- 1 docker-user docker-user    0 Mar 24 17:43 text2.txt
1 -rw-r--r-- 1      100000      100000    0 Mar 24 17:39 text.txt

docker-user@docker:~$ cat /etc/passwd
root:x:0:0:root:/root:/bin/bash
docker-user:x:1000:1000:,,,:/home/docker-user:/bin/bash
 
btw. hab den home userpfad im LXC jetzt auf standard gelassen und nicht auf /mnt/, vielleicht war das der fehler?
Hauptsache es läuft... der Rest ist egal :-) Ich weiß ohnehin nicht, ob das jemals jemand anders so gemacht hat wie ich. Bei mir funktionierts auch und ich bin zufrieden...
 
Smalltalk zum Proxmoxbackupserver, aktuell mache ich nachts zwei getrennte Backups zu verschiedenen PBS. Ich wollte Tuxis entlasten, indem ich eben nicht meine Backups jeden Tag auch noch dort herunterlade. Spricht etwas dagegen? Oder ist der Backup-Prozess so kritisch, dass er in der Anzahl möglichst gering gehalten werden sollte. 😉
 
Hat schon jemand die clusterweiten Notifications vollständig erfasst? Ich muss diese nutzen, da ich ansonsten gar keine Benachrichtigungen mehr bekomme, da ich einen "lokalen" Emailserver nutze. Aktuell bekomme ich Benachrichtigungen über alle Backups, hätte es aber lieber nur bei Problemen.
 
Smalltalk zum Proxmoxbackupserver, aktuell mache ich nachts zwei getrennte Backups zu verschiedenen PBS. Ich wollte Tuxis entlasten, indem ich eben nicht meine Backups jeden Tag auch noch dort herunterlade. Spricht etwas dagegen? Oder ist der Backup-Prozess so kritisch, dass er in der Anzahl möglichst gering gehalten werden sollte. 😉
Nope, Du kannst so viele Backup Jobs und Targets machen wie Du möchtest.
Variante #1 - Master Backup + Sync auf 2. PBS
Variante #2 - (zeitversetztes) Backup auf mehrere PBS

Backups kann man nie genug haben - aber wichtig: PVE Host Key sichern ...

Hat schon jemand die clusterweiten Notifications vollständig erfasst? Ich muss diese nutzen, da ich ansonsten gar keine Benachrichtigungen mehr bekomme, da ich einen "lokalen" Emailserver nutze. Aktuell bekomme ich Benachrichtigungen über alle Backups, hätte es aber lieber nur bei Problemen.
Ich glaube @BobbyD meint das global, also für alles was der PVE zu sagen hat. Das geht über den Notification matcher:
 
Das kann man doch in den Backup Jobs einstellen: "send email" --> "on failure only"
Das gibt es halt nicht mehr mit dem "neuen" Ding.

@Supaman PVE Host Key sagt mir jetzt auch erst mal nichts. Wenn es um das verschlüsselte Backup gehen sollte, ja die Key-Datei habe ich in Gänze aufbewahrt und meinem keepassXC angehängt.
 
Heute hab ich dann zum ersten Mal eine Email zu verfügbaren Updates bekommen, das fand ich sehr nützlich. Was die erfolgreichen Backups betrifft, vielleicht kann ich diese auch anderweitig ausfiltern, z.b. in meinem Email Client.
 
Warum es den wohl gibt? Gut gemacht, Broadcom. 😂😜
 
So ... :) ... jetzt läuft napp-it OmniOS auch auf aktuellem Proxmox bei mir, ohne mit dem Kernel tricksen zu müssen. Ich musste 3 Einstellungen anpassen und nach einigem Probieren läuft es mit der folgenden /etc/pve/qemu-server/100.conf:

Code:
acpi: 1
agent: 0
balloon: 0
boot: order=ide0
cores: 4
cpu: host
hostpci0: 0000:01:00.0,pcie=1,rombar=0
hotplug: disk,network
ide0: images:vm-100200-disk-1,size=32G,ssd=1
kvm: 1
localtime: 1
machine: q35
memory: 32768
name: vmnas
net0: e1000=DE:2B:F5:8E:00:00,bridge=vmbr0
net1: vmxnet3=52:42:4D:04:00:00,bridge=vmbr0
numa: 0
ostype: solaris
scsihw: virtio-scsi-single
smbios1: uuid=93cd5325-c77e-45e2-a3bf-3875fabf07a5
sockets: 1
startup: order=1,up=180,down=120
tablet: 1
vmgenid: de2f4e02-8ec9-4ba4-8adc-01cb45f01dda

Läuft jetzt unter Proxmox 8.1 - pve-manager/8.1.10; aktueller Kernel - Linux 6.5.13-3-pve; passthrough eines LSI3008. Letzterer hat OmniOS und auch OpenIndiana beim Booten abschmieren lassen. Wichtig waren bei mir am Ende umstellen/einstellen auf: q35, cpu auf host, hba hostpci mit pcie.

EDIT - Der Vollständigkeit halber noch 2 Screenshots aus der proxmox gui für die VM
 

Anhänge

  • config.png
    config.png
    26,5 KB · Aufrufe: 103
  • hardware.png
    hardware.png
    22,4 KB · Aufrufe: 105
Zuletzt bearbeitet:
Der Vollständigkeit halber hier auch:

Anleitung Import von ESX VMs:

PVE Update auf 8.18 & sicherheitshalber reboot / edit: 8.1.10 ist jetzt raus.
Datacenter - Storage - [ADD]
-> ganz unten in der Liste erscheint ein neuer Eintrag "ESXi"
Im nächsten Schritt wird man nach IP und Zugangsdaten vom VMware Server gefragt, und einen Listen Namen vergeben z.B. "ESX-1"
Danach erscheint der ESX Server als neuer Eintrag im Knoten beim local Storage, unterhalb der VMs.
Wenn man diesen Eintrag anklickt, wird eine liste der VMs vom ESX Datastore geladen,
ESX-VM aus der Liste auswählen -> Import
Jetzt noch die virtuelle Hardware prüfen/ändern und den PVE Ziel Storage auswählen & GO

Nach dem Import die PVE VM Optionen prüfen, wie z.B. Bootreihenfolge etc.
Ggf. temporär andere Netzwerkkarten Typen + Storage Controller Typen zuweisen, bis man die Virtio Treiber installiert hat.


Beim ESX Import gibt es möglicherweise Probleme die zum Abbruch führen:


... qemu-img: error while reading at byte 16475222528: Function not implemented
... <snip> zeroinit:/dev/pve/vm-666666-disk-1' failed: exit code 1

Das sieht dann ungefähr so aus:

Code:
transferred 14.4 GiB of 30.0 GiB (48.12%)
transferred 14.7 GiB of 30.0 GiB (49.13%)
transferred 15.0 GiB of 30.0 GiB (50.13%)
transferred 15.3 GiB of 30.0 GiB (51.13%)
qemu-img: error while reading at byte 16475222528: Function not implemented
  Logical volume "vm-666666-disk-0" successfully removed.
  Logical volume "vm-666666-disk-1" successfully removed.
TASK ERROR: unable to create VM 666666 - cannot import from 'ESX-test:ha-datacenter/system/server_2022/server_2022.vmdk' - copy failed: command '/usr/bin/qemu-img convert -p -n -f vmdk -O raw /run/pve/import/esxi/ESX-test/mnt/ha-datacenter/system/server_2022/server_2022.vmdk zeroinit:/dev/pve/vm-666666-disk-1' failed: exit code 1


Lösung:


Zitat PVE Staff t.lamprecht:

We're still looking into further improving w.r.t. running into the sometimes low rate-limiting of ESXi, especially for older ESXi versions. FWIW, for ESXi 7.0 there is a Config.HostAgent.vmacore.soap.maxSessionCount option
(under Host -> Manage -> System -> Advanced Settings) that one could increase as workaround.

Zitat PVE Forum networkabilityllc:

Setting Config.HostAgent.vmacore.soap.maxSessionCount to 50000 from the default of 500 in 7.0 U3 fixed it for me.


Am ESX Server muss ein Parameter geändert werden:
Host -> Manage -> System -> Advanced Settings
Config.HostAgent.vmacore.soap.maxSessionCount ---> den default Wert von 500 auf 50000 setzen.

ESX-PVE edit.jpg


Und schon rennt der Import !
 
Heute hab ich dann zum ersten Mal eine Email zu verfügbaren Updates bekommen, das fand ich sehr nützlich.
Ich bekomme aktuell nur von einem Node meines Clusters eine Email zu neuen Updates, jemand eine Idee, warum das nicht für alle funktioniert?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh