[Sammelthread] Proxmox Stammtisch

@Supaman Ja, schon beides probiert.

Edit:
Sep 01 00:00:45 prox1 systemd[1]: Starting dpkg-db-backup.service - Daily dpkg database backup service...
Sep 01 00:00:45 prox1 systemd[1]: Starting logrotate.service - Rotate log files...
Sep 01 00:00:45 prox1 systemd[1]: dpkg-db-backup.service: Deactivated successfully.
Sep 01 00:00:45 prox1 systemd[1]: Finished dpkg-db-backup.service - Daily dpkg database backup service.
Sep 01 00:00:45 prox1 systemd[1]: Reloading pveproxy.service - PVE API Proxy Server...
Sep 01 00:00:47 prox1 pveproxy[438048]: send HUP to 1761
Sep 01 00:00:47 prox1 pveproxy[1761]: received signal HUP
Sep 01 00:00:47 prox1 pveproxy[1761]: server closing
Sep 01 00:00:47 prox1 pveproxy[1761]: server shutdown (restart)
Sep 01 00:00:47 prox1 systemd[1]: Reloaded pveproxy.service - PVE API Proxy Server.
Sep 01 00:00:47 prox1 systemd[1]: Reloading spiceproxy.service - PVE SPICE Proxy Server...
Sep 01 00:00:48 prox1 spiceproxy[438068]: send HUP to 1768
Sep 01 00:00:48 prox1 spiceproxy[1768]: received signal HUP
Sep 01 00:00:48 prox1 spiceproxy[1768]: server closing
Sep 01 00:00:48 prox1 spiceproxy[1768]: server shutdown (restart)
Sep 01 00:00:48 prox1 systemd[1]: Reloaded spiceproxy.service - PVE SPICE Proxy Server.
Sep 01 00:00:48 prox1 systemd[1]: Stopping pvefw-logger.service - Proxmox VE firewall logger...
Sep 01 00:00:48 prox1 pvefw-logger[1753]: received terminate request (signal)
Sep 01 00:00:48 prox1 pvefw-logger[1753]: stopping pvefw logger
Sep 01 00:00:48 prox1 systemd[1]: pvefw-logger.service: Deactivated successfully.
Sep 01 00:00:48 prox1 systemd[1]: Stopped pvefw-logger.service - Proxmox VE firewall logger.
Sep 01 00:00:48 prox1 systemd[1]: pvefw-logger.service: Consumed 11.029s CPU time.
Sep 01 00:00:48 prox1 systemd[1]: Starting pvefw-logger.service - Proxmox VE firewall logger...
Sep 01 00:00:48 prox1 pvefw-logger[438081]: starting pvefw logger
Sep 01 00:00:48 prox1 systemd[1]: Started pvefw-logger.service - Proxmox VE firewall logger.
Sep 01 00:00:48 prox1 systemd[1]: logrotate.service: Deactivated successfully.
Sep 01 00:00:48 prox1 systemd[1]: Finished logrotate.service - Rotate log files.
Sep 01 00:00:50 prox1 spiceproxy[1768]: restarting server
Sep 01 00:00:50 prox1 spiceproxy[1768]: starting 1 worker(s)
Sep 01 00:00:50 prox1 spiceproxy[1768]: worker 438086 started
Sep 01 00:00:50 prox1 kernel: pveproxy invoked oom-killer: gfp_mask=0x140cca(GFP_HIGHUSER_MOVABLE|__GFP_COMP), order=0, oom_score_adj=0
Sep 01 00:00:51 prox1 kernel: CPU: 0 PID: 1761 Comm: pveproxy Tainted: P O 6.2.16-10-pve #1
Sep 01 00:00:51 prox1 kernel: Hardware name: Virtuozzo KVM, BIOS 1.11.0-2.vz7.4 04/01/2014
Sep 01 00:00:51 prox1 kernel: Call Trace:
Sep 01 00:00:51 prox1 kernel: <TASK>
Sep 01 00:00:51 prox1 kernel: dump_stack_lvl+0x48/0x70
Sep 01 00:00:51 prox1 kernel: dump_stack+0x10/0x20
Sep 01 00:00:51 prox1 kernel: dump_header+0x50/0x290
Sep 01 00:00:51 prox1 kernel: oom_kill_process+0x10d/0x1c0
Sep 01 00:00:51 prox1 kernel: out_of_memory+0x23c/0x570
Sep 01 00:00:51 prox1 kernel: __alloc_pages+0x1180/0x13a0
Sep 01 00:00:51 prox1 kernel: alloc_pages+0x90/0x1a0
Sep 01 00:00:51 prox1 kernel: folio_alloc+0x1d/0x60
Sep 01 00:00:51 prox1 kernel: filemap_alloc_folio+0xfd/0x110
Sep 01 00:00:51 prox1 kernel: __filemap_get_folio+0x1d4/0x3c0
Sep 01 00:00:51 prox1 kernel: filemap_fault+0x14a/0x940
Sep 01 00:00:51 prox1 kernel: ? _raw_spin_unlock+0xe/0x40
Sep 01 00:00:51 prox1 kernel: ? filemap_map_pages+0x14b/0x6f0
Sep 01 00:00:51 prox1 kernel: __do_fault+0x39/0x150
Sep 01 00:00:51 prox1 kernel: do_fault+0x1c7/0x430
Sep 01 00:00:51 prox1 kernel: __handle_mm_fault+0x6d9/0x1070
Sep 01 00:00:51 prox1 kernel: handle_mm_fault+0x119/0x330
Sep 01 00:00:51 prox1 kernel: ? lock_mm_and_find_vma+0x43/0x230
Sep 01 00:00:51 prox1 kernel: do_user_addr_fault+0x194/0x620
Sep 01 00:00:51 prox1 kernel: exc_page_fault+0x80/0x1b0
Sep 01 00:00:51 prox1 kernel: asm_exc_page_fault+0x27/0x30
Sep 01 00:00:51 prox1 kernel: RIP: 0033:0x7f4ddeff3d70
Sep 01 00:00:51 prox1 kernel: Code: Unable to access opcode bytes at 0x7f4ddeff3d46.
Sep 01 00:00:51 prox1 kernel: RSP: 002b:00007ffedf617288 EFLAGS: 00010246
Sep 01 00:00:51 prox1 kernel: RAX: 00007f4ddd71295b RBX: 00007f4ddd716e08 RCX: 0000000000000000
Sep 01 00:00:51 prox1 kernel: RDX: 00007ffedf617380 RSI: 00007f4ddf170250 RDI: 00007ffedf617360
Sep 01 00:00:51 prox1 kernel: RBP: 00007ffedf6177f0 R08: 00007f4dd91da270 R09: 0000000000000024
Sep 01 00:00:51 prox1 kernel: R10: 0000000000000035 R11: 0000000000000246 R12: 0000000000000000
Sep 01 00:00:51 prox1 kernel: R13: 0000000000000000 R14: 000055f84a0f5f90 R15: 00007f4ddd71295b
Sep 01 00:00:51 prox1 kernel: </TASK>
Sep 01 00:00:51 prox1 kernel: Mem-Info:
Sep 01 00:00:51 prox1 kernel: active_anon:10065 inactive_anon:1847495 isolated_anon:0 active_file:25 inactive_file:18 isolated_file:0 unevictable:0 dirty:0 writeback:29 slab_reclaimable:4955 slab_unreclaimable:55066 mapped:11748 shmem:11902 pagetables:5963 sec_pagetables:0 bounce:0 kernel_misc_reclaimable:0 free:26405 free_pcp:118 free_cma:0
Sep 01 00:00:51 prox1 kernel: Node 0 active_anon:40260kB inactive_anon:7389980kB active_file:100kB inactive_file:72kB unevictable:0kB isolated(anon):0kB isolated(file):0kB mapped:46992kB dirty:0kB writeback:116kB shmem:47608kB shmem_thp: 0kB shmem_pmdmapped: 0kB anon_thp: 1165312kB writeback_tmp:0kB kernel_stack:3952kB pagetables:23852kB sec_pagetables:0kB all_unreclaimable? no
Sep 01 00:00:51 prox1 kernel: Node 0 DMA free:14336kB boost:0kB min:128kB low:160kB high:192kB reserved_highatomic:0KB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:15992kB managed:15360kB mlocked:0kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
Sep 01 00:00:51 prox1 kernel: lowmem_reserve[]: 0 2872 7850 7850 7850
Sep 01 00:00:51 prox1 kernel: Node 0 DMA32 free:46748kB boost:2048kB min:26728kB low:32896kB high:39064kB reserved_highatomic:0KB active_anon:18652kB inactive_anon:2813160kB active_file:152kB inactive_file:72kB unevictable:0kB writepending:116kB present:3129200kB managed:3010796kB mlocked:0kB bounce:0kB free_pcp:460kB local_pcp:0kB free_cma:0kB
Sep 01 00:00:51 prox1 kernel: lowmem_reserve[]: 0 0 4978 4978 4978
Sep 01 00:00:51 prox1 kernel: Node 0 Normal free:44536kB boost:0kB min:42772kB low:53464kB high:64156kB reserved_highatomic:2048KB active_anon:21608kB inactive_anon:4576820kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:5242880kB managed:5097500kB mlocked:0kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
Sep 01 00:00:51 prox1 kernel: lowmem_reserve[]: 0 0 0 0 0
Sep 01 00:00:51 prox1 kernel: Node 0 DMA: 0*4kB 0*8kB 0*16kB 0*32kB 0*64kB 0*128kB 0*256kB 0*512kB 0*1024kB 1*2048kB (M) 3*4096kB (M) = 14336kB
Sep 01 00:00:51 prox1 kernel: Node 0 DMA32: 180*4kB (UME) 890*8kB (UME) 362*16kB (UME) 761*32kB (UME) 106*64kB (UME) 13*128kB (UM) 0*256kB 0*512kB 0*1024kB 0*2048kB 0*4096kB = 46432kB
Sep 01 00:00:51 prox1 kernel: Node 0 Normal: 388*4kB (UME) 107*8kB (UME) 703*16kB (UME) 709*32kB (UMEH) 116*64kB (UM) 4*128kB (M) 1*256kB (M) 0*512kB 0*1024kB 0*2048kB 0*4096kB = 44536kB
Sep 01 00:00:51 prox1 kernel: Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=1048576kB
Sep 01 00:00:51 prox1 kernel: Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
Sep 01 00:00:51 prox1 kernel: 12015 total pagecache pages
Sep 01 00:00:51 prox1 kernel: 0 pages in swap cache
Sep 01 00:00:51 prox1 kernel: Free swap = 0kB
Sep 01 00:00:51 prox1 kernel: Total swap = 0kB
Sep 01 00:00:51 prox1 kernel: 2097018 pages RAM
Sep 01 00:00:51 prox1 kernel: 0 pages HighMem/MovableOnly
Sep 01 00:00:51 prox1 kernel: 66104 pages reserved
Sep 01 00:00:51 prox1 kernel: 0 pages hwpoisoned
Sep 01 00:00:51 prox1 kernel: Tasks state (memory values in pages):
Sep 01 00:00:51 prox1 kernel: [ pid ] uid tgid total_vm rss pgtables_bytes swapents oom_score_adj name
Sep 01 00:00:51 prox1 kernel: [ 735] 0 735 8280 224 98304 0 -250 systemd-journal
Sep 01 00:00:51 prox1 kernel: [ 777] 0 777 6585 320 69632 0 -1000 systemd-udevd
Sep 01 00:00:51 prox1 kernel: [ 1059] 103 1059 1969 128 53248 0 0 rpcbind
Sep 01 00:00:51 prox1 kernel: [ 1125] 101 1125 2304 192 53248 0 -900 dbus-daemon
Sep 01 00:00:51 prox1 kernel: [ 1130] 0 1130 38187 128 61440 0 -1000 lxcfs
Sep 01 00:00:51 prox1 kernel: [ 1131] 0 1131 69539 128 86016 0 0 pve-lxc-syscall
Sep 01 00:00:51 prox1 kernel: [ 1136] 0 1136 4159 256 61440 0 0 systemd-logind
Sep 01 00:00:51 prox1 kernel: [ 1137] 0 1137 583 32 40960 0 -1000 watchdog-mux
Sep 01 00:00:51 prox1 kernel: [ 1138] 0 1138 1327 96 45056 0 0 qmeventd
Sep 01 00:00:51 prox1 kernel: [ 1140] 0 1140 60164 256 86016 0 0 zed
Sep 01 00:00:51 prox1 kernel: [ 1159] 0 1159 1766 115 49152 0 0 ksmtuned
Sep 01 00:00:51 prox1 kernel: [ 1356] 0 1356 615 32 45056 0 0 bpfilter_umh
Sep 01 00:00:51 prox1 kernel: [ 1401] 0 1401 1256 96 45056 0 0 lxc-monitord
Sep 01 00:00:51 prox1 kernel: [ 1420] 0 1420 1468 64 45056 0 0 agetty
Sep 01 00:00:51 prox1 kernel: [ 1428] 0 1428 3851 384 69632 0 -1000 sshd
Sep 01 00:00:51 prox1 kernel: [ 1443] 100 1443 4715 202 57344 0 0 chronyd
Sep 01 00:00:51 prox1 kernel: [ 1456] 100 1456 2633 210 57344 0 0 chronyd
Sep 01 00:00:51 prox1 kernel: [ 1517] 0 1517 181841 307 176128 0 0 rrdcached
Sep 01 00:00:51 prox1 kernel: [ 1534] 0 1534 281223 14654 458752 0 0 pmxcfs
Sep 01 00:00:51 prox1 kernel: [ 1627] 0 1627 10664 166 73728 0 0 master
Sep 01 00:00:51 prox1 kernel: [ 1629] 104 1629 10774 224 73728 0 0 qmgr
Sep 01 00:00:51 prox1 kernel: [ 1634] 0 1634 1652 96 45056 0 0 cron
Sep 01 00:00:51 prox1 kernel: [ 1654] 0 1654 37828 22753 294912 0 0 pve-firewall
Sep 01 00:00:51 prox1 kernel: [ 1655] 0 1655 36446 21408 290816 0 0 pvestatd
Sep 01 00:00:51 prox1 kernel: [ 1742] 0 1742 56157 31595 393216 0 0 pvedaemon
Sep 01 00:00:51 prox1 kernel: [ 1743] 0 1743 58462 32268 442368 0 0 pvedaemon worke
Sep 01 00:00:51 prox1 kernel: [ 1744] 0 1744 58536 32204 442368 0 0 pvedaemon worke
Sep 01 00:00:51 prox1 kernel: [ 1758] 0 1758 53186 25932 352256 0 0 pve-ha-crm
Sep 01 00:00:51 prox1 kernel: [ 1761] 33 1761 54564 29981 425984 0 0 pveproxy
Sep 01 00:00:51 prox1 kernel: [ 1768] 33 1768 19973 12448 196608 0 0 spiceproxy
Sep 01 00:00:51 prox1 kernel: [ 1769] 33 1769 20033 12581 188416 0 0 spiceproxy work
Sep 01 00:00:51 prox1 kernel: [ 1771] 0 1771 53066 25749 352256 0 0 pve-ha-lrm
Sep 01 00:00:51 prox1 kernel: [ 1801] 0 1801 1099721 651464 6082560 0 0 kvm
Sep 01 00:00:51 prox1 kernel: [ 1984] 0 1984 563288 246747 2654208 0 0 kvm
Sep 01 00:00:51 prox1 kernel: [ 17767] 0 17767 51969 26251 348160 0 0 pvescheduler
Sep 01 00:00:51 prox1 kernel: [ 220616] 0 220616 58370 32012 413696 0 0 pvedaemon worke
Sep 01 00:00:51 prox1 kernel: [ 223908] 0 223908 1099892 951662 8372224 0 0 kvm
Sep 01 00:00:51 prox1 kernel: [ 233042] 33 233042 60642 34468 442368 0 0 pveproxy worker
Sep 01 00:00:51 prox1 kernel: [ 242072] 33 242072 61096 34629 450560 0 0 pveproxy worker
Sep 01 00:00:51 prox1 kernel: [ 282591] 33 282591 60026 33657 430080 0 0 pveproxy worker
Sep 01 00:00:51 prox1 kernel: [ 426172] 104 426172 10764 160 73728 0 0 pickup
Sep 01 00:00:51 prox1 kernel: [ 437881] 0 437881 1366 32 49152 0 0 sleep
Sep 01 00:00:51 prox1 kernel: [ 438081] 0 438081 19796 64 49152 0 0 pvefw-logger
Sep 01 00:00:51 prox1 kernel: [ 438086] 33 438086 20029 12602 184320 0 0 spiceproxy work
Sep 01 00:00:51 prox1 kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=pveproxy.service,mems_allowed=0,global_oom,task_memcg=/qemu.slice/102.scope,task=kvm,pid=223908,uid=0
Sep 01 00:00:51 prox1 kernel: Out of memory: Killed process 223908 (kvm) total-vm:4399568kB, anon-rss:3806264kB, file-rss:384kB, shmem-rss:0kB, UID:0 pgtables:8176kB oom_score_adj:0
Sep 01 00:00:51 prox1 kernel: vmbr2: port 3(tap102i0) entered disabled state
Sep 01 00:00:51 prox1 kernel: vmbr2: port 3(tap102i0) entered disabled state
Sep 01 00:00:51 prox1 kernel: zd0: p1 p2 p3
Sep 01 00:00:51 prox1 systemd[1]: 102.scope: A process of this unit has been killed by the OOM killer.
Sep 01 00:00:51 prox1 systemd[1]: 102.scope: Failed with result 'oom-kill'.
Sep 01 00:00:51 prox1 systemd[1]: 102.scope: Consumed 5h 7min 58.655s CPU time.
Sep 01 00:00:51 prox1 pveproxy[1761]: restarting server
Sep 01 00:00:51 prox1 pveproxy[1761]: starting 3 worker(s)
Sep 01 00:00:51 prox1 pveproxy[1761]: worker 438273 started
Sep 01 00:00:51 prox1 pveproxy[1761]: worker 438274 started
Sep 01 00:00:51 prox1 pveproxy[1761]: worker 438275 started
Sep 01 00:00:52 prox1 qmeventd[438238]: Starting cleanup for 102
Sep 01 00:00:52 prox1 qmeventd[438238]: Finished cleanup for 102
Sep 01 00:00:55 prox1 spiceproxy[1769]: worker exit
Sep 01 00:00:55 prox1 spiceproxy[1768]: worker 1769 finished
Sep 01 00:00:56 prox1 pveproxy[233042]: worker exit
Sep 01 00:00:56 prox1 pveproxy[242072]: worker exit
Sep 01 00:00:56 prox1 pveproxy[282591]: worker exit
Sep 01 00:00:56 prox1 pveproxy[1761]: worker 233042 finished
Sep 01 00:00:56 prox1 pveproxy[1761]: worker 282591 finished
Sep 01 00:00:56 prox1 pveproxy[1761]: worker 242072 finished
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Supaman Ja, schon beides probiert.
Sep 01 00:00:51 prox1 kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=pveproxy.service,mems_allowed=0,global_oom,task_memcg=/qemu.slice/102.scope,task=kvm,pid=223908,uid=0
Sep 01 00:00:51 prox1 kernel: Out of memory: Killed process 223908 (kvm) total-vm:4399568kB, anon-rss:3806264kB, file-rss:384kB, shmem-rss:0kB, UID:0 pgtables:8176kB oom_score_adj:0

Ich würde den Fehler hier suchen. Entweder agierst Du beim Host Memory im Grenzbereich oder in der VM kommt die Anwendung nicht mit dem Ram klar.
 
@Supaman Ich hatte Proxmox mit ZFS aufgesetzt, das scheint aber RAM-technisch Probleme zu machen. Nun muss ich gucken, ob der VPS ohne ZFS wirklich besser läuft, denn die Windows-VM ist halt hungrig.
Vielleicht muss ich auch mal schauen, ob ich Windows auch ohne GUI bedienen kann.
 
ZFS ist in der tat ein Ram Fresser, der Probleme machen kann. Ich hatte den Fall, das auf einer Kiste mit 64 GB Ram ab so ca. 54GB belegung durch VMs mir auch die größen VMs abgestürzt sind. Einzige Lösung war damals mehr Ram in die Kiste, und dann nur zu 75% auslasten. Inzwischen nehme ich für die System Platten BTRFS und die VMs auf auf dem Ceph Storage, und habe keine Probleme mehr.
 
Inzwischen nehme ich für die System Platten BTRFS und die VMs auf auf dem Ceph Storage, und habe keine Probleme mehr.
Ist Ceph Storage auch was für den einen Massenspeicher des VPS oder sollte das schon separiert sein? Ich weiß ehrlich gesagt nicht mal im Ansatz, was das ist. Dieser VPS scheint eh schon am Limit zu sein.

Wenn es dazu Videos für Laien gibt, gerne her damit.

Auf jeden Fall hat die Windows-VM diese Nacht überlebt. 🥳
 
Zuletzt bearbeitet:
Ceph ist ein Cluster Storage als Block Device. Ich habe einen 3 Knoten Cluster mit 3x 2 SSDs als u2. Diese fungieren technsich wie ein Raid Controller, aber über alle Nodes verteilt. Fällt ein Knoten aus, werden kaufen de VMs auf die verbleiben 2 Nodes Live migriert, und alle läuft ohne Datenverlust weiter. Da Ceph den Datenbestand auf allen 3 Konten gleich hält, sind die Zeiten für das mrigrieren der VMs sehr kurz.

Ist aber nichts für einen Single Node, man braucht mindestens 3 Knoten, schnelle SSDs mit geringer Latenz und 10 GBE Netzzwerk für die Cluster Kommunikation.
Beitrag automatisch zusammengeführt:

Ich würde einen größeren Massenspeicher für die VM direkt als gerät in die VM durchreichen, und da keine große virtuelle Platte erstellen.
 
Zuletzt bearbeitet:
ZFS ist in der tat ein Ram Fresser, der Probleme machen kann. Ich hatte den Fall, das auf einer Kiste mit 64 GB Ram ab so ca. 54GB belegung durch VMs mir auch die größen VMs abgestürzt sind. Einzige Lösung war damals mehr Ram in die Kiste, und dann nur zu 75% auslasten. Inzwischen nehme ich für die System Platten BTRFS und die VMs auf auf dem Ceph Storage, und habe keine Probleme mehr.

Oder den Arc Cache limitieren.
 
Hab den Eindruck, dass die Windows-VM sich für abgestürzt hält, wenn sie von Proxmox heruntergefahren wurde. Guest Agent ist installiert und aktiviert. Irgendwer Erfahrung mit Windows als VM und hat ggf. Tipps? Der Herunterfahrenzeitraum ist ebenfalls großzügig eingestellt.

Capture.PNG
 
Zu diesem Screen ist mir noch was aufgefallen. Ich habe den Eindruck, dass Proxmox sich teilweise nicht an die Verzögerung hält. "up" soll doch wohl heißen, dass der VM-Start um diese Anzahl von Sekunden verzögert wird. Leider startet bei mir eine Debian VM immer noch zu früh, die pfSense-VM ist lange noch nicht fertig geladen...
 
Moin,
Ich habe gerade ein seltsames Phänomen.
Ich habe eine Debian VM, die kommt nicht ins Internet.
Auf der VM laufen Docker mit Portainer und in diesen Containern adguard home, nginx proxy manager. Beide mit Macvlan, d.h. Mit IP Adresse von der FRITZ!Box.

Aus meiner VM kann ich sowohl Adguard als auch Nginx nicht anpingen - und da Adguard mein DNS ist das Internet auch nicht. Aber alle sonstigen LAN devices (Fritz Box, …) gehen/antworten.
Logge ich mich nun in einer 2. VM ein kann ich sowohl Adguard als auch den Proxy Manager anpingen…

Einstellungen der VM sind in Proxmox identisch…

Ich möchte nur ungern die VM neu aufsetzen…

GELÖST: Vermutlich lag es an meiner DNS Konfiguration in der Fritzbox und Proxmox. Ich hatte in Proxmox direkt den DNS eintetragen. Dadurch kam es zu dem Fehler
 
Zuletzt bearbeitet:
Proxmox noob here, wie könnte ich ein Backup meines einzigen Proxmox Servers (VPS) machen, vielleicht mit dem Proxmox Backup Server? Ich würde mir den zuhause als VM auf meinen Hyper-V Server installieren und dann nachts die Backups aus dem VPS darauf machen.
Auf dem Proxmox VE brauche ich den aber nicht auch noch als VM aufsetzen oder? Dort gibt es ja schon eine lokale Backupfunktion für die einzelnen VMs.
 
Zuletzt bearbeitet:
Das Proxmox Backup fubktioniert etwas anders: Grundsätzlich kannst Du aus PVE heraus die VMs auf Storage sichern. Der PBS ist eher eine Art BackupStorage Datenlager, d.h. Du legst in PVE einen Backup Plan an, und definierst als Ziel den PBS. Im PBS legst Du dann Regeln fest, wie lange Backups aufgehoben werden sollen.

Der ganz große Trick vom PBS liegt darin, das man den PBS mit einem oder mehreren anderen PBS mit ein paar Mausklicks syncen kann.

Auf dem Proxmox VE brauche ich den aber nicht auch noch als VM aufsetzen oder? Dort gibt es ja schon eine lokale Backupfunktion für die einzelnen VMs.
Musst Du nicht, bietet sich aber an - der PBS bietet ein paar schicke Funktionen und frisst nicht viele Ressourcen.
 
der PBS bietet ein paar schicke Funktionen und frisst nicht viele Ressourcen.
Bin schon relativ nah am RAM-Limit, was wären denn das für schicke Funktionen?

Kann ich denn mit dem entfernten PBS trotzdem den ganzen PVE backupen oder wird das eher ein eigenständiges Backup nur der VMs?
 
Bin schon relativ nah am RAM-Limit, was wären denn das für schicke Funktionen?
Also die Retention kann ich ja auch mit VE einstellen. Und die Idee, den BS als VM auf dem Host zu betreiben, löst halt leicht Falten auf meiner Stirn aus. Wenn es aber so toll ist, müsste ich ggf. an anderer Stelle RAM einsparen.

Offtopic, aber da ich hier eh auf mich selbst antworte: Das Proxmox Mail Gateway scheint jetzt sicherheitstechnisch nicht mehr zu bieten, als was jeder gescheite Mailserver von Haus aus mitbringt. Nur ein Ticketsystem, um sich vermeintlichen Spam zustellen zu lassen, und eine ClamAV Integration sind da noch, beides spielt für mich als einzigen Nutzer meines E-Mail-Servers aber keine Rolle. Dennoch, wenn man ClamAV abschaltet, auf was könnte man den RAM-Bedarf reduzieren?
 
Zuletzt bearbeitet:
Bin schon relativ nah am RAM-Limit, was wären denn das für schicke Funktionen?

Kann ich denn mit dem entfernten PBS trotzdem den ganzen PVE backupen oder wird das eher ein eigenständiges Backup nur der VMs?
Der PBS verbraucht so ca. 900 MB Ram, das fällt unter "rauschen".
Bin schon relativ nah am RAM-Limit, was wären denn das für schicke Funktionen?

#1 Rechte-Management:
Ich habe das bei mir so eingestellt, das der PVE schreiben und lesen, aber nichts löschen darf. Backup Cleanup ist alleinige Sache des PBS.

#2 Sync
Das PVE / PBS Backup sichert auf Datenblockbasis mit automatische deduplizierung gemacht. In der Praxis bedeutet das, es wird einmalig ein Full Backup - allerdings schon mit dedup für die einzelnen Chunks - gemacht, danach nur noch die geänderten Datenblöcke gesichert. Und der selbe Mechnismus wird auch beim Sync zwischen zwei PBS verwendet: nach dem initialen Sync, werden nur noch die geändertren Blöcke gesynct. Das Setup ist sehr einfach: man macht die beiden PBS miteinander bekannt (so wie PVE <-> PBS) und sagt dann "mach mal Sync da" mit Angabe für den Zeitraum und fertrig. Einfacher geht es nicht.


Kann ich denn mit dem entfernten PBS trotzdem den ganzen PVE backupen oder wird das eher ein eigenständiges Backup nur der VMs?

Vom PVE brauchst Du nur das Verzeichnis /ect/pve sichern, und ev. die Datei /etc/network/interfaces wenn es ein komplexeres Setup ist.
Beitrag automatisch zusammengeführt:

Offtopic, aber da ich hier eh auf mich selbst antworte: Das Proxmox Mail Gateway scheint jetzt sicherheitstechnisch nicht mehr zu bieten, als was jeder gescheite Mailserver von Haus aus mitbringt. Nur ein Ticketsystem, um sich vermeintlichen Spam zustellen zu lassen, und eine ClamAV Integration sind da noch, beides spielt für mich als einzigen Nutzer meines E-Mail-Servers aber keine Rolle. Dennoch, wenn man ClamAV abschaltet, auf was könnte man den RAM-Bedarf reduzieren?

Jede AV und Spam Engine filtert etwas anders / hat andere Updates, von daher ist jede (zusätzliche) Instanz die eingehende Emails auf Spam und Viren filtert / vorsortiert, ist erstmal ein Gewinn. Ob das bei Dir ins Gewicht fällt, musst Du selbst beurteilen.
 
Der PBS verbraucht so ca. 900 MB Ram, das fällt unter "rauschen".
Nicht bei mir, ich hab nur 4 GB RAM auf dem VPS und die sind halt in use, 900 MB sind da sehr signifikant.
Jede AV und Spam Engine filtert etwas anders / hat andere Updates, von daher ist jede (zusätzliche) Instanz die eingehende Emails auf Spam und Viren filtert / vorsortiert, ist erstmal ein Gewinn. Ob das bei Dir ins Gewicht fällt, musst Du selbst beurteilen.
Inhaltlich würde ich da widersprechen, weil die machen quasi alle das selbe. Kannst Du vielleicht sagen, auf wie viel sich der RAM-Verbrauch reduzieren lässt ohne ClamAV? Denn wollte ich den ProxBS installieren, muss ich definitiv einsparen und überlege daher auch, das Gateway einzusetzen, wenn es denn weniger verbraucht als meine jetzige Lösung.
 
Zuletzt bearbeitet:
@Supaman Ist ein VPS, der VPS SX um genau zu sein. Und der soll es auch bleiben.
Edit: Werde erst mal das MG ausprobieren, was es wirklich braucht.
 
Zuletzt bearbeitet:
Das Deaktivieren von Clam hat den RAM-Verbrauch nahezu halbiert, wobei das nicht im Web-UI ging und ich hoffe, es bleibt auch deaktiviert. Außerdem ist faktisch noch keine E-Mail drüber gelaufen. Aber angenommen es bliebe so, dann könnte ich jetzt auch noch den BS auf den VPS klatschen. 8-)
 
Also das PMG ist mir dann doch zu kompliziert, teilweise muss man dann doch Postfix noch manuell konfigurieren, was ich nicht mag. Sicher, es würde sicher auch mit den Standardeinstellungen laufen, aber ich sehe da eher Nachteile zu meiner jetzigen Lösung. 😢

Z.B. hier kann ich was in das GUI eintragen, aber was macht das jetzt...
Capture.PNG
Edit: Vermutlich sollte ich das Ganze erst mal OOTB testen und nicht gleich rum fummeln. 😉
 
Zuletzt bearbeitet:
@BobbyD
Ich habe den PBS als Paket mit auf meinem PVV-Host installiert (daheim, homeserver).
Hatte den vorher auch als VM bzw als LXC. Hatte dann warum auch immer, ein Problem mit dem Ordnermapping der zweit SSD als Backupziel. Daher hab ich den dann lokal mit installiert und root zugriff auf die andere SSD.
Und weniger overhead, da keine eigene VM etc.

Wobei mein Sicherungsweg so aussieht PVE-> free online PBS von tuxis.nl-> sync auf den lokalen PBS auf dem PVE-Host.
Da ich keine lust hatte Portfreigaben zu machen, gehts erst zu tuxis und dann zu mir zurück.
 
Hab jetzt das PMG zum laufen gebracht, aber ich finde es fehlen halt viele Optionen im GUI.

Außerdem bekomme ich dieses Problem im Syslog angezeigt:
Sep 11 15:46:19 mymailserver pmg-smtp-filter[341]: starting database maintenance
Sep 11 15:46:19 mymailserver pmg-smtp-filter[341]: end database maintenance (11 ms)
Sep 11 15:46:30 mymailserver systemd[1]: pg_receivewal@15-main.service: Scheduled restart job, restart counter is at 19.
Sep 11 15:46:30 mymailserver systemd[1]: Stopped pg_receivewal@15-main.service - WAL archival of PostgreSQL Cluster 15-main.
Sep 11 15:46:30 mymailserver systemd[1]: Starting pg_receivewal@15-main.service - WAL archival of PostgreSQL Cluster 15-main...
Sep 11 15:46:30 mymailserver systemd[1]: Started pg_receivewal@15-main.service - WAL archival of PostgreSQL Cluster 15-main.
Sep 11 15:46:31 mymailserver pg_backupcluster[1681]: pg_receivewal: error: connection to server on socket "/var/run/postgresql/.s.PGSQL.5432" failed: FATAL: no pg_hba.conf entry for replication connection from host "[local]", user "postgres", no encryption
Sep 11 15:46:31 mymailserver pg_backupcluster[1679]: Error: pg_receivewal --cluster=15/main --slot pg_receivewal_service --create-slot --if-not-exists failed with exit code 256
Sep 11 15:46:31 mymailserver systemd[1]: pg_receivewal@15-main.service: Main process exited, code=exited, status=1/FAILURE
Sep 11 15:46:31 mymailserver systemd[1]: pg_receivewal@15-main.service: Failed with result 'exit-code'.
Vermutlich sollte ich im Proxmox Forum nachfragen suchen.
Edit: Also der LXC ist ja buggy as hell. :kotz:
 
Zuletzt bearbeitet:
Der LXC vom PMG ist, sagen wir mal, schlecht... Und obwohl ein Update angekündigt ist, ist es bis jetzt nicht erschienen. Weiß jemand, ob diese LXC-Templates von Proxmox unabhängig geupdatet werden oder ob diese immer oder zumeist zeitgleich mit ProxmoxVE-Updates kommen? Denn aktuell muss/kann/darf ich sowohl nach Updates für das OS händisch klicken, als auch auf den Templates-Button drücken. Ich hab aber nicht den Eindruck, dass letzterer selbst nach Updates für die Templates guckt.
Soweit ich das verstanden habe, könnte ich, sobald ein neues Template erscheint, die Config des alten LXC dort hineinladen. Wäre ich nicht so Ressourcen limitiert, hätte ich wohl jetzt einfach eine VM für das PMG aufgesetzt.
 
Ich habe den PBS als Paket mit auf meinem PVV-Host installiert (daheim, homeserver).
Die empfehlen ja 2 GB RAM Minimum, die hab ich nicht mehr frei auf dem VPS. Werde es also auch einfach auf das PVE klatschen, hoffe das gibt keine Probleme. 😓
 
@Luckysh0t Gibt es eine Empfehlung, in welchen Ordner des Hosts ich die Backups mittels PBS speicher? Ich hab nur den internen Speicher des VPS, der schon voll dem Host zugeteilt ist, daran soll sich auch nichts ändern. Letztlich ersetze ich die Backups vom PVE durch Backups vom PBS, placement dürfte egal sein, aber vielleicht gibt es ja einen schönen Pfad... 😉

Edit: Hab jetzt einfach einen Ordner unter /var/lib erstellt.
Edit2: Nun noch einen weiteren PBS auf Hyper-V installieren, besser gleich noch ein VPE.
 
Zuletzt bearbeitet:
Ich wollte nun einen Cluster aufmachen zwischen dem VPS und zuhause. Das ging schief, weil der zweite Node sich nur mittels öffentlicher IP-Adresse verbinden wollte, das geht aber nicht, da die Verbindung eigentlich über VPN gehen sollte. Leider kann ich jetzt den ersten Node auch nicht entclustern oder zumindest nicht einfach. Ich lasse ihn nun erst mal allein in seinem Cluster. Vielleicht wäre ein Cluster eh ungeeignet gewesen?
Anyways, nun überlege ich, wie ich die jeweiligen PBS richtig einbinde.

Ich könnte den zuhause, der mehr Storage zur Verfügung hat, mittels Syncjob verbinden, aber mich dünkt, dass das effektiv nicht viel bringt, weil er dann nur genau so viele Backups halten wird, wie schon der VPS selbst... Redundanz wäre aber gegeben.
  1. Ist diese Annahme richtig?
  2. Sollte ich das mit dem Cluster, allen Widrigkeiten zum trotz, noch mal versuchen? Oder würde das nur Sinn machen, wenn es wirklich um ständige HA geht, was es bei mir so nicht tut.
 
Zuletzt bearbeitet:
Gab ja leider keine Antworten mehr, dafür hab ich neue Fragen. :unsure:

Ich hab einen weiteren VPS mit PVE (und PBS) bespielt. Nun würde ich gerne eine bestehende VM vom ursprünglichen Host Prox1 auf diesen neuen VPS Prox2 duplizieren. Wie mache ich das? Einfach mittels der PBSe hat nicht geklappt, auf Prox2 wird mir da nichts "angeboten". Wie vorher erwähnt, sind diese VPSe nicht in einem Cluster.
 
Beide pve greifen auf den selben Datastore beim PBS zu?
Hatte vergessen, den PBS auf Prox2 auch dem lokalen PVE bekannt zu machen, jetzt scheint es zu laufen. Habe beim zweiten PVE auf Btrfs installiert, hoffe, das gibt keine Probleme. Langsam wird es komplex mit 3 Sites. 😅
 
Zuletzt bearbeitet:
ich habe ein Problem:

Ich habe auf einem Thin Client Proxmox laufen und dort läuft Homeassistent/Wireguard und Adguard.

Gestern Abend war der Strom kurz weg uns seitdem funktioniert Proxmox nicht mehr.
Der Server ist in der Fritzbox sichtbar und auch per Ping erreichbar.

Wenn ich Monitor und Tastatur anschließe komme ich auch in die Konsole.
Wie bekomme ich das Webinterface und den Rest wieder zum laufen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh