[Sammelthread] Proxmox Stammtisch

"no space left" ... gelöscht wird erst nach erfolgreich beendetem Backup. Also muss die Kapazität des Backup-Mediums 2x die der zu sichernden VM sein.

Nein, muss es nicht wegen Deduplizierung. Beim allerersten Backup wird ALLES gesichert, und Wiederholungen und Null Blöcke eingespart, d.h. man kommt so auf 30-40% Ersparnis. Danach werden nur noch die geänderten Blöcke gesichert. ABER: gelöschte Blöcke stehen aus performance Gründen erst *nach* 24+h und GC zu Verfügung, es sei denn man legt einen manuellen Cron Job an.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Netzwerk richtig konfiguriert?
Wie meinst?

Du müsstest innerhalb der beiden VMs nachschauen, ob die Sticks dort gelistet und wie sie dort eingebunden sind: /dev/uart... oder sowas. Was Du in Proxmox über die VM siehst, sagt nichts dazu aus, ob und wie das OS der VM den Stick dann auch tatsächlich erkennt.
Im PVE ist der USB Stick richtig eingetragen, USB Passtrough wird sonst auch nicht anders erledigt soweit ich weis. Mit Befehl lsusb wird der Stick auch angezeigt:

Bus 003 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 002 Device 002: ID 10c4:ea60 Silicon Labs CP210x UART Bridge
Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 001 Device 002: ID 0627:0001 Adomax Technology Co., Ltd QEMU USB Tablet
Bus 001 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub
 
Zuletzt bearbeitet:
Nur um sicher zu gehen, dass wir nicht aneinander vorbei schreiben:

Du hast 3 laufende Betriebssysteme?

1) Host Proxmox (von hier stammt lsusb oben, richtig?)
2) VM Sonoff
3) VM Homeassistant

Falls ja, dann müsstest Du prüfen, ob die Sticks auch in den VMs 2 und 3 ankommen. Und wenn ja, wie sie genau (/dev/xxx).

D.h. einloggen in VM Sonoff und einloggen in VM Homeassistant und dort jeweils lsusb. Sind die Sticks auch da sichtbar?
 
Mal davon abgesehen dass die eine VM den Stick nicht findet, afaik bekommst du deine Endgeräte eh nicht mit zwei Coordinators gekoppelt. Da würde ich eher den Weg gehen und ne eigenständige Z2M VM aufsetzen, die per MQTT an HA hängt. Oder halt Alexa in HA einrichten, so kompliziert ist das auch nicht :p
 
Nein, muss es nicht wegen Deduplizierung. Beim allerersten Backup wird ALLES gesichert, und Wiederholungen und Null Blöcke eingespart, d.h. man kommt so auf 30-40% Ersparnis. Danach werden nur noch die geänderten Blöcke gesichert. ABER: gelöschte Blöcke stehen aus performance Gründen erst *nach* 24+h und GC zu Verfügung, es sei denn man legt einen manuellen Cron Job an.
Aber nur, wenn man PBS nutzt. Und das war hier nicht der Fall. Es geht um Standard Backups direkt in proxmox, ohne PBS. Und da sind die Backups unabhängig voneinander.
 
Nur um sicher zu gehen, dass wir nicht aneinander vorbei schreiben:

Du hast 3 laufende Betriebssysteme?

1) Host Proxmox (von hier stammt lsusb oben, richtig?)
2) VM Sonoff
3) VM Homeassistant

Falls ja, dann müsstest Du prüfen, ob die Sticks auch in den VMs 2 und 3 ankommen. Und wenn ja, wie sie genau (/dev/xxx).

D.h. einloggen in VM Sonoff und einloggen in VM Homeassistant und dort jeweils lsusb. Sind die Sticks auch da sichtbar?
Moin,

also 1: Proxmox Host lsusb -t:

root@pve:~# lsusb -t
/: Bus 02.Port 1: Dev 1, Class=root_hub, Driver=xhci_hcd/10p, 5000M
/: Bus 01.Port 1: Dev 1, Class=root_hub, Driver=xhci_hcd/16p, 480M
|__ Port 3: Dev 2, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M ( HomeAssistant Sonoff Stick funzt )
|__ Port 4: Dev 5, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M ( Deconz Stick funzt nicht )
|__ Port 7: Dev 4, If 0, Class=Mass Storage, Driver=uas, 480M

2: VM Homeassistant aber hier funzt alles, hat nichts mit dem Thema zu tun

3: Neue VM mit deconz um sozusagen ein Zigbee Gateway zu erschaffen was Alexa finden und Geräte steuern kann.

lsusb -t

@zigbeeeconz:~$ lsusb -t
/: Bus 03.Port 1: Dev 1, Class=root_hub, Driver=xhci_hcd/15p, 5000M
/: Bus 02.Port 1: Dev 1, Class=root_hub, Driver=xhci_hcd/15p, 480M
|__ Port 1: Dev 2, If 0, Class=Vendor Specific Class, Driver=cp210x, 12M
/: Bus 01.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
|__ Port 1: Dev 2, If 0, Class=Human Interface Device, Driver=usbhid, 12M

lsusb VM deconz:

@zigbeeeconz:~$ lsusb
Bus 003 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 002 Device 002: ID 10c4:ea60 Silicon Labs CP210x UART Bridge
Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 001 Device 002: ID 0627:0001 Adomax Technology Co., Ltd QEMU USB Tablet
Bus 001 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

Phoscon VM IP: 192.168.178.90
phoscon.jpg



Stick wird nicht erkannt:

1688196506607.png
 
Zuletzt bearbeitet:
D.h., dass der Stick in VM deconz ankommt. Dann ist das Ganze nicht mehr an proxmox, sondern der Konfiguration der VM und Phoscon. ls /dev/ttyUSB* zeigt das sicherlich auch.

Bedenke aber, was @KurantRubys bereits schrieb: Deine Geräte können auch meiner Meinung nach nur an einen Coordinator gehangen werden.
 
Zuletzt bearbeitet:
Hi,

ich steh mal wieder übelst auf dem Schlauch. Ich habe nun PBS als VM in Proxmox erstellt ( ob sinnig ode rnicht bitte erstmal nicht beachten). Nun habe ich in Proxmox 2 Festplatten die ich gerne für PBS als Backupspeicher " einbinden " möchte. Hie rmal eine Übersicht vom Storage in Proxmox:


Storage.jpg


Nun soll die SATASSD und die USBSSD als Backupspeicher für PBS dienen.

Wie binde ich sie nun in PBS ein?? Gehe ich hin, lege unter Datastore unter " Add " einen neuen Ort fest, zb. Backing Path: /mnt/pve/SATASSD hat die nur 20gb Speicher anstatt 1000gb.

Kann jemand Helfen???
 
Wollte mich morgen ans update machen von 7 auf 8. Gibts irgendwas wichtiges zu beachten?
 
Wollte mich morgen ans update machen von 7 auf 8. Gibts irgendwas wichtiges zu beachten?
Ich hatte nach dem Update Probleme mit Passthrough von SAS3008 HBA. Omnios funktioniert dann nicht mehr.

Meine Lösung war: Proxmox 8 mit letztem Kernel vom 7.x starten. Der bleibt ja mit drauf. Danach ging alles wieder.

Es scheint immer mal wieder zu Herausforderungen zu kommen, im Zusammenspiel mit dem 6.x Kernel. Das würde ich empfehlen mal nachzugoogeln, in Abhängigkeit vom ggf. durchzureichenden Gerätes.
 
Hi,

ich steh mal wieder übelst auf dem Schlauch. Ich habe nun PBS als VM in Proxmox erstellt ( ob sinnig ode rnicht bitte erstmal nicht beachten). Nun habe ich in Proxmox 2 Festplatten die ich gerne für PBS als Backupspeicher " einbinden " möchte. Hie rmal eine Übersicht vom Storage in Proxmox:


Anhang anzeigen 900474

Nun soll die SATASSD und die USBSSD als Backupspeicher für PBS dienen.

Wie binde ich sie nun in PBS ein?? Gehe ich hin, lege unter Datastore unter " Add " einen neuen Ort fest, zb. Backing Path: /mnt/pve/SATASSD hat die nur 20gb Speicher anstatt 1000gb.

Kann jemand Helfen???
Kann hier jemand Helfen???
 
Ich hatte nach dem Update Probleme mit Passthrough von SAS3008 HBA. Omnios funktioniert dann nicht mehr.

Meine Lösung war: Proxmox 8 mit letztem Kernel vom 7.x starten. Der bleibt ja mit drauf. Danach ging alles wieder.

Es scheint immer mal wieder zu Herausforderungen zu kommen, im Zusammenspiel mit dem 6.x Kernel. Das würde ich empfehlen mal nachzugoogeln, in Abhängigkeit vom ggf. durchzureichenden Gerätes.
Gut zu wissen.
Ich reiche nur eine gpu durch. Und das auch direkt. Also ohne vgpu gebastel. Die wäre temporär verschmerzbar. Platten hängen alle direkt per sata bzw pcie am Board und in den zfs pools. Von daher hoffe ich da wenig trouble zu haben was das angeht...
Aber mal gucken. Sollte nachher dazu kommen...
 
  • Danke
Reaktionen: you
seit v8.0 fährt mein Server nicht mehr runter. Betrieb selbst ist ohne Probleme. Ich muss den immer per IPMI hart ausschalten.
 
@MisterY : Mal testweise mit nem "alten" 5er Kernel (statt v8 6er Kernel) starten und schauen, was dann beim Shutdown passiert?

Code:
proxmox-boot-tool kernel list

dann

Code:
proxmox-boot-tool kernel pin 5.irgendwas
 
das hat nicht funktioniert.

Das hier ist die Fehlermeldung:

rpviewer.png


der letzte Eintrag wiederholt sich nun alle 60 Sekunden.
 
Hab jetzt das update durch auf PVE8.
Eins ist seltsam:


Jul 12 00:34:44 cortexhost01 systemd[1]: Starting zfs-import@zfsmass01.service - Import ZFS pool zfsmass01...
░░ Subject: A start job for unit zfs-import@zfsmass01.service has begun execution
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit zfs-import@zfsmass01.service has begun execution.
░░
░░ The job identifier is 683.
Jul 12 00:34:44 cortexhost01 zpool[209295]: cannot import 'zfsmass01': a pool with that name already exists
Jul 12 00:34:44 cortexhost01 zpool[209295]: use the form 'zpool import <pool | id> <newpool>' to give it a new name
Jul 12 00:34:44 cortexhost01 systemd[1]: zfs-import@zfsmass01.service: Main process exited, code=exited, status=1/FAILURE
░░ Subject: Unit process exited
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ An ExecStart= process belonging to unit zfs-import@zfsmass01.service has exited.
░░
░░ The process' exit code is 'exited' and its exit status is 1.
Jul 12 00:34:44 cortexhost01 systemd[1]: zfs-import@zfsmass01.service: Failed with result 'exit-code'.
░░ Subject: Unit failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ The unit zfs-import@zfsmass01.service has entered the 'failed' state with result 'exit-code'.
Jul 12 00:34:44 cortexhost01 systemd[1]: Failed to start zfs-import@zfsmass01.service - Import ZFS pool zfsmass01.




ansich sieht aber alles gut aus:

1689155168907.png
 
Ich löse mal meine eigene Frage.

Ich habe beim Update alle neuen Configs übernommen.
Dabei ist es wohl so, das dann nicht registriert wird, das der zpool ein cachefile hat.
Also wird versucht diesen normal zu importieren beim boot.
Der import über chachefile funktioniert jedoch nach wie vor wie gewohnt.

Lösung ist dann einfach den normalen zfs import service zu disablen.
Dann reboot und systemctl ist wieder alles schick und alles ist cool!
 
Zuletzt bearbeitet:
Hey, kurze Frage. Meine Proxmox Summary ist unvollständig und ich weiß nicht, wie ich Proxmox dazu bringe diese durchgehend irgendwo hinzuschreiben. Hat jemand eine Idee bzw kommt sowas bei euch auch vor?
 
Was sagt der pvestat Service?

Ggf platte voll?
Service läuft, Platte leer, System nicht ausgelastet. Ich glaube, es hat etwas mit meiner NAS zu tun welche ich lediglich am morgen für ein Backup starte. Habe schon sämtliche Workarounds durch, logs gelöscht etc.
Habe jetzt mal die Ordner in "/var/lib/rrdcached/db" gelöscht - mal schauen wies weitergeht..

Liegt wirklich am Backup - solange ich die NAS nicht starte, und Proxmox nicht auf PBS Nas Freigabe zugreifen kann, werden die Logs geschrieben. Kann mir da jemand helfen? Ich habe ehrlich gesagt keinen Plan wie ich das Problem lösen könnte.

Via influx und z.B. Grafana habe ich lückenlose Logs. Kann damit leben...
 
Zuletzt bearbeitet:
Ich habe hier grade ein nerviges Problem: Server mit mehreren Netzwerk Karten & u2 / Nvme SSDs. Die NICs werden anhand der PCIe Bus Nr / Steckplatz durchnummeriret (z.B. enp35sS0f0 ), die sich demzufolge ändert, wenn man SSDs zufügt, entfernt oder eben auch eine abraucht. Das würfelt dann die Netzwerkkonfig durcheinander, was wiederum dazu führt das der Knoten aus dem Cluster fällt. Das würde ich gerne dahingehend ändern, das die NIC Namen sich nicht ändern, wenn sich an der PCIe Geräte zusammenstellung irgendwwas ändert.

Eine Lösung wäre, den NIC Namen anhand der MAC fest zuzuweisen:


in /etc/systemd/network eine Datei anlegen "NAME.link" mit dem Inhalt
Code:
[Match]
MACAddress=5c:2b:e1:23:d3:2a
Type=ether

[Link]
Name=eth_10g0

Technisch funktioniert das, aber ein Problem gibt es noch: "Type=ether" wird ignoriert, was zur Folge hat, das man den Eintrag im PVE GUI nicht mehr bearbeiten kann.

Irgendwelche Ideen ?

pve ether.JPG
 
Was wäre die einfachste Option eine disk direkt an eine VM durchzureichen?

Edit:

Vielleicht noch als hintergrund, Ist eine NVME, das sollen Videos zur Bearbeitung drauf landen und ein paar Games.
Ich wollte dafür nich noch einen eigenen Zfspool erstellen da mir der ja vermutlich noch mehr Memory klaut bezüglich caching?
 
Du kannst die Cache Größe ja limitieren.

Wenn es eine NVME ist, würde ich einfach das PCIE Gerät durchreichen, wobei ich es schon direkt in Proxmox machen würde und dann den Fileserver-LXC nehmen.
 
Habe aktuell das Problem, dass mir eine Windows VM irgendwann abschmiert. Muss dazu sagen, dass der 1€/M VPS von 1Blu auch arschlahm ist. Mir scheint der Storage verabschiedet sich aus der VM. Die neusten Windows Treiber für virtio sind installiert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh