[Sammelthread] Proxmox Stammtisch

Ich virtualisiere OmniOS/nappit auf Proxmox und das läuft mit dem Supermicro onboard SAS3008 ohne Probleme. Gestern - mit einem Hauch von Vorahnung - habe ich das Update auf Proxmox 8 gemacht und mein virtualisiertes NAS startete nur noch, wenn ich den SAS3008 nicht mehr an die VM durchgereicht hatte :poop:

Ich habe Proxmox 8 dann mit dem letzten Kernel der 7.x gestartet und damit funktioniert meine nas-VM wieder wie zuvor. So belasse ich es erst einmal und schaue, wie sich die Dinge entwickeln :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zu Vorteil 1 habe ich eine Frage. Was für ein gefrickel soll das sein?

Ob und wieviel "Gefrickel" das für Dich ist, hängt von Deinen Skills und Deiner Config ab. Wenn Du den ZFS direkt auf dem PVE konfigurierst, musst Du halt erst auf der Shell aktiv werden. Mit separater VM (z.B. TrueNAS) weist Du die Platten zu, das wäre dann <klickbar>, ist aber eine Zwischenschicht. Hat beides Vor- und Nachteile.
 
Magst du dazu mal was erzählen? Warum nicht TrueNAS? Wie installiert man das? Die napp-it doku ist - vorsichtig ausgedrückt - nicht gerade wohl strukturiert...
Ich antworte darauf mal als Entwickler von napp-it


Napp-it ist ein Tool das kein fertiges Produkt sein soll, sondern vereinfacht die Bedienung von Solaris und wird seit 15 Jahren an neue/meine Bedürfnisse angepasst. Mit napp-it gabs bereits einen robusten und stabilen webmanagebaren ZFS Filer als ZFS auf BSD oder Linux noch nicht verfügbar war oder nichts taugte. Die Dokus decken jeweils Teilaspekte ab, neue Funktionen werden teils in der GUI erklärt. Die meisten die Solaris einsetzen, benutzen die Originaldokus von Solaris oder z.B. https://www.oreilly.com/library/view/oracle-solaris-112/9780071844215/ für den Solaris Fork Illumos oder die Online manuals https://docs.oracle.com/en/operating-systems/solaris.html zu Solaris, ZFS und Comstar.

Setup
1. Den Solaris Fork OmniOS/OpenIndiana, ein Unix Server OS mit Open-ZFS (oder Oracle Solaris 11.4 mit Original ZFS) installieren

2. napp-it web-gui installieren (optional, wenn man Solaris einfacher haben möchte)
auf der Console (oder via Putty) als root anmelden und Installer starten
wget -O - www.napp-it.org/nappit | perl

Für ESXi gibts auch ein .ova zum Installieren einer lauffähigen Appliance mit ESXi Snap-Management via SOAP oder ssh

3. Browser mit Adresse http://serverip:81 aufrufen


OmniOS/ Solaris Unix ist zwar nicht Mainstream wie Linux oder Windows hat aber ein paar Vorteile
- ZFS wurde von Sun für Solaris entwickelt, Solaris ist immer noch die resourcenschonendste ZFS Plattform, läuft sehr gut ab 4GB RAM

- Serverdienste wie FC/iSCSI, NFS oder SMB sind Bestandteil von Illumos/Solaris und perfekt in ZFS integriert
Besonders der kernelbasierte SMB Server ist ein Killerfeature im Vergleich zu SAMBA wenn es um Windows Kompatibilität (ACL, lokale SMB Gruppen) oder Einfachheit geht

- OS Updates und Downgrades sind ultra easy und völlig problemlos
OmniOS stable haben je ein eigenes Repository per Release, nur Bug und Security Updates, keine neuen (unerwarteten) Features

- napp-it Funktionen wie Keyserver, SMB lock/unlock, boot unlock, HA die nicht in Open-ZFS enthalten sind.
 
Zuletzt bearbeitet:
@Shihatsu : Die Herausforderung ist, den HBA durchzureichen. Gelingt das, dann funktioniert das Ganze 1a. Aber genau daran hapert es teilweise dann schon bei OmniOS. Positiv: Sowas merkt man schon beim Installieren. Die VM schiebt einfach unmotiviert ab :) ... Hilfe im Netz ist dann nicht viel zu bekommen - solaris/proxmox/passthrough ist nicht so populär. Das ist dann trial-and-error.

Ich nutze OmniOS/nappit als kleines/feines NAS, weil es sich für mich besser anfühlt. TrueNas hat mich immer wieder irritiert und das ganze VM/Container/etc. Geraffel darin, benötige ich nicht doppelt. Vorteil an TrueNas: HBA durchreichen klappt eigentlich immer, wenn man die Basics in Proxmox eingestellt hat. Und die sind im Wiki von Proxmox gut erklärt, finde ich.

Ansonsten wie oben von gea beschrieben.
 
Ja aber deine VM in Proxmox hat möglicherweise keine IPv6 Adresse.
Ok, habe gerade mal im LXC wo die Nextcloud liegt reingesehen. Ist IPV4 und IPV6 DHCP eingestellt.
Beitrag automatisch zusammengeführt:

Kurz eine andere Frage:

Was muss ich unter Backups einstellen das er immer das gleiche Backup " überschreibt "? Hab eine USBSSD die aber nur 1GB hat, 2 Backups passen da nicht drauf, somit konfiguriere ich auf dieser Platte Wöchentlich ein Backup. Nur wie stelle ich es ein das er das vorhandene immer überschreibt?
 
Napp-it ist ein Tool das kein fertiges Produkt sein soll, sondern vereinfacht die Bedienung von Solaris und wird seit 15 Jahren an neue/meine Bedürfnisse angepasst.
First of all @gea: Das Zitierte war mir bewußt und ich schätze deine Arbeit so sehr, das ich meinen Post nicht als Kritik meinte. Genau so eine kurze Zusammenfassung hatte ich erhofft - allerdings nicht von dir. Von dir ists aber natürlich am Besten, daher: Vielen lieben Dank!
@Shihatsu : Die Herausforderung ist, den HBA durchzureichen. Gelingt das, dann funktioniert das Ganze 1a. Aber genau daran hapert es teilweise dann schon bei OmniOS. Positiv: Sowas merkt man schon beim Installieren. Die VM schiebt einfach unmotiviert ab :) ... Hilfe im Netz ist dann nicht viel zu bekommen - solaris/proxmox/passthrough ist nicht so populär. Das ist dann trial-and-error.

Ich nutze OmniOS/nappit als kleines/feines NAS, weil es sich für mich besser anfühlt. TrueNas hat mich immer wieder irritiert und das ganze VM/Container/etc. Geraffel darin, benötige ich nicht doppelt. Vorteil an TrueNas: HBA durchreichen klappt eigentlich immer, wenn man die Basics in Proxmox eingestellt hat. Und die sind im Wiki von Proxmox gut erklärt, finde ich.

Ansonsten wie oben von gea beschrieben.
Warum ist das unter TrueNAS einfacher als unter OmniOS? Eigentlich sollte das doch keinen Unterschied machen, da PCI passthrough mit dem Client ja nu wenig zu tun hat? ODer geht es um Treiberunterstützung fürt den expliziten HBA/SAS/SATA/whatsorever?
 
Warum ist das unter TrueNAS einfacher als unter OmniOS? Eigentlich sollte das doch keinen Unterschied machen, da PCI passthrough mit dem Client ja nu wenig zu tun hat? ODer geht es um Treiberunterstützung fürt den expliziten HBA/SAS/SATA/whatsorever?

Das hat mit dem Gast-OS der VM zu tun. Das Durchreichen klappt. Und qemu -> Linux/Free-BSD-OS klappt dann auch. Aber qemu -> Solaris-OS ... wenn es da nur ein bissl nicht so ist, wie OmniOS das mag, schmiert es gleich ab. Mit SAS2008 und SAS3008 können alle OS sonst sehr gut.

Also: Das Ziel-OS ist entscheidend. Die Basis für Linux/FreeBSD ist halt größer :)
 
Ich werds einfach mal ausprobieren - hab onboard und nen billo-HBA flashed HP Dingen da, mal schauen wie weit ich komme. Denn: TrueNAS ist schön und gut, aber ich brauch den ganzen Schnickschnack nicht - ich brauch nur NFS und SMB auf ZFS...
 
  • Danke
Reaktionen: you
Was muss ich unter Backups einstellen das er immer das gleiche Backup " überschreibt "? Hab eine USBSSD die aber nur 1GB hat, 2 Backups passen da nicht drauf, somit konfiguriere ich auf dieser Platte Wöchentlich ein Backup. Nur wie stelle ich es ein das er das vorhandene immer überschreibt?

Im PBS legst Du für den Datastore unter "Prune & GC" fest, wie lange die Backups aufgehoben werden sollen, z.B.
1 pro Monat
1 Pro Tag der Woche
etc

Wichtig ist zu wissen, das unter Prune die Backups erstmal nur intern als "gelöscht" markiert werden, und GC den Speicherplatz freigibt.
GC arbeitet aber mit 24h verzug, d.h. wenn Du jetzt etwas löscht, würde erst ein GC nach 24h+ die Sektoren freigeben.
Abhilfe für sofort lt. Forum: Datum der Sektoren Dateien im Ordner per shell "touch ..." um -2 Tage zurpcksetzen und dann GC nochmal starten,
 
Dann nimm doch einfach proxmox und mache alles in der Shell?

Ich beschäftige mich seit 15 Jahren intensiv mit ZFS und würde das immer vermeiden.
Für tägliche einfache Routinearbeiten ist es schon heftig, sich allein in den 3 grundlegenden Punkten fehlerfrei auf der Console zu bewegen. Eine leistungsfähige Web-GUI Appliance sehe ich bei einem Storageserver als unabdingbar an, egal welche,


(nur SAMBA, Solaris und der freie Solaris Fork Illumos haben einen eigenen viel einfacher zu konfigurierenden SMB Server in ZFS integriert)
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: you
Das ist kein Problem, du musst nur deinen Backup-Job richtig konfigurieren. Was hast du denn im Job bei "Retention" konfiguriert? Ist eigentlich alles sauber im Wiki erklärt:
Ich habe 2 Externe Festplatten für Backups eingebunden, nun soll auf eine Festplatte 1x täglich gesichert werden. Es soll auch kein Backup behalten werden, sondern immer das eine überschrieben werden. Auf eine andere Festplatte sichere ich dann jede Woche. Jedoch schlägt das Backup fehl, da der Speicherplatz nicht ausreicht und er das vorhandene Backup nicht "überschreibt ".
Folgendes Szenario:
Alle VM´s / LXC haben ca. 600gb
Ich hatte noch 2 SSD mit jeweils 1000gb da, ergo alle Backups passen nur 1x auf jede drauf.
Somit habe ich die Backups " gesplittet ", auf eine SSD 1x täglich und auf die andere 1x Wöchentlich und 1x Montal. extern auf verschlüsselt auf eine StorageBox ( Hetzner ).
 
Das hab ich schon verstanden - nochmal: Was hast du bei Retention eingetragen für diesen Backup-Job?
 
Ich meine ein Eintrag mit 0 wird nicht angenommen.
Backup.jpg
 
Zuletzt bearbeitet:
Schau mal unter Datacenter/Storage und dort auf Dein USB-Backup-Laufwerk. Wie schaut die Backup Retention da aus?


Keep Last 1 sollte es richten
 
Zuletzt bearbeitet:
Ich habe 2 Externe Festplatten für Backups eingebunden, nun soll auf eine Festplatte 1x täglich gesichert werden.
Es soll auch kein Backup behalten werden, sondern immer das eine überschrieben werden. Auf eine andere Festplatte sichere ich dann jede Woche.
Jedoch schlägt das Backup fehl, da der Speicherplatz nicht ausreicht und er das vorhandene Backup nicht "überschreibt ".
Folgendes Szenario:
Alle VM´s / LXC haben ca. 600gb
Ich hatte noch 2 SSD mit jeweils 1000gb da, ergo alle Backups passen nur 1x auf jede drauf.
Somit habe ich die Backups " gesplittet ", auf eine SSD 1x täglich und auf die andere 1x Wöchentlich und 1x Montal. extern auf verschlüsselt auf eine StorageBox ( Hetzner ).

Der PBS funktioniert etwas anders wie klassische Backup Programme. Der macht beim allerersten mal ein Vollbackup, aber nicht auf Dateibasis, sondern der sichert Chunks inkl. Deduplizierung wenn Chunks identisch sind. Sprich, Wenn Du mehrere Win10 VMs hast, hast Du ab der 2ten VM bereits XXX identische Chunks die eingespart werden.

Bei allen weiteren Backups an den nächsten Tagen werden nur die geänderten Chunks gesichert, was i.d.r. nur einen Bruchteil ausmacht. Wenn sich also nur ~10% der Datnblöche ändern, kannst Du bei 600 GB Datenmenge auf einer 1TB Platte mindestens 1 Erstsicherung + 5 Folgesicherugen speichern. Das kannst Du auch in den Reports nachlesen, wie die Statistiken sind und wie der DeDup Faktor ist.
Bedeutet, bei den Folgesicherungen werden nur ca. 60 GB gesichtert.

Wenn Du z.B. 6 Backups aufheben möchtest, musst Du 2 Sachen einstellen:
1) Eine Regel welcher Zeitraum aufgehoben werden soll (1 pro Woche, 5 für aktuelle Woche etc)
2) Eine GC (Garbage Collection) Regel - ist im selben Menüpunkt - hier werden die vorgemerkten zum löschen vorgemerkten Chunks dann tatsächlich freigegeben.

GC arbeitet aber mit 24h verzug, d.h. es werden nur Chunks freigegeben die älter als 24h sind.
Abhilfe für ich-bauche-sofort-mehr-Speicherplatz siehe Proxox Forum: Datum der Chunks Dateien im Ordner per shell mit "touch ..." um -2 Tage zurpcksetzen und dann GC nochmal starten,
 
Schau mal unter Datacenter/Storage und dort auf Dein USB-Backup-Laufwerk. Wie schaut die Backup Retention da aus?


Keep Last 1 sollte es richten
Hi,
ne funktioniert auch nicht.


Task viewer: VM/CT 100 - Backup

INFO: starting new backup job: vzdump 100 --quiet 1 --compress zstd --notes-template 'Nextcloud Tägl.Backup Local' --mode snapshot --storage USBSSD --mailnotification always
INFO: Starting Backup of VM 100 (lxc)
INFO: Backup started at 2023-06-29 21:00:03
INFO: status = running
INFO: CT Name: Nextcloud
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
Logical volume "snap_vm-100-disk-0_vzdump" created.
INFO: creating vzdump archive '/mnt/pve/USBSSD/dump/vzdump-lxc-100-2023_06_29-21_00_03.tar.zst'
INFO: zstd: error 25 : Write error : No space left on device (cannot write compressed block)
INFO: cleanup temporary 'vzdump' snapshot
Logical volume "snap_vm-100-disk-0_vzdump" successfully removed
ERROR: Backup of VM 100 failed - command 'set -o pipefail && lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- tar cpf - --totals --one-file-system -p --sparse --numeric-owner --acls --xattrs '--xattrs-include=user.*' '--xattrs-include=security.capability' '--warning=no-file-ignored' '--warning=no-xattr-write' --one-file-system '--warning=no-file-ignored' '--directory=/tmp/vzdumptmp4138188_100/' ./etc/vzdump/pct.conf ./etc/vzdump/pct.fw '--directory=/mnt/vzsnap0' --no-anchored '--exclude=lost+found' --anchored '--exclude=./tmp/?*' '--exclude=./var/tmp/?*' '--exclude=./var/run/?*.pid' ./ | zstd --rsyncable '--threads=1' >/mnt/pve/USBSSD/dump/vzdump-lxc-100-2023_06_29-21_00_03.tar.dat' failed: exit code 25
INFO: Failed at 2023-06-29 23:12:11
INFO: Backup job finished with errors
TASK ERROR: job errors


Hier mal die Info was gesichert wird:
Backup.jpg
 
"no space left" ... gelöscht wird erst nach erfolgreich beendetem Backup. Also muss die Kapazität des Backup-Mediums 2x die der zu sichernden VM sein.
 
"no space left" ... gelöscht wird erst nach erfolgreich beendetem Backup. Also muss die Kapazität des Backup-Mediums 2x die der zu sichernden VM sein.
Ja das war ja immer meine Frage!! Also kann Proxmox das Backup nicht einfach überschreiben sondern sichert erst und danach wird gelöscht?? Kann doch nicht sein das ich für ein Backup die doppelte Speichergröße haben muss.
 
warum sollte ein Backup überschrieben werden, bevor sichergestellt ist, das das nächste Backup erfolgreich geschrieben wurde?
Würde bei Deiner Lösung etwas schief gehen, wäre das vorherige Backup auch verloren. Also haben die alles richtig gemacht und für Dich mitgedacht.
 
Hm,

ok dann muss ich wohl nach einer größeren SSD suchen. Danke für die Erklärung.

Habe nun ein weiteres Problem:

Vieleicht bin ich ja auch einfach auf dem falschen Dampfer:(.

Ich hab einen Micro PC wo Proxmox läuft, auch unter anderem mit Homeassistant. Bei Homeassistant ist es mir jedoch einfach zu Aufwendig, Geräte dort per Alexa zu steuern.

Deshalb habe ich mir einen zweiten Sonoff Stick gekauft, und möchte damit sozusagen ein Zigbeee Gateway erschaffen. Nun habe ich in Proxmox eine VM erstellt, den neuen Stick unter Hardware / USB hinzugefügt und Deconz Installiert. Nur in Phoscon findet er das Gateway ( also den Stick ) nicht. Woran kann das liegen?? Wenn ich in Proxmox unter der VM nachsehe, ist dort der Stick richtig konfiguriert ( Host 1-4 ) meine HOmeassistant VM hat den Stick ( Host 1-3 ). Was mache ich falsch??
 
Du müsstest innerhalb der beiden VMs nachschauen, ob die Sticks dort gelistet und wie sie dort eingebunden sind: /dev/uart... oder sowas. Was Du in Proxmox über die VM siehst, sagt nichts dazu aus, ob und wie das OS der VM den Stick dann auch tatsächlich erkennt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh