[Sammelthread] Proxmox Stammtisch

Also mir CPU=Host habe ich gar keine Probleme (Haswell).
Mit Qemu/KVM ging früher AES-Ni aber nur mit PVE patches, geht das jetzt so?
Hallo,
das kann ich leider nicht sagen, diese Funktionen der CPU habe ich bisher noch nicht benötigt, aber danke für den Hinweis. Ich habe die CPU auf Host gestellt und damit läuft das auch prima...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für die Containerfunktion/LXCs brauchst Du keine NestedV. Daran liegt es keinesfalls.

Du hast per DHCP eine IP aus dem Netz bekommen? Oder hast Du eine statische IP aus dem Netz zugewiesen?
Mach mal
cat /etc/network/interfaces
und
ifconfig -a

Hört sich für mich aber eher nach falscher Netzwerkconfig in Virtualbox an.

Hallo!

Sorry für die späte Rückmeldung!

Hier der Output von cat /etc/network/interfaces:
net1.jpg


ifconfig ist nicht installiert und ohne internet-Zugriff kann ich es auch nicht installieren. Alternativ der Output von ip addr:
net2.jpg
 
Kannst Du das Gateway pingen?

Wie sieht Deine Netzwerkkonfigurarion in virtual Box aus? 192.168.1.0/24 ist dein lokales Netzwerk in dem auch der PC hängt?
 
Kannst Du das Gateway pingen?
Nein.

Wie sieht Deine Netzwerkkonfigurarion in virtual Box aus?
Wie meinst du das? Für die VM habe ich mich an das hier gehalten:
Code:
Network:
    Adapter 1: Host-only Adapter, vboxnet0; recommended leave the advanced settings as they are (Paravirtualized Network (virtio-net)).
    Adapter 2: NAT (attention: NOT NAT-network!!)

192.168.1.0/24 ist dein lokales Netzwerk in dem auch der PC hängt?
Genau.
 
Hallo zusammen,

ich habe das glaube ich hier schon einmal gefragt, dann wärme ich es nochmals auf, entschudligt bitte.

Ich möchte unter PVE 6.1-2 einem Container eine NFS Freigabe mounten. Das funktioniert so nicht.
Ich habe in den Apparmor Profilen lxc-defaults-cgns bzw. container-base folgende Einträge hinzugefügt.

Code:
 mount fstype=nfs,
  mount fstype=rpc_pipefs,
  mount fstype=nfsd,
  mount fstype=nfs4,
  mount options=(rw, rslave, nosuid, noexec, remount, relatime, ro, bind),

In der Container Config folgende Zeile eingefügt
Code:
lxc.apparmor.profile: lxc-container-default-cgns

Das ist das was ich so aus div. Quellen entnommen habe.

Der im Container habe ich das NFS Share in der fstab eingetragen.
Ein manueller Versuch ergibt das hier
Code:
mount.nfs: timeout set for Thu Feb 27 17:47:55 2020
mount.nfs: trying text-based options 'vers=4.2,addr=192.168.2.2,clientaddr=192.168.2.26'
mount.nfs: mount(2): Operation not permitted
mount.nfs: trying text-based options 'addr=192.168.2.2'
mount.nfs: prog 100003, trying vers=3, prot=6
mount.nfs: trying 192.168.2.2 prog 100003 vers 3 prot TCP port 2049
mount.nfs: prog 100005, trying vers=3, prot=17
mount.nfs: trying 192.168.2.2 prog 100005 vers 3 prot UDP port 892
mount.nfs: mount(2): Operation not permitted
mount.nfs: Operation not permitted

PVE wirft das hier aus
Code:
[204809.223434] audit: type=1400 audit(1582821926.388:271): apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-container-default-cgns" name="/" pid=16042 comm="(resolved)" flags="rw, rslave"

Welche Möglichkeit habe ich, um dem Container einen Netzwerk Share zu mounten?
Ich möchte hier letztendlich die Nutzdaten speichern.

Setzte ich den Container auf Priviligiert scheint es dann wohl zu funktionieren, was ich selber noch nicht getestet habe.
Finde es komisch, dass bei so vielen Quellen das alles immer funktioniert, nur in meinem Fall nicht.

Kann mir jemand weiterhelfen oder einen anderen Weg vorschlagen?

Danke
 
Unter Options / Features kannst du für den jeweiligen Container NFS aktivieren.
 
Danke für die info, das hatte ich zwar gelesen aber noch nicht ausprobiert. Wohl dessen dass der Contrainer dann als priviligierter CT läuft.
Getestet um festzustellen dass das so out of the Box nicht geht. Da muss ich dann die UID noch irgendwie mappen, sp habe ich das zumindest verstanden.
Auf den ersten Blick auch nichts davon verstanden. Daher dann wohl eher nichts für mich.

Wenn keiner eine funktioniertende Lösung, mit ggfs. Support, anbieten kann, werde ich wohl eine Ubuntu VM aufsetzen und dort dann die Freigabe mounten.
 
Hi zusammen,

ich bin aktuell mit der Planung meines kleinen Homeservers beschäftigt:

Für die VMs hätte ich gerne einen ZFS Mirror aus 2x PCIe NVMe SSDs.
(Vermutlich mit Sync Writes und SDDs mit PowerLoss-Protection)

Nun stellt sich mir die Frage:
Sollte ich Proxmox auch auf diesem Mirror installieren, oder dafür einen separaten ZFS Mirror aus 2x kleinen SATA SSDs verwenden?

Welche Vor/Nachteile hätte ich durch die Trennung?
Auf die "verlorenen" SATA Ports kommt es mir nicht unbedingt an, da für den Haupt-Storage sowieso ein HBA an eine NAS VM durchgereicht werden soll.
 
Was haltet ihr davon einen Cron auf einem Proxmox anzulegen der alle 5/10/XX Minuten einen Snapshot von Containern/VMs erstellt?
Ich will nicht in der Proxmox GUI 1000x von Konfigurierten Backups haben, es scheint keine Moeglichkeit zu geben ein Snapshot taeglich mehrmals auszufuehren.

Befehl wuerde dann folgendermassen aussehn:
vzdump --all --dumpdir /vmdata/backup --mode snapshot

/vmdata/backup ist mein zfs pool.

Eigentlich moechte ich ja eher sowas hier nutzen: https://github.com/zfsonlinux/zfs-auto-snapshot
Jedoch bin ich mir nicht sicher ob die Backups dann auch "brauchbar" sind. Getestet habe ich es mal, restore war auch erfolgreich. Aber ob ich mich darauf wirklich verlassen kann weiss ich nicht.

Ich will damit einfach nur erreichen von jedem Container immer einen Snapshot zu haben der nur maximal paar Minuten alt ist falls ad hoc ein Restore notwendig ist. Backups mach ich weiterhin in (un)regelmaessigen Abstaenden auf ext. Festplatten ;)
 
Hm, koennte die Loesung sein fuer mich. Danke schonmal.
Da es wohl die Proxmox API nutzt wird es sicherlich auch aufs selbe hinnaus laufen wie vzdump direkt aufzurufen.
Die Sache mit den Metrics ist auch nicht schlecht, hab hier ja schon ne influxdb fuer genau sowas.
 
Guten Abend,

ich spiele derzeit verschiedene Architekturen für einen Homeserver durch.

Momentan habe ich ein Setup, bei dem Proxmox den ZFS-Pool verwaltet, die Samba-Freigaben aber in einem LXC oder in einer VM gemacht werden. Zunächst habe ich die Daten per NFS an den LXC gegeben, dabei aber eine grottenschlechte Performance (ca. 10 MB/s bei Continuous Write) gehabt. Bei der Weitergabe als Mountpoint hatte ich dann akzeptable 70 MB/s. Dabei hat es nicht geholfen, NFS mit async oder soft zu mounten. Habt Ihr noch Ideen, wie man die Performance von NFS verbessern könnte?

Natürlich könnte die Weitergabe als Mountpoint für einen LXC reichen, aber für eine VM komme ich nicht um eine Weitergabe per NFS rum :oops:
Beitrag automatisch zusammengeführt:

Und direkt noch etwas: mein ZFS-Pool für die Daten der LXC und VM wird mirrored (auf 2xHDD) sein. Den rpool wollte ich hingegen eigentlich separat auf einer SSD ohne Mirror halten. Jetzt realisiere ich aber: wenn die SSD ausfällt, ist nicht nur die Installation, sondern auch die Konfiguration der VM verloren (deren Disks nicht, aber die Definitionen).

Wie handhabt Ihr das - den rpool auf die HDDs legen und keinen separaten Pool für den Kram der VMs, den Storage etc. machen?
 
Momentan habe ich ein Setup, bei dem Proxmox den ZFS-Pool verwaltet, die Samba-Freigaben aber in einem LXC oder in einer VM gemacht werden. Zunächst habe ich die Daten per NFS an den LXC gegeben, dabei aber eine grottenschlechte Performance (ca. 10 MB/s bei Continuous Write) gehabt. Bei der Weitergabe als Mountpoint hatte ich dann akzeptable 70 MB/s. Dabei hat es nicht geholfen, NFS mit async oder soft zu mounten. Habt Ihr noch Ideen, wie man die Performance von NFS verbessern könnte?

Natürlich könnte die Weitergabe als Mountpoint für einen LXC reichen, aber für eine VM komme ich nicht um eine Weitergabe per NFS rum :oops:

Ich habe heute mal weiter geforscht:
Richte ich einen LXC ein, der als Mountpoint die Daten erhält und dann von dort als SMB weitergibt, erreiche ich, wie oben beschrieben, gute Geschwindigkeit. Gebe ich die Daten dann statt per NFS per SMB von diesem LXC aus an die VMs, ist die Geschwindigkeit immernoch deutlich höher als per NFS.

Aus Spaß habe ich dann mal komplett neu aufgesetzt mit ESXi als Hypervisor und FreeNAS als ZFS-Storage und SMB/NFS-Server. Dann eine Debian VM, die Daten wiederum per SMB weitergibt. Diese Debian-VM habe ich mal per SMB von FreeNAS aus versorgt, mal per NFS. Auch hier war die Weitergabe zwischen Storage(FreeNAS) und VM(Debian) per SMB in fast allen Fällen performanter als per NFS.

Meine Testfälle waren: 3000x Files1,5MB lesen/schreiben und 7GB cont lesen/schreiben.

Es ist also kein Proxmox-Spezifikum, sondern ein NFS-Problem.
 
Bin letztens über diesen Thread gestoßen:
Weniger Latenz klingt immer gut, folgendermaßen bin ich vorgegangen:
Code:
5.6er Kernel bauen mit den standard Ubuntu Patches und integriertem ZFS (nötig, wenn man rootFS auch auf ZFS laufen hat):

apt install git build-essential kernel-package fakeroot libncurses5-dev libssl-dev ccache flex bison  libelf-dev build-essential autoconf libtool gawk alien fakeroot zlib1g-dev uuid-dev libattr1-dev libblkid-dev libselinux-dev libudev-dev libdevmapper-dev
mkdir ~/build && cd ~/build
git clone git://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git ubuntu_kernel
wget https://kernel.ubuntu.com/~kernel-ppa/mainline/v5.6/0001-base-packaging.patch
wget https://kernel.ubuntu.com/~kernel-ppa/mainline/v5.6/0002-UBUNTU-SAUCE-add-vmlinux.strip-to-BOOT_TARGETS1-on-p.patch
wget https://kernel.ubuntu.com/~kernel-ppa/mainline/v5.6/0003-UBUNTU-SAUCE-tools-hv-lsvmbus-add-manual-page.patch
wget https://kernel.ubuntu.com/~kernel-ppa/mainline/v5.6/0004-debian-changelog.patch
wget https://kernel.ubuntu.com/~kernel-ppa/mainline/v5.6/0005-configs-based-on-Ubuntu-5.6.0-6.6.patch
cd ubuntu_kernel/
git checkout tags/v5.6
cd ..
git clone https://github.com/zfsonlinux/zfs.git
cd zfs
git checkout tags/zfs-0.8.3
cd ../ubuntu_kernel/
patch -p1 < ../0001-base-packaging.patch
patch -p1 < ../0001-base-packaging.patch
patch -p1 < ../0002-UBUNTU-SAUCE-add-vmlinux.strip-to-BOOT_TARGETS1-on-p.patch
patch -p1 < ../0003
patch -p1 < ../0003-UBUNTU-SAUCE-tools-hv-lsvmbus-add-manual-page.patch
patch -p1 < ../0004-debian-changelog.patch
patch -p1 < ../0005-configs-based-on-Ubuntu-5.6.0-6.6.patch
cp /boot/config-"$(uname -r)" .config
yes '' | make oldconfig
make prepare scripts
cd ../
wget https://gist.githubusercontent.com/satmandu/67cbae9c4d461be0e64428a1707aef1c/raw/ba0fb65f17ccce5b710e4ce86a095de577f7dfe1/k5.6.3.patch
cd zfs
patch -p1 < ../k5.6.3.patch
sh autogen.sh
./configure --prefix=/ --libdir=/lib --includedir=/usr/include --datarootdir=/usr/share --enable-linux-builtin=yes --with-linux=$HOME/build/ubuntu_kernel --with-linux-obj=$HOME/build/ubuntu_kernel
./copy-builtin $HOME/build/ubuntu_kernel
make -j $(nproc)
make install
cd ../ubuntu_kernel
make menuconfig
File system -> ZFS filesystem support (check this)   --> save --> exit
make clean
make -j $(nproc) bindeb-pkg LOCALVERSION=-custom
dpkg -i ../linux*.deb
Dann noch in der <VMID>.conf folgendes eintragen:
Code:
args: -machine type=q35,kernel_irqchip=on -cpu host,invtsc=on,topoext=on,monitor=off,hv-time,kvm-pv-eoi=on,hv-relaxed,hv-vapic,hv-vpindex,hv-vendor-id=proxmox,hv-crash,kvm=off,kvm-hint-dedicated=on,host-cache-info=on,l3-cache=off
laut latencymon hat es bei mir folgendes gebracht:
interrupt to process latency (µs): von ~20 auf ~5
interrupt to DPC latency (µs): von ~9 auf ~2,8

Es fehlen aber die PVE spezifischen Anpassungen an apparmor, daher startet apparmor nicht mehr (mir egal :lol:), jedoch starten auf Grund dessen LXC Container nicht mehr ohne folgende Anpassung in der conf
Code:
lxc.apparmor.profile = unconfined
 
Zuletzt bearbeitet:
Hallo Leute,

Ich besitze einen HP ML10 Gen9 Server auf den ich Proxmox installiert habe.
Der Server besitzt zusätzlich eine 4 Port Intel Netzwerkkarte.
Managementport des Proxmox liegt auf der Onboard NIC
Das VM Netz LAN ist als LACP Bond auf 3 Netzwerkports mit meinem Switch verbunden.
Zusätzlich habe ich ein zusätzliches DMZ Netz angelegt was direkt mit meinen Router verbunden ist.

Das Netzwerk an sich funktioniert soweit. Alle VMs beziehen über DHCP ihre Netzwerkadresse und sind auch erreichbar.
Die VMs die mit dem LAN Netz verbunden sind funktionieren einwandfrei und haben auch Internetzugang um Updates und Co zu installieren.
Die VM1, die sich im DMZ Netz befindet, kann hingegen nur die Geräte im Netz 192.168.88.0/24 erreichen aber hat kein Internetzugang.

Habt ihr eine Idee wie ich das DMZ Netz richtig konfiguriere, das hier auch Internet verfügbar ist?

Anbei auch eine Übersicht der interfaces und ein kleines Schaubild zur Verdeutlichung.

root@pve:~# cat /etc/network/interfaces
Code:
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

iface enp4s0f0 inet manual

iface enp4s0f1 inet manual

iface enp5s0f0 inet manual

iface enp5s0f1 inet manual

auto enp3s0f0
iface enp3s0f0 inet manual

auto enp3s0f1
iface enp3s0f1 inet manual

auto bond0
iface bond0 inet manual
    bond-slaves enp3s0f0 enp4s0f0 enp4s0f1
    bond-miimon 100
    bond-mode 802.3ad

auto vmbr0
iface vmbr0 inet static
    address 192.168.178.90/24
    gateway 192.168.178.1
    bridge-ports eno1
    bridge-stp off
    bridge-fd 0

auto vmbr1
iface vmbr1 inet static
    bridge-ports bond0
    bridge-stp off
    bridge-fd 0
#Produktion

auto vmbr2
iface vmbr2 inet static
    address 192.168.88.2/24
    bridge-ports enp3s0f1
    bridge-stp off
    bridge-fd 0
    bridge-vlan-aware yes
    bridge-vids 88

Gruß

Dopamin
 

Anhänge

  • proxmox.png
    proxmox.png
    27,1 KB · Aufrufe: 351
  • netzplan.png
    netzplan.png
    38 KB · Aufrufe: 512
@Dopamin2485: Blöde frage, aber wer übernimmt hier das routing, der OpenWRT oder der Proxmox Host?
Sonst sicher das kein Internet geht? Oder geht nur kein DNS?
Sonst schon mal an Vlans gedacht, wenn der Switch LACP kann müsste er das ja auch können.
 
Sorry es war kein Fehler beim Proxmox sondern eine falsche Firewalleinstellung auf dem OpenWRT Router, die das ganze blockiert hat.
Ich habe nochmal probiert einen Client vom Client Netz ins DMZ Netz zu packen und das ganze direkt am Windows PC ausprobiert und als es dann dort auch nicht ging, konnte ich den Fehler gut eingrenzen.
Mein Setup läuft nun.

Vielen Dank trotzdem an alle, die sich mit mir Zusammen Gedanken gemacht haben.

Gruß

Dopamin
 
Hallo zusammen und frohe Restostern,

ich habe mir jetzt einen Homeserver zusammen gebaut und dank Corona jetzt sehr viel (unfreiwilige) Zeit wie viele andere wohl auch. Wie ihr vorrausichtlich recht schnell erkennen werdet, sind das meine ersten Erfahrungen in diesem Projekt und bisher habe ich nur ein Zyxel NAS gehabt.

Zielstellung:

  • Server für Medien/Plex
  • Cloud für Kalender und Fotos und Mails, persönliche Dokumente, etc.
  • Backup Lösung für die anderen PCs (später)
  • TS3 Server (später)
  • Stromsparend wie möglich
Setup:

  • AMd Athlon 3000G
  • ASUS Prime A320M-A
  • 8 GB DDR4 2400
  • 250GB Samsung 970 Evo SSD
  • 2 4TB WD Red (wird erweitert)

Ich habe testweise auf das obige Setup OMV5 raufgepackt aber irgendwie bin ich etwas unsicher ob das eine sichere Lösung ist, oder ob ich es mit ProxMox in einer VM Lösung versuchen soll. Ich möchte halt, das es so gut wie möglich sicher ist und nach meinem Verständnis ist die "sicherste" Lösung es innerhalb einer VM zu machen. Jetzt stellt sich mir aber die Frage, da ich wo anders gelesen habe, Plex/OMV sei in einer VM nicht optimal und lässt die HDD ständig rödeln. Ich möchte ja schon, dass die Platten im Leerlauf runterfahren dürfen und nicht wie doof Strom fressen. Des Weiteren das man z.B. Plex in einer VM generell nicht empfiehlt. Ist das so? Internet liegt bei mir eine 650Mbps down und 100Mbps up vor (erreicht werden ca. 580Mbps und 60Mbps)

Die nächste Frage bzgl. der HDD. Bisher dachte ich immer Raid 1 sei eine optimale Lösung zur Sicherung. Jetzt wurde in irgendeinem Thread aber auch das in Frage gestellt, da hiess es, wenn die Daten nicht wirklich enorm wichtig wären, Raid Verschwendung wäre. Die Medien wären nicht der Verlust, daher verstehe ich das schon. Würdet ihr in dem FAll zum Beispiel für die wichtigen Daten wie Dokumente, Mails, Kalender etc. ein Raidverbund machen und für die Medien ohne Raid?

Aufgrund meiner überschaubaren Erfahrungen stellt sich mir jetzt die Frage aus Sicherheitsaspekten ob ProxMox meine Daten besser absichert als es OMV könnte?
Wie sind die ProxMox/VM Auswirkungen auf den Stromverbrauch?

Ich denke es werden noch viele Fragen folgen, aber ich wäre echt für jeden ProxMox Input dankbar für euch.

Eine bitte noch, ich weiss ich bin ein Anfänger, bitte hasst mich nicht dafür. ;) Bei Fragen stehe ich euch gern zur Verfügung.

Cheers und frohe Ostern und maximale Gesundheit noch.

Wikinger85
 
Hallo zusammen,

ich bin noch ziemlich neue im Bereich Proxmox. Habe mir vor ein paar Tagen einen Server aufgesetzt und läuft jetzt auch so ohne Probleme. Aktuell mache ich mir aber jetzt gedanken, wie ich die LXC und VMs sichern kann. Gedacht hierfür ist mein Backup-Server, welche eine SMB freigabe hat. Dieser Server läuft aber nur zum Sichern und wird dann wieder ausgeschaltet.

Kann mir einer einen Weg aufzeigen, wie ich ein Backup auf den Server erstellen kann?

Danke schon mal :)
 
@dapcfreek Nutz doch dafür einfach die Backup Funktion in Proxmox. Die SMB Freigabe in Proxmox mounten als Storage und dann nur VZDump backup file als Content auswählen.
Ist das erstmal Einfachste, gibt aber noch 100 weitere Möglichkeiten.
 
Hallo....
Habe folgendes Problem. Habe einen lxc Container auf dem docker läuft. Benötige ich für ocrnypdf und webdav.. Das klappt sehr gut. Der Container ist ei. unprivilegierter Container wegen docker.
Nun möchte ich aus einer VM die mit omv läuft eine samba Freigabe in den Container mounten. Das geht natürlich nicht da es für cifs nötig ist ein privilegierten Container zu nutzen.

Jetzt gibt es wohl bind mount. Nur wie kann ich die Freigabe in der conf Datei vornehmen?
mp0: und dann? Ist das überhaupt so möglich?

VM hat die id 145 und der lxc Container 157

Danke....

Grüße micky1067
 
Code:
mp0: /dein/verzeichnis/auf/dem/pve/host,mp=/dein/verzeichnis/im/container

Damit kommst du aber nicht in die VM
 
Hallo morph027

Ja der Befehl ist mir bekannt... Nur kann ich von
Einer VM zu einem lxc Container direkt mounten?
 
Nein, eine VM nutzt ja virtuelle Disks. Einzige Möglichkeit: du mountest einen Ordner vom Host per smb in die VM und diesen Ordner auch als mp in den LXC.
 
Schade... Na ja... Muss ich mir eine andere Lösung ausdenken. Ich habe halt zwei Platten direkt an die vm als nas durchgereicht und habe in der vm diese per smb frei gegeben.

Vielleicht ändere ich doch das ganze so, dass ich einen priv. Container nehme und webdav und ocrmypdf nicht als docker laufen lasse..

Danke für die Infos..
 
Warum nutzt du nicht nextcloud?

Und zfs vom Host und dann Samba? Ohne VM.
 
Nextcloud nutze ich schon..
Nur wollte ich das trennen. Na ja... Überlege mir
Noch welche Lösung die beste ist.
Docker in einem priv. Container wäre nicht schlecht. Aber da gibt es wohl noch Probleme
Beitrag automatisch zusammengeführt:

Ich habe proxmox auf einem Debian installiert damit ich autosuspend nutzen kann und die Festplatten an die vm als nas durchgereicht.
Nur so als Info
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh