[Sammelthread] Proxmox Stammtisch

Moin, ich beschäftige mich das 1. mal mit proxmox. Aber irgendwie verstehe ich die Netzwerkconfig nicht. Ich hatte vor einer utm eine nic direkt durchzureichen und eine virtuelle nic mit einer bridge zu verbinden. Aber hier kann ich nur bridges für die 2 physischen nics anlegen. Kann mir mal bitte jemand vom Schlauch helfen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin, ich beschäftige mich das 1. mal mit proxmox. Aber irgendwie verstehe ich die Netzwerkconfig nicht. Ich hatte vor einer utm eine nic direkt durchzureichen und eine virtuelle nic mit einer bridge zu verbinden. Aber hier kann ich nur bridges für die 2 physischen nics anlegen. Kann mir mal bitte jemand vom Schlauch helfen?

https://pve.proxmox.com/wiki/Network_Model

eigentlich "einfach" aber trotzdem ein leap da man mit "virtuellen" Adaptern arbeitet (aber andere HVs machen eigentlich das gleiche)
 
Zuletzt bearbeitet:
Danke, hab ich aber schon gelesen -> trotzdem Schlauch. Also wenn du mir noch ein paar Ansätze gebe würdest wäre ich dir dankbar.
 
Danke, hab ich aber schon gelesen -> trotzdem Schlauch. Also wenn du mir noch ein paar Ansätze gebe würdest wäre ich dir dankbar.

was genau ist dann dein problem ? einen Virtuellen Adapter zu erstellen aus einem Phy ? denn pysikalisch (passthrough) durchzureichen wäre was anderes
 
Zuletzt bearbeitet:
Ich verstehe nicht warum ich 1. keine bridge\vswitch anlegen kann die nicht mit einer physischen nic verbunden ist und 2. keine virtuelle nic der vm hinzufügen kann die genau mit dieser bridge verbunden ist.
 
du scheinst esxi oder Hyper-v benutzt zu haben :)

erstell doch mal aus einer phy (außer der 1. die automatisch gemacht wurde) zuerst mal eine neue vmbr (vmbr0 sollte da sein) dann für die nachsten vmbr1, vmbr2 etc

alternativ: https://pve.proxmox.com/wiki/Open_vSwitch
 
Zuletzt bearbeitet:
Genau. Bin bisher Esxi User und möchte mal über den Tellerrand schauen. Vmbr0 ist da und mit eth0 gebridged. Vmbr1 ist eine ovs bridge, und da wurde erstmal nix eingetragen.
Danke das war der Schlauch. Jetzt muss ich noch das passthrough hinbekommen.
 
Zuletzt bearbeitet:
Genau. Bin bisher Esxi User und möchte mal über den Tellerrand schauen. Vmbr0 ist da und mit eth0 gebridged. Vmbr1 ist eine ovs bridge, und da wurde erstmal nix eingetragen.

dann nutz entweder die oben genannte oder leg für deine Phy Nics je einen Vmbr an (in der netzwerk Config im GUI) .. nicht fein, aber quick and dirty
 
Zuletzt bearbeitet:
Habs mal schnell quick an dirty umgesetzt. Aber er möchte die vm nicht starten. Die bridge wäre nicht verfügbar...

Edit: reboot tut gut...
 
Zuletzt bearbeitet:
Hallo ich bin auch ziemlich neu im Therma Proxmox, und wollte mal fragen wie das läuft wenn ich den zfs pool per Mountbind an einen LXC Fileserver durchreiche wie zb hier erklärt: (https://tobs.tips/_doc_/ProxMoxDoc/07samba/)
Wie sichert ihr dann? Die Maschine kann ja ganz easy per integrierten Backup gesichert werden, aber wie den lokalen zfs pool backupen?
Noch etwas, habe beim morph027 in der Signatur gelesen das er seine zfs pools mit LUKS AES 256 verschlüsselt, wie stellt man das am besten an? Zuerst LUKS und dann ZFS drauf oder umgekehrt? - hat jemand eine Anleitung?
 
Hallo liebe Community,

ich möchte ein neues Projekt starten. Aktuell bin ich noch in der Evaluierung meines zukünftiges Storage-Systems. Ins Auge gefasst habe ich mir FreeNAs oder Openmediavault+Snapraid.
Im Grunde soll es meine Eierlegendewollmilchsau werden (All-in-One-Lösung). Es soll Firewall, NAS und Linux-Server nun in eine Kiste vereinen.
Meine Anforderungen sehen wie folgt aus mit Proxmox:
- mind. 6 Storage-HDDs, noch unklar ob 4TB oder gleich 8TB
- 1-2 OS-HDD(s), SSD
- Verschlüsselung (also AES-NI)
- 1xStorage-VM
- 1xUnix/Linux-VM
- 1xFirewall-VM (Sophos UTM)
... also mind. 3 NICs
- 19" Gehäuse, am besten mit HotSwap
... Schrankmaße: 800(18HE)x465x560mm
- 50-70MB/s wären schön im GBit-Netz
- möglichst preiseffizient (ich heule nicht wegen 100€ rum aber 2500€ wären zu viel)

Gibt es in diesem Fall eine kleine Kaufberatung für mich?
Wieviel RAM wäre mind. notwendig (jaja so viel wie es geht^^)?
CPU-und Mainboard-Empfehlung wegen ECC-RAM?
Storage-Empfehlung: Seagate Archive mit 8TB?
Gehäuse: 2-4HE, ATX wäre denke ich am sinnvollsten, Hotswap wäre schön


Ehrlich gesagt bin ich auch unsicher ob ich nicht doch lieber einen HW-Controller statt teurer Hardware (wie z.B. regist. ECC RAM) besorge. Was meint ihr dazu?
Ein weiterer Punkt ist, dass die Platten bei ZFS kontinuierlich laufen, was zusätzlich Strom verursacht und ggf. die Platten schneller altern lässt. Habt ihr da etwas entgegen zu bringen?

Was ich noch nicht so richtig verstanden habe. Kommt der ZFS-Storage nun auf eine eigene VM (FreeNAS/OMV) oder wird der direkt im Proxmox-System konfiguriert.
Gibt es allgemein schon Performance-Tests mit ZFS in Proxmox?


Vielen Lieben DanK!

LG
MrDeluxe
 
Grundlegender Fehler in der Planung:
Ich würde niemals die Storage-Kiste virtualisieren.

Also entweder ne gesonderte Storage-Kiste oder Oldschool mit mdadm und ext
 
Hallo ich bin auch ziemlich neu im Therma Proxmox, und wollte mal fragen wie das läuft wenn ich den zfs pool per Mountbind an einen LXC Fileserver durchreiche wie zb hier erklärt: (https://tobs.tips/_doc_/ProxMoxDoc/07samba/)
Wie sichert ihr dann? Die Maschine kann ja ganz easy per integrierten Backup gesichert werden, aber wie den lokalen zfs pool backupen?
Noch etwas, habe beim morph027 in der Signatur gelesen das er seine zfs pools mit LUKS AES 256 verschlüsselt, wie stellt man das am besten an? Zuerst LUKS und dann ZFS drauf oder umgekehrt? - hat jemand eine Anleitung?

Erst LUKS (cryptsetup luksFormat -c aes-xts-plain64 -s 512 -h sha512 -y /dev/whatever), dann darauf aufbauend das ZFS. Für einfaches wiederfinden gebe ich den /dev/mapper Zuordnungen dann die Seriennummern der Platte und nehm die dann für das ZFS. Zum Beispiel RAID10:

zpool create stripe tank mirror /dev/mapper/ABC1234 /dev/mapper/DEF5678 mirror /dev/mapper/GHI1234 /dev/mapper/JKL5678

Muss dann nur sinnoll die /etc/crypttab ergänzt werden. Ich mach das ganze mit Schlüsselableitung zusätzlich zum Hauptschlüssel, dann muss ich beim booten nur ein Passwort eingeben und die Platte entschlüsselt dann die anderen.

Grundlegender Fehler in der Planung:
Ich würde niemals die Storage-Kiste virtualisieren.

Also entweder ne gesonderte Storage-Kiste oder Oldschool mit mdadm und ext

Warum? Ist doch sinnvoll. Daten und Logik trennen. Wenn der Host mal wegschmiert, spielt man das Backup der VM woanders ein, stöpselt die Platten dazu und kommt so schnell an seine Daten. Außerdem kann man auch bunt und lustig von Proxmox zu ESX oder sonstwas wechseln und muss sich nicht ums Storage kümmern. Das zieht einfach mit um. Muss halt nur die Platten nativ durchgereicht bekommen.
 
Warum? Ist doch sinnvoll. Daten und Logik trennen. Wenn der Host mal wegschmiert, spielt man das Backup der VM woanders ein, stöpselt die Platten dazu und kommt so schnell an seine Daten. Außerdem kann man auch bunt und lustig von Proxmox zu ESX oder sonstwas wechseln und muss sich nicht ums Storage kümmern. Das zieht einfach mit um. Muss halt nur die Platten nativ durchgereicht bekommen.

Weil das n sinnloses Kuddel-Mudel ist.

Du hast 4 HDDs, auf diesen HDDs liegt deine VM, welche dir wiederum Zugang zu den Daten gewährt, welche auf den 4HDDs liegen.


Außerdem müsstest Du bei Einsatz von OMV nen xxGB großes Raw-File als virtuellen Storage-Pool der VM bereitstellen.
Das ist einfach unnoetig und macht im Fehlerfall alles nur komplex. Man ist ruck zuck seine Daten los.
 
Erst LUKS (cryptsetup luksFormat -c aes-xts-plain64 -s 512 -h sha512 -y /dev/whatever), dann darauf aufbauend das ZFS. Für einfaches wiederfinden gebe ich den /dev/mapper Zuordnungen dann die Seriennummern der Platte und nehm die dann für das ZFS. Zum Beispiel RAID10:

zpool create stripe tank mirror /dev/mapper/ABC1234 /dev/mapper/DEF5678 mirror /dev/mapper/GHI1234 /dev/mapper/JKL5678

Muss dann nur sinnoll die /etc/crypttab ergänzt werden. Ich mach das ganze mit Schlüsselableitung zusätzlich zum Hauptschlüssel, dann muss ich beim booten nur ein Passwort eingeben und die Platte entschlüsselt dann die anderen.

Danke für die Antwort, werde ich mal durchtesten.

Wie machst du Backups?
 
Weil das n sinnloses Kuddel-Mudel ist.

Du hast 4 HDDs, auf diesen HDDs liegt deine VM, welche dir wiederum Zugang zu den Daten gewährt, welche auf den 4HDDs liegen.


Außerdem müsstest Du bei Einsatz von OMV nen xxGB großes Raw-File als virtuellen Storage-Pool der VM bereitstellen.
Das ist einfach unnoetig und macht im Fehlerfall alles nur komplex. Man ist ruck zuck seine Daten los.

Stimmt. So ist das Kuddelmuddel. Eher eine SSD mit Virtualisierungshost + VM, die 4 Platten speichern nichts außer den Daten. Ich mach das ja auch nicht so, aber hier im Forum machen das viele und das ist durchaus legitim.

Danke für die Antwort, werde ich mal durchtesten.

Wie machst du Backups?

Mit Znapzend täglich/wöchentlich/monatlich Snapshots, die wichtigsten Daten werden einmal die Woche inkrementel auf eine USB3 Platte gesichert.
 
Ok also doch getrennt voneinander.

Host (Proxmox): USB-Stick
VMs: SSD
Storage: HDDs in VM durchschleifen
 
Nimm doch auch ne 08/15 ssd fuer das OS.
Nen USB Stick ist immer kacke :(

Durchschleifen wuerde ich die HDDs auch nicht direkt in die VMs.

Lieber nen mdadm raid bauen und das Ding ins Proxmox als Volume einhängen.
Dann haste auch direkt nen Platz fuer Backups und so spaeßchen.
 
Ich hätte gerne mal jemand im Gespräch der sein Storage in die VM durchgereicht hat. So richtig geheuer ist mir die Angelegenheit nämlich nicht und frage mich selber ob ich das nicht doch getrennt von einander lasse. Dann kann ich mir die Virtualisierung aber eigentlich sparen.
 
habe früher meine controller auch an eine storage-vm durchgereicht. mit esxi macht das einen gewissen sinn, aber unter proxmox (das ja reinstes debian ist) wüsste ich nicht was in einer heimumgebung dagen spricht direkt einen nfs und samba server auf dem host laufen zu lassen. Meine VMs bekommen alle ein kleines image für das betriebssystem auf der ssd, und die daten werden dann über nfs/samba eingehängt.
läuft seit einigen Jahren ohne Probleme.
 
Ok also kümmert sich der Host komplett um den Storage. Über NFS/iSCSI mounte ich dann im FreeNAS und kann ab dort verwalten? Ziemlich umständlich und unschön. Kann mir vorstellen, dass es Einbrüche beim I/O gibt.
 
hab mir das freenas und co gespart, weis nicht wie es bei dir ist, aber bei mir ändere ich nicht jeden tag 100erte Berechtigungen usw. bei der Installation einmal die exports datei für nfs und die samba config mit dem editor auf dem host angepasst und gut ist.
Die VMs die dann über NFS zugreifen haben nix mit NAS/Storage zu tun (Download VM, eine für Plex, eine für die Heimautomation usw.)
 
Mal eine kurze Rückmeldung zu meinem Dm-Cache Experiment.

Zum Aufbau:
Ich habe einen Proxmox Server, bei dem die virtuellen Maschinen (Plesk Server und Windows 7/2012 VMs) auf einem Software Raid 1 aus 2x3 TB Sata Platten mit LVM liegen.
Zusätzlich stecken in dem Server 2x240 GB SSDs (ebenfalls Raid 1)
Der SSD Speicher wurde nun verwendet, um jedem Volume (abgesehen vom Backup LV) im Verhältnis 1:10 SSD Speicher als Schreib- und Lesecache mitzugeben.

Es ist erfreulicherweise ziemlich genau das passiert, was ich erreichen wollte. Im Gegensatz zu meinem vorherigen Setup habe ich kaum noch I/O Probleme und Schreibintensive Tasks in einer VM beeinflussen die Performance der anderen VMs nur, wenn mehr geschrieben wird, als der Cache auf einmal fassen kann.

Beispiel: Stößt jemand in seinem Plesk Account ein Backup an, bleiben die Windows VMs via RDP nun völlig normal benutzbar. Vorher hat das navigieren im Explorer dann bei jedem Klick ein paar Sekunden Bedenkzeit gefordert.
 
Nabend,

mal eine Frage an die Leute, welche sich schon länger mit Proxmox beschäftigen: Wie "seriös" kann ich diese Lösung sehen?

Derzeit spiele ich mit ESXi, bin jedoch eher unzufrieden, da der Hardware-Support für Privatpersonen ein Krampf ist und Passthrough eher wie das ungeliebte Stiefkind behandelt wird. Mit KVM habe ich da persönlich gute Erfahrungen, Debian ist mir auch sympathisch.

Daher fand ich Proxmox ganz sexy. Kann aber noch nicht abschätzen wie Professionell das Bundle von denen ist. Videos auf Youtube habe ich mir schon angesehen und eigentlich ist es ganz nett. Ein Hypervisor-Host ist für mich jedoch immer ein sensibles System, vor allem wenn ich meine Firewall auch darauf virtualisieren muss.

Was mich nämlich etwas stört ist die Tatsache das Proxmox offenbar ziemlich viel Zeug installiert. Alles potenzielle Angriffsvektoren, gerade wenn der Host bei mir in der ersten Linie zum WAN steht.
 
Also ich nutze seit 5 Jahren an 3 Standorten Proxmox mit vielen Servern und kenne auch einige Hoster, die damit die VPS für ihre Kunden abfackeln. Das Zeug ist stabil und gut gepflegt. Und viel ist da auch nicht bei.

Meine aktuellen PVE 4.1 Knoten belegen auf dem ZFS rootfs im Schnitt 1.5GB.
 
Meine aktuellen PVE 4.1 Knoten belegen auf dem ZFS rootfs im Schnitt 1.5GB.

Die Größe auf dem Dateisystem sagt ja nicht viel über die potenziell enthaltenen Angriffsvektoren aus.

Ich habe mir ein Video auf Youtube angesehen, wo man gut im Installer sehen kann, was da für Pakete durchrauschen. Als dann Samba auftauchte, wurde ich skeptisch. Wieso Samba? Proxmox soll doch virtualisieren: "Proxmox Virtual Environment is a complete server virtualization management solution". Gleiches gilt für nfs-common.

Da erwarte ich eigentlich ein minimales Setup. Optimalerweise mit all der Software gar nicht installiert sondern erst bei Bedarf. Postfix wird installiert, wieso nicht erst, wenn ich überhaupt ein Mail-Reporting wünsche?

Klar, es ist bequem alles direkt Out-of-the-Box zu haben und vielleicht habe ich auch einfach ganz falsche Vorstellungen aber ich hätte nun gehofft, dass es sich um ein minimales System handelt.

Dabei möchte ich Proxmox nun definitiv nicht schlecht machen. Ich habe jedoch leider zu oft schon Software erlebt, welche gerade schlecht designed und gewartet wurde. Dann kam da bei Installation viel mehr um die Ecke als wirklich notwendig und sinnvoll.

Ich möchte für mich nur einschätzen, wie professionell und sicher Proxmox ist.
 
Ohne von der Materie wirklich professionell Ahnung zu haben: weniger professionell als ESX(i) oder Hyper-V (core).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh