[Sammelthread] Proxmox Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

ich hab auf einem frisch Installiertem Proxmox Host ein Problem mit den Containern.
Die haben einfach keinen Internetzugang. Bei VMs funktioniert alles Problemlos.
Ich komm per SSH mit dem Hypervisor als Hop drauf aber die andere Richtung geht nicht.
Die Netzwerkconfig ist soweit ganz normal.
Das Image ist das Standard Debian 9 Image.

Ist das ein bekanntes Anfängerproblem das da irgendwo was am Host noch angepasst werden muss?

Wo könnte man da mit dem debuggen Anfangen.
Danke für die Hilfe.

PS: ich weiß, ein bisschen mehr Infos können nicht Schaden aber ich komm erst morgen wieder an die Maschine dran zerbreche mir aber schon den ganze Abend den Kopf darüber was da das Problem sein könnte.
 
tipp mal "ifconfig" in der Konsole des LXC-Containers ein. Ist die IP richtig bzw ist die NIC überhaupt geladen?
 
die Config hab ich als erstes nachgeschaut:

Code:
----@----:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
9: eth0@if10: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 96:4f:3c:96:a3:4e brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 192.168.228.100/24 brd 192.168.228.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::944f:3cff:fe96:a34e/64 scope link
       valid_lft forever preferred_lft forever

Code:
---@---:~$ ip route list
192.168.228.0/24 dev eth0 proto kernel scope link src 192.168.228.100

Code:
---@---:/home/---# more /etc/network/interfaces
auto lo
iface lo inet loopback

auto eth0
iface eth0 inet static
        address 192.168.228.100
        netmask 255.255.255.0
        network 192.168.228.1

Code:
---@---:~$ ping google.de
ping: google.de: Temporary failure in name resolution
 
Zuletzt bearbeitet:
Hallo alle zusammen.
Ich bin grade dabei ein neues System zu planen was die Tage eintrifft.
Aktuell nutzt ich ein esxi mit Nakivo als Backuplösung.
Zur Speicherverwaltung setzte ich FreeNAS ein da ich hier die Option des ZFS habe.
Und daher schürt auch die Frage ob ich zu Proxmox wechseln sollte da ich hier direkt ZFS zur Verfügung hätte.
Nun werde ich das Gefühl nicht los das die Einrichtung von Proxmox wesentlich aufwendiger ist und viel manuelle Arbeit bedeutet.
z.B. ist mir noch nicht klar wie ich Extern Backups ablegen kann, oder wie ich ein Trunk einrichte.

Meine Frage an euch, gibt es hier vielleicht schon Umsteiger unter in etwa sagen können was einen hier erwartet? Ich muss 11 VMs seitens esxi migrieren mit möglichst wenig Offlinezeit.

Über ein paar Tipps, Hinweise und Anregungen wäre ich dankbar.
Dazu vielleicht auch noch ein paar Pro's für Proxmox mit esxi als Gegenspieler.

Dazu muss ich sagen, ich mache jetzt schon eine Weile was an VMs was würde mich aber nicht als Progi beschreiben, sondern eher als Anfänger mit fortgeschrittenen Kenntnissen.

Danke schon einmal im Vorfeld.
 
Proxmox Einrichtung ist schnell erledigt.
Externe Backups: Du kannst NFS-Shares und iSCSI mounten über die WebGUI. Oder du machst es über die Konsole per SMB.
Inwiefern exsi-VMs mit KVM kompatibel sind, weiß ich leider nicht.
 
Hi leute hab nen Problem mit Proxmox bzw denke ich das es daran liegt

Hab 3 VM´s eingerichtet einen Debian dann XPenology und windows 10

XPe läuft immer sobald ich aber Windows 10 Starte geht irgendwann XPe und Win10 einfach aus !

Debian läuft weiter (evtl weil das keinen Zugriff auf die platten hat?)

Hier die History vom Windows 10


Beim XPe zeigt er gar nix an!!

Habt ihr da ne idee?

Ram Auslastung wenn Windows 10 noch an ist liegt bei 80% ca

Gruß
 
Ich glaube, dass du zu wenig RAM hast bzw zu viel davon verbraucht wird.
 
gerade neuer fall ohne das ich in der konsole war... windows 10 geht aus ohne history eintrag -.-

Edit: 70% ram
 
- Der Ausfall einer SSD ist ja unwahrscheinlicher als der einer HDD - und wenn, dann sind ja auch Backups da.
Da halte ich für ein Gerücht
Ich habe allene in den letzten 12 Monaten 3 SSDs reklamiert (allesamt Samsung Pro)

Das Problem ist, da wo man bei HDDs teilweise noch Daten Retten kann, geht bei SSDs eher gar nichts mehr.
Da Backup vorhanden, ist daß natürlich ein nachrangiges Problem - wobei das Backup natürlich aktuell gehalten werden muß.

Das ZFS kein Trim unterstützt ist ebenfalls nicht richtig, das trifft nur auf ZoL zu.

- - - Updated - - -

Oder habt ihr das BSD/Solaris ZFS statt dem ZFS On Linux auf eurem Proxmox-Server ans laufen gebracht? :hmm::rofl:
[IRONIC]
Geht ganz einfach....- Storage VM
z.B.
Iscsi/nappit - Proxmox VE
[/IRONIC]
 
Zuletzt bearbeitet:
@Digi-Quick: dann sag mir mal bitte, wie du Proxmox selber in eine Storage VM auf Napp-IT installiert hast, ohne Proxmox selber zu virtualisieren. Weil eine VM in einer VM in einer VM in einer VM ist schon irgendwie schei*e, oder? :fresse:

Da ja ZFS auf Proxmox (für die Leute, die es nicht wissen/kapieren: Proxmox ist ein LINUX (!!!!einseinself!) Betriebssystem, also spreche ich verdammt nochmal von ZFS on LINUX!!) kein TRIM unterstützt, bin ich am überlegen, den SSD-RAID1 Verbund aufzulösen. Kurioserweise wird aber, wenn ich etwas lösche, der Speicher auf den SSDs freigegeben? Deshalb meine Überlegung eine SSD als Lesecache in das RaidZ1 einzubinden und die wichtigsten LXCs dortdrauf zu packen. die anderen LXCs/VMs sind ja kaum veränderlich (PiHole, VPN, IPfire und Windows (für Videoschnitt)), da reicht eigentlich ein einziges Backup nach der Konfiguration.


@Smokey88: Überprüfe doch mal die RAM-Auslastung permanent mit htop während die Win 10 VM läuft. Ich gehe wirklich davon aus, dass der RAM einfach überflutet wird. Das hatte ich auch mal..
 
Zuletzt bearbeitet:
Bevor Proxmox ZFS unterstützt hat gab es auch schon Leute die dort wie unter ESXi zb Omnios oder Freenas als VM betrieben haben. Nur weil Proxmox ZFS kann muss man es ja nicht unbedingt benutzen wenn es besser Lösungen gibt :)
 
Ich möchte auf meinem Proxmox-Server keinen Fileserver betreiben, dafür habe ich einen eigenen Server im Schrank. Ich möchte mit Proxmox neben diversen kleinen Geschichten eine eigene Cloud betreiben, die sowohl schnell als auch Hochverfügbar ist und Datenalterung erkennt.
 
Antwort:
Proxmox ist dein Virtualisierer
OminiOS/Openindiana mit Napp-It läuft als VM und stellt den ZFS Datenspeicher bereit, diesen kannst du via NFS oder iSCSI deinem Proxmox zu verfügung stellen.
Problem des fehlenden TRIM in ZoL ist damit gelöst!
Nebenbei kannst du auch anderen VMs ZFS Speicher direkt zur verfügung stellen, mußt das also nicht zwangsläufig über Proxmox realisieren (CIFS/SMB, NFS, AFP, iSCSI)

entweder man macht es richtig, oder man muß mit ZoL leben.
 
Zuletzt bearbeitet:
Äh. Wenn Du schon einen dedizierten Fileserver hast, warum murkst Du dann mit ZFSonLinux auf deinem Hypervisor rum? Weil er's "kann" ist ein schlechtes Argument. :)

Setz' den Fileserver unter ZFS, pack da und in deine Hypervisoren ne flotte NIC, gib den Hypervisoren Platz mit NFS und feddich.
 
der Proxmox-Server läuft 24/7, der Fileserver nicht. Deswegen soll da ZFS drauf laufen. ZFS auf den Datenplatten läuft ja einwandfrei, da gibt es ja nichts zu meckern. Es geht mir um das ZFS auf der Betriebssystem-SSD von Proxmox, wo auch meine LXCs und VMs drauf sind. Nicht um die Daten meiner Cloud, die sind ja auf den HDDs.

Irgendwann sollen beide Server permanent laufen, was aber von meiner beruflichen Situation abhängt. Ob ich da aber ZFS installiere, weiß ich nicht. Weil wenn alle Festplatten permanent drehen, frisst das natürlich viel Strom und der Server unterstüzt kein ECC. Deswegen werde ich da wohl bei mergerfs+snapraid bleiben.
 
Wenn ich eine Windows VM von einer SSD auf einen RAIDZ1 Pool verschiebe, ist es dann normal, dass die Geschwindigkeit so drastisch abnimmt? Ich rede nicht von dem normalen Unterschied zwischen SSD und HDD, sondern, dass das Booten so 2 Minuten länger dauert, die Bedienung hakelig ist, die CPU ausgelasteter wird? Selbst das Taskmanager-öffnen dauert ne halbe Minute.
 
Htop sagt nur, dass die VM normal viel Leistung braucht. Das Booten ist aber arg langsam. Das ist ja das kuriose.
 
Mach mal noch ein arcstat bevor du die startest und eins wenn die läuft....

Ist mir jetzt beim PVE5 auch schon mal aufgefallen, dass die VM scheinbar mit ihrem RAM Bedarf den arc cache rauskickt und dann natürlich alles arschlahm wird. Bin da noch am debuggen.
 
Hi,

Nachdem ich nun lange überlegt habe, werde ich wohl aufgrund von fehlendem TRIM und auch fehlendem Nutzen mein ZFS-Mirror (Backups werden regelmäßig gemacht, Snapshots wird nicht genutzt, es läuft eigentlich nur eine Win-VM drauf, die anderen auf einem ZFS-RAIDZ1 Pool aus HDDs) aus zwei SSDs auflösen und diese lieber einzeln einhängen. Ich würde von der root-SSD gerne auch etwas Speicher für ZFS-Cache für meinen ZFS-RAIDZ1 Pool abzwacken.

Ich wollte nach dieser Anleitung vorgehen: Proxmox + ZFS with SSD caching: Setup Guide - Blog - Level1Techs Forums
gehe ich Recht in der Annahme, dass maxvz für die VMs zur Verfügung steht?

Da ich eine 240GB SSD habe, dachte ich an folgende Aufteilung:

HDsize = 230GB (10GB für Overprovisioning)
Swapsize = 8GB (vm.swappiness setze ich auf 5)
Maxroot = 16GB (Aktuell belege ich 4,7GB)
Minfree = 40GB (32GB für ZFS Cache (L2ARC war das, oder?), 8GB für ZFS Log
MaxVZ = Rest, also 166GB für VMs.
So in Ordnung? Oder habe ich was übersehen? Oder sollte ich die komplette SSD für Caching nutzen und die andere SSD für VMs (oder umgekehrt)?

Grüße
 
Zuletzt bearbeitet:
Best practise ist l2arc, slog und root auf einer ssd nicht, auch wenn es technisch möglich ist.
-Slog/ZIL benötigt der normale user nicht (ausser du hast sync=always oder nutzt programme/dienste die sync. schreiben nutzen).

-L2Arc: Wie viel RAM hast du? Lieber einem riegel mehr einbauen als ein l2arc. Das l2arc hilft nur bei wiederholten lesezugriffen (ist reiner lese-cache und zwackt auch was vom RAM pro l2arc block ab).

-TRIM: Trim wird bald kommen für zfs... deshalb nicht zfs-root zu nutzen ist meiner ansicht nach unlogisch. Wenn du overprovising einplanst hast du noch genug leistung.

-Was meinst du mit "fehlendem nutzen"? Der nutzen wird eintreten wenn dir eine ssd abraucht und durch dein mirror dein system noch läuft und nicht alles weg ist. Zudem gibt ein mirror auch performance.

Wenn du zwei ssd zur verfügung hast für root und vm-ablage würde ich ein zfs mirror bauen. Darauf liegt dann proxmox und die vm's und beides ist sicher vor einem ssd ausfall, checksum errors, ...
Wie gesagt ZIL und L2ARC bringen für die normalen Nutzer, die es eher als NAS nutzen, eher wenig. Oder ist dein system wenig im idle und viele nutzer greifen auf gleiche Daten zu? Dann könnte man über l2arc nachdenken. ZFS nutzt den vorhandenen RAM als Haupt-Cache, deshalb RAM >> L2arc
 
Zuletzt bearbeitet:
Dann kein Slog
L2Arc: aktuell 16GB. Komme damit soweit auch gut aus, die Plattform unterstützt 32GB.

Hmm weißt du denn, wann TRIM kommt? Kann man das updaten, oder ist ein neuerstellen erforderlich? Overprovising habe ich beim erstellen des Pools damals vergessen...

Wenn TRIM kommt, dann würde ich auch bei root-ZFS bleiben.

Ich nutze den Server u.a. als Nextcloud-Server, wo schonmal hin und wieder 5-10 Leute gleichzeitig drauf zugreifen.
 
zu Trim: wann es nun letztendlich im master landet weiss ich nicht. (OpenZFS - 6363 Add UNMAP/TRIM functionality by dweeezil · Pull Request #5925 · zfsonlinux/zfs · GitHub) aber meine hoffnung ist bald, denn der Pullrequest ist schon lange vorhanden und wird immer wieder aktualisiert. Soweit ich weiss kann man trim dann auch mit alten pools nutzen bzw es ist kein on-disk-format change nötig.

zu l2arc: Ja dann lieber auf 24 oder 32gb ram aufstocken wenn möglich. Wenn dann immer noch zu wenig cache, dann könnte man über l2arc nachdenken. Nextcloud nutzt ja auch eigenes caching welches höchwahescheinlich auch über den RAM geht.
 
Zuletzt bearbeitet:
Hmm okay, dann warte ich noch in der Hoffnung, dass TRIM bald kommt und einfach updatebar ist.

Hat jemand von euch unter einem LXC-Container Pihole und VPN ans laufen bekommen? Bei OpenVPN funktioniert es unter Proxmox5 nicht, da TUN fehlt. Ich habe zwei verschiedene Anleitungen für Proxmox 4 gefunden, die bringen mir aber TUN nicht in den LXC.
Pihole ist installiert und erreichbar, jedoch funktioniert die DNS-Auflösung nicht, wenn ich den Router darauf einstelle.

Jemand ne Idee?

edit: ich glaube es liegt daran, dass nach jedem Neustart die /var/lib/lxc/100/config sich wieder zurücksetzt. Ich trage da ein "lxc.mount.entry = /dev/net dev/net none bind,create=dir
lxc.cgroup.devices.allow = c 10:200 rwm" aber nach einem Neustart ist es weg.
 
Zuletzt bearbeitet:
Hi Freunde,

ich habe kürzlich einen Auslug ins Proxmox-Land gemacht und dabei festgestellt, dass Proxmox anscheinend wesentlich mehr IO-Last auf einem Storage erzeugt als das es bei einer VMware Maschine der Fall ist. Das Storage ist in beiden Fällen per iSCSI angebunden worden. Die IO-Last ging so hoch, dass sich der gesamte Proxmox Host verabschiedet hat. Gleiche Anzahl der VM's unter VMWare kein Thema.

Hat jemand eine ähnliche Erfahrung gemacht oder weiß eventuell an welchen Schrauben gedreht werden muss damit Proxmox ähnlich gut wie VMWare performt ?

Das Storage war in beiden Fällen ein Synology NAS mit VMware Zertifizierung.

Ich würde liebend gerne auf Proxmox umsteigen jedoch hält mich dieses Problem massiv davon ab.

Grüßle
Daniel
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh