G
Gelöschtes Mitglied 117520
Guest
Hallo Zusammen,
in meinem kleinen Homelab habe ich einen HP Microserver Gen8 (Celeron/8GB RAM) mit 4x 4TB HDs und Ubuntu Server 16.04 mit ZFS On Linux laufen. Verbaut ist außerdem eine Mellanox ConnectX 10Gb PCIe Karte, die mit einem 10Gb Switch (TP-Link) verbunden ist. Dort angeschlossen sind ebenfalls meine 2 Nodes. Auf denen läuft Proxmox; beide verfügen jeweils wieder über eigene Mellanox ConnectX 10Gb PCIe Karten, die wiederum mit dem Switch verbunden sind.
Nun habe ich das NFS Share eingebunden und stoße auf folgende Probleme: (Zitate aus meinem Blogpost zu dem Thema)
Ich würde mich sehr freuen, wenn mir jemand evtl. einen Fehler aufzeigen könnte, evtl. habe ich ja NFS falsch konfiguriert (hier mal ein auszug aus der sehr übersichtlichen exports):
Aktuell habe ich ESXi installiert, aber ich muss gestehen, dass die WebUI eine Katastrophe ist, der Mangel an sparsamen Containern, keine integrierte Backupfunktion usw, lassen mich nach nur wenigen Stunden mit ESXi meinen Proxmox zurückwünschen.
in meinem kleinen Homelab habe ich einen HP Microserver Gen8 (Celeron/8GB RAM) mit 4x 4TB HDs und Ubuntu Server 16.04 mit ZFS On Linux laufen. Verbaut ist außerdem eine Mellanox ConnectX 10Gb PCIe Karte, die mit einem 10Gb Switch (TP-Link) verbunden ist. Dort angeschlossen sind ebenfalls meine 2 Nodes. Auf denen läuft Proxmox; beide verfügen jeweils wieder über eigene Mellanox ConnectX 10Gb PCIe Karten, die wiederum mit dem Switch verbunden sind.
Nun habe ich das NFS Share eingebunden und stoße auf folgende Probleme: (Zitate aus meinem Blogpost zu dem Thema)
Ich habe auf der Node 1 in den vergangenen Tagen einigen Lern-VMs installiert, namentlich Windows 7, Windows 10, Windows Server 2012 R2 (2x) und Windows Server 2016. Ja, man ich habe da noch einiges zu lernen, trotz M$ Zertifikaten im Sammelsorium. Die Windows 7 VM war wohl zu viel und so betrachte ich stirnrunzelnd den htop mit diesen heftigen Werten: 111 Load (1min).
Einen Load von 111 habe ich noch nie zu Gesicht bekommen. Der Wert schnellte sogar noch auch 150 hoch. Einen Schuldigen konnte ich jetzt nicht direkt ausmachen, da die CPU Last auch nicht wirklich hoch war. Für mich sieht es so aus, als kommt der NFS-Share nicht mit (och nee…).
Das herübermigrierte IPAM (Container) ließ sich zwar starten, aber auf die Webseite der Anwendung kam ich gar nicht drauf. Nur einen „Bad Gatway“ vom darin installierten nginx bekam ich entgegengeworfen.
Ich vermute die Schuld liegt hier auf meiner Seite. Nach dem Zusammenbauen habe ich einen Server nach dem anderen gestartet. Natürlich zuerst das NAS, denn Node 1 hat ja schließlich die VMs & Container auf dem NFS-Share liegen. Doch da passierte nichts bzw es wurde mir angezeigt, dass ich nicht auf das NFS-Share zugreifen könne. Ah! Im Keller entdeckte ich dann den vermeintlichen Grund: der Cisco DAC (10 Gbps Kupfer-Kabel) steckte nicht richtig im Switch. Einmal gezogen und wieder gesteckt und siehe da: die LED begann lieblich grün zu leuchten.
Doch irgendwie wollte es immer noch nicht. Nach einer Stunde des Debuggens und Haare raufens kam ich dann darauf: MTU 9000! Na klar! Ich habe für den Port den Jumbo Frame nicht aktiviert. Gesagt, getan und schon mountete das NFS-Share wieder. Die VMs und Container starteten und ich dacht nun sei alles wieder gut. Scheinbar nicht. Naja.. nun heißt es den Fehler finden. Die virtIO Treiber habe ich überall in den VMs installiert; wieso so ein Load auftritt kann ich mir nicht so wirklich erklären, aber dieses Phänomen ist so schlimm, dass es sämtlich anderen VMs und Container lahmlegt.
Ich würde mich sehr freuen, wenn mir jemand evtl. einen Fehler aufzeigen könnte, evtl. habe ich ja NFS falsch konfiguriert (hier mal ein auszug aus der sehr übersichtlichen exports):
Code:
/storage/vms 10.10.10.2(rw,async,no_subtree_check,root_squash,all_squash) 10.10.10.3(rw,async,no_subtree_check,root_squash,all_squash)
Aktuell habe ich ESXi installiert, aber ich muss gestehen, dass die WebUI eine Katastrophe ist, der Mangel an sparsamen Containern, keine integrierte Backupfunktion usw, lassen mich nach nur wenigen Stunden mit ESXi meinen Proxmox zurückwünschen.