Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Habs hinbekommen. Dau (dümmster anzunehmender User) fail.
Erst hatte ich nur den Management Port am Netzwerk. Dann Einstellungen zerschossen (im BIOS). Dann ist mir das mit dem Netzwerk Kabel aufgefallen, Einstellungen zurück und läuft auf Anhieb. Sorry und danke für eure Zeit!
Ich habe via proxmox einen haufen SSDs zu einem ZFS Pool gebaut.
Jetzt überlege ich welche NAS software ich virtualisiert einsetze.
ich kann die platten nicht direkt durchreichen da ich sie nicht ausschließlich für das NAS nutzen möchte.
welche NAS application nimmt man da am sinnigsten?
Oder kanns am ende auch einfach TrueNas sein, auch wenn da alles rumkreischt man soll das ja nicht auf virtual disks speichern lassen...
Ich häng noch mal so halb an die Frage an, auch wenn ich die Platten bei mir 1:1 durchreichen kann, sollen in ne Yottabox oder sowas in der Richtung. Hätte dann gerne n Software-Raid o.ä. hinten dran und am liebsten sowas wie File Snapshots. Bin aber was Dateisysteme angeht grade absolut 0 auf dem aktuellen Stand. Kein ECC RAM, also afaik kein ZFS?
Also ich habe immer ein aktuelles Debian Netinstall ISO aufm ProxMox liegen.
Damit kann ich fix VMs aufsetzen, ne GUI brauchen die eh nicht.
Webmin wird händisch nachinstalliert und läuft aufm Standard-Port.
Gibt von Turnkey übrigens auch auf ProxMox optimierte LXC-Container.
Geht das "überhaupt"?
Soweit ich das immer mitbekommen habe braucht man doch mindestens 2 GPUs?
Denn, Proxmox Darf den dann nicht mehr benutzen wenn man den weiterreichen möchte oder irre ich?
Geht das "überhaupt"?
Soweit ich das immer mitbekommen habe braucht man doch mindestens 2 GPUs?
Denn, Proxmox Darf den dann nicht mehr benutzen wenn man den weiterreichen möchte oder irre ich?
Konntest du die gpu denn über add Hardware dazupacken? Geht das überhaupt beim Container? Bin noch immer klassischer vm User.
Ich guck nachher mal nach
Konntest du die gpu denn über add Hardware dazupacken? Geht das überhaupt beim Container? Bin noch immer klassischer vm User.
Ich guck nachher mal nach
Nein, ich hab sie anhand der GID in der lxc.conf auf /dev/dri/renderD128 gemappt und den dann im Container eingebunden. Testweise auch die anderen Gruppen render und video.
Da taucht er auch auf aber im Jellyfin meckert er dann "Dieser Client ist nicht mit den Medien kompatibel und der Server sendet kein kompatibles Medienformat" und wenn ich auf dem Host nachgucke steht die iGPU auch bei 0% Auslastung. Treiber sind auf beiden Systemen installiert, aber irgendwo hakt es noch. Normales CPU-Transcoding geht aber da platzt meine 15W CPU
Beitrag automatisch zusammengeführt:
Hmmm mir ist gerade aufgefallen dass auf dem Proxmox der VA Driver 21.1.1 läuft und auf dem Container der 22.5.0, mit unterschiedlichen VA-API versionen.
Daran könnte es liegen. Ist aber tatsächlich die neueste Treiberversion für den Debian 11 meines PVE 7.4.
Wobei ich mich immer noch frage was der X server ist, den er da erreichen will.
Nein, ich hab sie anhand der GID in der lxc.conf auf /dev/dri/renderD128 gemappt und den dann im Container eingebunden. Testweise auch die anderen Gruppen render und video.
Da taucht er auch auf aber im Jellyfin meckert er dann "Dieser Client ist nicht mit den Medien kompatibel und der Server sendet kein kompatibles Medienformat" und wenn ich auf dem Host nachgucke steht die iGPU auch bei 0% Auslastung. Treiber sind auf beiden Systemen installiert, aber irgendwo hakt es noch. Normales CPU-Transcoding geht aber da platzt meine 15W CPU
Beitrag automatisch zusammengeführt:
Hmmm mir ist gerade aufgefallen dass auf dem Proxmox der VA Driver 21.1.1 läuft und auf dem Container der 22.5.0, mit unterschiedlichen VA-API versionen.
Also an Container durchreichen geht, habe ich bei meinem Emby-LXC auch hinbekommen.
War aber nur die iGPU der IntelCPU.
Im Grunde musste noch dem Debian/Proxmox-Hostsystem imho verbieten, den Treiber zu nutzen, wenn ich mich recht erinnere.
Und im Container dann noch
chown root:render /dev/dri/*
So hab ich das zumindest hinbekommen.
Ich schau mal, ob ich alle Änderungen noch raussuchen kann.
[LXC ist aus]
In der PVE shell einmal die .conf des LXC editieren, mein emby-lxc hat die ID 100, entsprechend anpassen.
nano /etc/pve/lxc/100.conf
da habe ich angefügt ans Ende:
lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.cgroup2.devices.allow: c 29:0 rwm
lxc.mount.entry: /dev/dri dev/dri none bind,optional,create=dir
lxc.mount.entry: /dev/fb0 dev/fb0 none bind,optional,create=file
lxc.mount.entry: /dev/dri/renderD128 dev/renderD128 none bind,optional,create=file
In der PVE shell einmal die .conf des LXC editieren, mein emby-lxc hat die ID 100, entsprechend anpassen.
nano /etc/pve/lxc/100.conf
da habe ich angefügt ans Ende:
lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.cgroup2.devices.allow: c 29:0 rwm
lxc.mount.entry: /dev/dri dev/dri none bind,optional,create=dir
lxc.mount.entry: /dev/fb0 dev/fb0 none bind,optional,create=file
lxc.mount.entry: /dev/dri/renderD128 dev/renderD128 none bind,optional,create=file
Freut mich, leider habe ich den Kram nie für meinen Deskmini mit dem 2400G hinbekommen, um dessen iGPU an einen Container durchzureichen, wollte die beiden nämlich eigentlich durchtauschen vor Ewigkeiten.
Mussu nur drauf achten, dass bei der Paketinstallation die Desktops abgewählt und ein SSH-Server ausgewählt ist.
Danach ganz normal insten, Webmin drauf knallen und mit der Anleitung deines Vertrauens die Dienste installieren, welche die VM ausführen soll.
Kann man irgendwie in einer Weboberfläche mehrere Nodes administrieren, ohne dass diese tatsächlich HA machen oder ein Cluster(?) sind? Bis jetzt verbinde ich mich immer zu jedem PVE einzeln.
Edit: Möglicherweise, in dem ich einen Cluster aufmache und eben nicht HA nutze? Ich möchte alle Freiheiten behalten, also theoretisch jeden Node jederzeit komplett rausnehmen/platt machen können, es soll keinen Master geben.
Ja, sie müssen nur in einem Cluster sein. HA ist optional und alleine für die Steuerung nicht notwendig.
€dit: Aus dem Cluster herausnehmen geht wohl, aber wenn ich mich recht entsinne, sollte dieser Node dann niemals wieder Teil des selben Clusters werden. Sobald man einen Cluster erstellt hat, kann jeder Node alle anderen verwalten, einen Master gibt es nicht.
All existing configuration in /etc/pve is overwritten when joining acluster. In particular, a joining node cannot hold any guests, since guest IDscould otherwise conflict, and the node will inherit the cluster’s storageconfiguration. To join a node with existing guest, as a workaround, you cancreate a backup of each guest (using vzdump) and restore it under a differentID after joining. If the node’s storage layout differs, you will need to re-addthe node’s storages, and adapt each storage’s node restriction to reflect onwhich nodes the storage is actually available.
Das klingt schon deutlich aufwändiger, als es mir lieb ist (immer ohne HA). Auch sind meine Nodes im Internet verteilt, wobei einer zu Hause steht, hinter einer dynamischer IP-Adresse. Und was ist da mit Storage gemeint, hier wären aber eigene Configs weiterhin möglich? Weil ähnlich sind sich diese nicht... Das Einzige, was ich jetzt schon habe, sind eindeutige IDs der Gäste.
Sobald du einzelne Nodes clusterst, kommt automatisch Corosync ins Spiel, um /etc/pve als Fuse Filesystem zwischen den Nodes zu syncen. Und das sollte man latenzarm umsetzen.
Corosync reagiert etwas eigen, und wenn dann noch HA ins Spiel kommt, dann kann das mit höheren Latenzen auf einen Schlag recht unangehm werden.
Das Verhalten kann man recht gut in einer GNS3 Umgebung mit NETem zwischen den Clusternodes simuieren.
Since Proxmox VE 5.1, while supported, hostnames will be resolved at the time ofentry. Only the resolved IP is saved to the configuration.
Nodes that joined the cluster on earlier versions likely still use theirunresolved hostname in corosync.conf. It might be a good idea to replacethem with IPs or a separate hostname, as mentioned above.
D.h. ich bin out of luck mit meiner dynamischen IP-Adresse auf meinem nicht-HA Cluster-Node, es sei denn, ich richte vorher eine VPN-Verbindung zwischen den Nodes ein? Das habe ich nicht vor.
@BobbyD D
Per deuafult ist jeder Node ein eigenes Datacenter. Sobald Du einen weiteren Node aufnimmst, hast meherer Nodes in einer Oberfläche. HA, Clustering etc müsste erst konfiguriert werden, ou-of-the Box ist jeder Node Stand Alone. Wenn die Nodes verteilt sind, müsstest Du z.B. per Wireguard VPN für eine Verbindung sorgen. Dynamische IP kann man über einen Dyndns Dienst oder einen Router der das an Board hat abbilden.
Die Router von GL.inet haben sowohl Wireguard Client+Server als auch einen eigenes Dyndns Feature ohne Zusatzkosten eingebaut.
Sobald Du einen weiteren Node aufnimmst, hast meherer Nodes in einer Oberfläche. HA, Clustering etc müsste erst konfiguriert werden, ou-of-the Box ist jeder Node Stand Alone.
Okay, wo nehme ich denn weitere Nodes in eine Oberfläche auf?
Beitrag automatisch zusammengeführt:
Interpretiere das jetzt so, dass ich in jedem Falle einen Cluster aufmachen muss und in meinem Falle eine möglichst direkte VPN-Verbindung ebenfalls. Da ich inzwischen aber schon auf Create Cluster geklickt hatte, kann ich diesen nun nicht mehr löschen, auch die IP kann ich nicht mehr ändern, was für mich der Total-Reinfall ist. Aber ist auch typisches Verhalten für Proxmox, man sollte immer vorher wissen, was man tut. 😡
Was den Punkt WireGuard betrifft, hier habe ich in der Vergangenheit mehrfach Probleme mit dynamischen IP-Adressen beobachtet, nämlich, dass eine Änderung für eine laufende Verbindung nicht berücksichtigt wird. Da aber alle Nodes bis auf einen eine feste IP-Adressen haben, lässt sich das vermutlich dadurch umgehen, dass ich erst gar keine dynamische Adresse nutze. Ist aber auch eher eine Frage zu WireGuard auf Linux denn zu Proxmox.
Noch etwas zu Corosync im Clusterbetrieb:
Die zeitliche Hysterese konnte ich nocht nicht ermitteln, jedoch ist die response time Schwelle für "Node wird als offline markiert" bei ca. 2000 ms, und wird bei ca. 1200 ms response time wieder als online markiert.
Einen einzelner Node ist auch unter wiedrigen Bedingungen meist noch konfigurierbar - ein Cluster Node ist dann von anderen Nodes (Multi Master) aus offline. Und wenn du Pech hast, kommt er als Undefined (Fragezeichen Icon am Node) zurück - dann hilft meist ein reboot.
Wenn dein VPN eine garantierte response time von unter 2000 ms hat (besser unter 1200 ms), dann kann das ohne Node flap funktionieren. Aber machen würde ich das nicht.
Einmal könntest du die Disks durchreichen, TrueNAS als VM verwenden und in Proxmox ein VirtIO NFS Share einbinden bzw. als Storage einrichten
Du könntest probieren, OpenMediaVault als LXC laufen zu lassen, den Storage via LXC zu mappen und über das ShareRootFS Plugin den schon als Host-Pool angelegten Storage für Shares zu verwenden
Ich z.B. habe ein sehr einfaches Setup, wo ich gar keine "NAS-Software" benötige. Ich mappe den Storage per LXC durch und regle die Freigaben dann mit docker smb. Das ist nicht perfekt, reicht aber für mein Szenario.
Ich mache es ähnlich. Proxmox kümmert sich um ZFS und ein ZFS Subvolume ist direkt in einen LXC gemappt, der nur Samba macht. Das funktioniert absolut unauffällig. Würde ich jederzeit wieder so machen.