[Sammelthread] Proxmox Stammtisch

Firewall deaktiviert. Rechner befinden sich am selben Switch
Ein Geheimnis gibt es da jedenfalls nicht, möglicherweise bei der Einrichtung was verbaselt? Denn auf das IPMI deines Servers kommst Du ja drauf...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ping geht allerdings ....


1710154538820.png
 
Kannst du uns mal
cat /etc/network/interfaces
zeigen?
 
per ssh ist der Server erreichbar?
Ping vom Server auf deinen Router etc ist möglich? Ping auf deinen Rechner vom Server ist möglich?

Stimmen Uhrzeit und Datum? Im letzten Screenshot wird der "Last Login" von November 2023 angezeigt.
 
Habs hinbekommen. Dau (dümmster anzunehmender User) fail.
Erst hatte ich nur den Management Port am Netzwerk. Dann Einstellungen zerschossen (im BIOS). Dann ist mir das mit dem Netzwerk Kabel aufgefallen, Einstellungen zurück und läuft auf Anhieb. Sorry und danke für eure Zeit!
 
Ich habe via proxmox einen haufen SSDs zu einem ZFS Pool gebaut.
Jetzt überlege ich welche NAS software ich virtualisiert einsetze.
ich kann die platten nicht direkt durchreichen da ich sie nicht ausschließlich für das NAS nutzen möchte.
welche NAS application nimmt man da am sinnigsten?
Oder kanns am ende auch einfach TrueNas sein, auch wenn da alles rumkreischt man soll das ja nicht auf virtual disks speichern lassen...
 
Ich häng noch mal so halb an die Frage an, auch wenn ich die Platten bei mir 1:1 durchreichen kann, sollen in ne Yottabox oder sowas in der Richtung. Hätte dann gerne n Software-Raid o.ä. hinten dran und am liebsten sowas wie File Snapshots. Bin aber was Dateisysteme angeht grade absolut 0 auf dem aktuellen Stand. Kein ECC RAM, also afaik kein ZFS?
 
Ich hab am Freitag gut 6 Stunden dran gesessen, das Video Transcoding für Jellyfin einzurichten und bin ein bisschen verzweifelt.

Glaube ich hab irgendwo einen Fehler gemacht und nen falschen Treiber auf dem Host installiert?
1710173233448.png1710173393802.png1710173534393.png

Ist ein Intel i5-6200U mit HD Graphics 520, pveversion pve-manager/7.4-17/513c62be (running kernel: 5.15.136-1-pve).

Wo fang ich hier an das geradezuziehen? :d
 
Ich hab am Freitag gut 6 Stunden dran gesessen, das Video Transcoding für Jellyfin einzurichten und bin ein bisschen verzweifelt.

Glaube ich hab irgendwo einen Fehler gemacht und nen falschen Treiber auf dem Host installiert?
Anhang anzeigen 979945Anhang anzeigen 979946Anhang anzeigen 979947

Ist ein Intel i5-6200U mit HD Graphics 520, pveversion pve-manager/7.4-17/513c62be (running kernel: 5.15.136-1-pve).

Wo fang ich hier an das geradezuziehen? :d
Geht das "überhaupt"?
Soweit ich das immer mitbekommen habe braucht man doch mindestens 2 GPUs?
Denn, Proxmox Darf den dann nicht mehr benutzen wenn man den weiterreichen möchte oder irre ich?
 
Geht das "überhaupt"?
Soweit ich das immer mitbekommen habe braucht man doch mindestens 2 GPUs?
Denn, Proxmox Darf den dann nicht mehr benutzen wenn man den weiterreichen möchte oder irre ich?
Naja da es ne Anleitung "Hardware Acceleration ->LXC on Proxmox" gibt gehe ich mal davon aus, dass das zumindest in der Theorie möglich ist :d

Leider ist die extreeeem dürftig formuliert, und ich musste mir alles aus drölf verschiedenen Wikis und Foren heraussuchen.
 
Naja da es ne Anleitung "Hardware Acceleration ->LXC on Proxmox" gibt gehe ich mal davon aus, dass das zumindest in der Theorie möglich ist :d

Leider ist die extreeeem dürftig formuliert, und ich musste mir alles aus drölf verschiedenen Wikis und Foren heraussuchen.

Konntest du die gpu denn über add Hardware dazupacken? Geht das überhaupt beim Container? Bin noch immer klassischer vm User.
Ich guck nachher mal nach
 
Konntest du die gpu denn über add Hardware dazupacken? Geht das überhaupt beim Container? Bin noch immer klassischer vm User.
Ich guck nachher mal nach
Nein, ich hab sie anhand der GID in der lxc.conf auf /dev/dri/renderD128 gemappt und den dann im Container eingebunden. Testweise auch die anderen Gruppen render und video.
Da taucht er auch auf aber im Jellyfin meckert er dann "Dieser Client ist nicht mit den Medien kompatibel und der Server sendet kein kompatibles Medienformat" und wenn ich auf dem Host nachgucke steht die iGPU auch bei 0% Auslastung. Treiber sind auf beiden Systemen installiert, aber irgendwo hakt es noch. Normales CPU-Transcoding geht aber da platzt meine 15W CPU :d
Beitrag automatisch zusammengeführt:

Hmmm mir ist gerade aufgefallen dass auf dem Proxmox der VA Driver 21.1.1 läuft und auf dem Container der 22.5.0, mit unterschiedlichen VA-API versionen.

Daran könnte es liegen. Ist aber tatsächlich die neueste Treiberversion für den Debian 11 meines PVE 7.4.

1710179111797.png1710179189375.png

Wobei ich mich immer noch frage was der X server ist, den er da erreichen will.
 
Zuletzt bearbeitet:
Nein, ich hab sie anhand der GID in der lxc.conf auf /dev/dri/renderD128 gemappt und den dann im Container eingebunden. Testweise auch die anderen Gruppen render und video.
Da taucht er auch auf aber im Jellyfin meckert er dann "Dieser Client ist nicht mit den Medien kompatibel und der Server sendet kein kompatibles Medienformat" und wenn ich auf dem Host nachgucke steht die iGPU auch bei 0% Auslastung. Treiber sind auf beiden Systemen installiert, aber irgendwo hakt es noch. Normales CPU-Transcoding geht aber da platzt meine 15W CPU :d
Beitrag automatisch zusammengeführt:

Hmmm mir ist gerade aufgefallen dass auf dem Proxmox der VA Driver 21.1.1 läuft und auf dem Container der 22.5.0, mit unterschiedlichen VA-API versionen.

Daran könnte es liegen.

Anhang anzeigen 979988Anhang anzeigen 979990

Wobei ich mich immer noch frage was der X server ist, den er da erreichen will.
Mit X-Server ist der hier gemeint https://wiki.debian.org/Xorg

Also an Container durchreichen geht, habe ich bei meinem Emby-LXC auch hinbekommen.
War aber nur die iGPU der IntelCPU.
Im Grunde musste noch dem Debian/Proxmox-Hostsystem imho verbieten, den Treiber zu nutzen, wenn ich mich recht erinnere.
Und im Container dann noch
chown root:render /dev/dri/*

So hab ich das zumindest hinbekommen.
Ich schau mal, ob ich alle Änderungen noch raussuchen kann.

[LXC ist aus]
In der PVE shell einmal die .conf des LXC editieren, mein emby-lxc hat die ID 100, entsprechend anpassen.
nano /etc/pve/lxc/100.conf
da habe ich angefügt ans Ende:

lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.cgroup2.devices.allow: c 29:0 rwm
lxc.mount.entry: /dev/dri dev/dri none bind,optional,create=dir
lxc.mount.entry: /dev/fb0 dev/fb0 none bind,optional,create=file
lxc.mount.entry: /dev/dri/renderD128 dev/renderD128 none bind,optional,create=file
 
Zuletzt bearbeitet:
In der PVE shell einmal die .conf des LXC editieren, mein emby-lxc hat die ID 100, entsprechend anpassen.
nano /etc/pve/lxc/100.conf
da habe ich angefügt ans Ende:

lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.cgroup2.devices.allow: c 29:0 rwm
lxc.mount.entry: /dev/dri dev/dri none bind,optional,create=dir
lxc.mount.entry: /dev/fb0 dev/fb0 none bind,optional,create=file
lxc.mount.entry: /dev/dri/renderD128 dev/renderD128 none bind,optional,create=file

Yessss das hat funktioniert :bigok: Danke!

1710181735842.png

1710181975504.png


CPU schaukelt schön Eier und die Ladezeiten sind super kurz, so soll dat sein.

PS: Ich musste dem Host nichts verbieten, es ging nach chown /dev/dri (hatte ich auch schon probiert) + neuer lxc.conf

Grad mal die history durchgeblättert, hat nur 200 commands gebraucht xD
 
Zuletzt bearbeitet:
Freut mich, leider habe ich den Kram nie für meinen Deskmini mit dem 2400G hinbekommen, um dessen iGPU an einen Container durchzureichen, wollte die beiden nämlich eigentlich durchtauschen vor Ewigkeiten.
 
Zuletzt bearbeitet:
Muss ich bei Gelegenheit bei mir auch noch machen, danke. Auf den Apple TV streamen ist kein Thema aber der kack FireTV streikt dabei
 
Genau.
aktuell ist:

Mussu nur drauf achten, dass bei der Paketinstallation die Desktops abgewählt und ein SSH-Server ausgewählt ist.
Danach ganz normal insten, Webmin drauf knallen und mit der Anleitung deines Vertrauens die Dienste installieren, welche die VM ausführen soll.
 
Kann man irgendwie in einer Weboberfläche mehrere Nodes administrieren, ohne dass diese tatsächlich HA machen oder ein Cluster(?) sind? Bis jetzt verbinde ich mich immer zu jedem PVE einzeln.
Edit: Möglicherweise, in dem ich einen Cluster aufmache und eben nicht HA nutze? Ich möchte alle Freiheiten behalten, also theoretisch jeden Node jederzeit komplett rausnehmen/platt machen können, es soll keinen Master geben.
 
Zuletzt bearbeitet:
Ja, sie müssen nur in einem Cluster sein. HA ist optional und alleine für die Steuerung nicht notwendig.

proxmox_cluster_01.png


€dit: Aus dem Cluster herausnehmen geht wohl, aber wenn ich mich recht entsinne, sollte dieser Node dann niemals wieder Teil des selben Clusters werden. Sobald man einen Cluster erstellt hat, kann jeder Node alle anderen verwalten, einen Master gibt es nicht.
 
Zuletzt bearbeitet:
All existing configuration in /etc/pve is overwritten when joining acluster. In particular, a joining node cannot hold any guests, since guest IDscould otherwise conflict, and the node will inherit the cluster’s storageconfiguration. To join a node with existing guest, as a workaround, you cancreate a backup of each guest (using vzdump) and restore it under a differentID after joining. If the node’s storage layout differs, you will need to re-addthe node’s storages, and adapt each storage’s node restriction to reflect onwhich nodes the storage is actually available.
Das klingt schon deutlich aufwändiger, als es mir lieb ist (immer ohne HA). Auch sind meine Nodes im Internet verteilt, wobei einer zu Hause steht, hinter einer dynamischer IP-Adresse. Und was ist da mit Storage gemeint, hier wären aber eigene Configs weiterhin möglich? Weil ähnlich sind sich diese nicht... Das Einzige, was ich jetzt schon habe, sind eindeutige IDs der Gäste.
 
Sobald du einzelne Nodes clusterst, kommt automatisch Corosync ins Spiel, um /etc/pve als Fuse Filesystem zwischen den Nodes zu syncen. Und das sollte man latenzarm umsetzen.
Corosync reagiert etwas eigen, und wenn dann noch HA ins Spiel kommt, dann kann das mit höheren Latenzen auf einen Schlag recht unangehm werden.

Das Verhalten kann man recht gut in einer GNS3 Umgebung mit NETem zwischen den Clusternodes simuieren.
 
Zuletzt bearbeitet:
Since Proxmox VE 5.1, while supported, hostnames will be resolved at the time ofentry. Only the resolved IP is saved to the configuration.

Nodes that joined the cluster on earlier versions likely still use theirunresolved hostname in corosync.conf. It might be a good idea to replacethem with IPs or a separate hostname, as mentioned above.
D.h. ich bin out of luck mit meiner dynamischen IP-Adresse auf meinem nicht-HA Cluster-Node, es sei denn, ich richte vorher eine VPN-Verbindung zwischen den Nodes ein? Das habe ich nicht vor.
 
@BobbyD D
Per deuafult ist jeder Node ein eigenes Datacenter. Sobald Du einen weiteren Node aufnimmst, hast meherer Nodes in einer Oberfläche. HA, Clustering etc müsste erst konfiguriert werden, ou-of-the Box ist jeder Node Stand Alone. Wenn die Nodes verteilt sind, müsstest Du z.B. per Wireguard VPN für eine Verbindung sorgen. Dynamische IP kann man über einen Dyndns Dienst oder einen Router der das an Board hat abbilden.

Die Router von GL.inet haben sowohl Wireguard Client+Server als auch einen eigenes Dyndns Feature ohne Zusatzkosten eingebaut.
 
Sobald Du einen weiteren Node aufnimmst, hast meherer Nodes in einer Oberfläche. HA, Clustering etc müsste erst konfiguriert werden, ou-of-the Box ist jeder Node Stand Alone.
Okay, wo nehme ich denn weitere Nodes in eine Oberfläche auf?
Beitrag automatisch zusammengeführt:

Interpretiere das jetzt so, dass ich in jedem Falle einen Cluster aufmachen muss und in meinem Falle eine möglichst direkte VPN-Verbindung ebenfalls. Da ich inzwischen aber schon auf Create Cluster geklickt hatte, kann ich diesen nun nicht mehr löschen, auch die IP kann ich nicht mehr ändern, was für mich der Total-Reinfall ist. Aber ist auch typisches Verhalten für Proxmox, man sollte immer vorher wissen, was man tut. 😡
Was den Punkt WireGuard betrifft, hier habe ich in der Vergangenheit mehrfach Probleme mit dynamischen IP-Adressen beobachtet, nämlich, dass eine Änderung für eine laufende Verbindung nicht berücksichtigt wird. Da aber alle Nodes bis auf einen eine feste IP-Adressen haben, lässt sich das vermutlich dadurch umgehen, dass ich erst gar keine dynamische Adresse nutze. Ist aber auch eher eine Frage zu WireGuard auf Linux denn zu Proxmox.
 
Zuletzt bearbeitet:
Noch etwas zu Corosync im Clusterbetrieb:
Die zeitliche Hysterese konnte ich nocht nicht ermitteln, jedoch ist die response time Schwelle für "Node wird als offline markiert" bei ca. 2000 ms, und wird bei ca. 1200 ms response time wieder als online markiert.

Einen einzelner Node ist auch unter wiedrigen Bedingungen meist noch konfigurierbar - ein Cluster Node ist dann von anderen Nodes (Multi Master) aus offline. Und wenn du Pech hast, kommt er als Undefined (Fragezeichen Icon am Node) zurück - dann hilft meist ein reboot.

Wenn dein VPN eine garantierte response time von unter 2000 ms hat (besser unter 1200 ms), dann kann das ohne Node flap funktionieren. Aber machen würde ich das nicht.
 
Ich habe via proxmox einen haufen SSDs zu einem ZFS Pool gebaut.
Jetzt überlege ich welche NAS software ich virtualisiert einsetze.
Da gibt es jetzt mehrere Möglichkeiten.
  • Einmal könntest du die Disks durchreichen, TrueNAS als VM verwenden und in Proxmox ein VirtIO NFS Share einbinden bzw. als Storage einrichten
  • Du könntest probieren, OpenMediaVault als LXC laufen zu lassen, den Storage via LXC zu mappen und über das ShareRootFS Plugin den schon als Host-Pool angelegten Storage für Shares zu verwenden
Ich z.B. habe ein sehr einfaches Setup, wo ich gar keine "NAS-Software" benötige. Ich mappe den Storage per LXC durch und regle die Freigaben dann mit docker smb. Das ist nicht perfekt, reicht aber für mein Szenario.
 
Ich mache es ähnlich. Proxmox kümmert sich um ZFS und ein ZFS Subvolume ist direkt in einen LXC gemappt, der nur Samba macht. Das funktioniert absolut unauffällig. Würde ich jederzeit wieder so machen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh