[Sammelthread] Proxmox Stammtisch

Okay,...sehr komisch. vll hilft es manchmal auch einfach den Container komplett neu aufzusetzen. Und irgendwas im Container ist verkonfiguriert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das war, bis zu dem Zeitpunkt als mir die Option der Aktivierung des nfs Features mitgeteilt wurde.
Seit dem komme ich auch nicht mehr per root, in einer ssh session per sudo/su, rein.
Ein Consolen-Login scheitert, da ich ziemlich am Anfang das root Passwort ersetzt habe.
 
Vom Host aus kommst Du mit "pct enter 123" in den Container 123 (ohne Passwortabfrage).
 
Sagt mal, kann man in einem LXC auch Hardware direkt weiterleiten? Also ein USB-Dongel für RTL-SDR wäre mir da wichtig
 
Sagt mal, kann man in einem LXC auch Hardware direkt weiterleiten? Also ein USB-Dongel für RTL-SDR wäre mir da wichtig

Brauchst du nicht. Bei LXC siehst du die Hardware des Hosts. Kann sein, dass du dem Container privilegierte Rechte geben musst.

Schau dir das Mal an:

[Howto] Proxmox 4.4 und LXC - TV-Karte (hier Digital Devices Cine S2 v6.5) im Container verfügbar machen - Server - VDR Portal

Das müsste so auch mit USB funktionieren.

Gruß Hoppel
 
Sagt mal, kann man in einem LXC auch Hardware direkt weiterleiten? Also ein USB-Dongel für RTL-SDR wäre mir da wichtig


Ja, das geht. Ich reiche meine Technisat Skystar 2 HD USB an einen Container durch. Funktioniert im Grunde genommen wie für PCI Geräte, was ja bereits im Link von hoppel118 beschrieben wurde.
Folgendes habe ich der Konfiguration des Containers hinzugefügt:

Code:
lxc.cgroup.devices.allow: c 212:* rwm
lxc.mount.entry: /dev/bus/usb/001/007 dev/bus/usb/001/007 none bind,optional,create=file
lxc.mount.entry: /dev/dvb dev/dvb none bind,optional,create=dir

Ausgabe lsusb auf dem Hostgerät

Code:
root@server:~# lsusb
Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 001 Device 004: ID 0557:2419 ATEN International Co., Ltd
Bus 001 Device 003: ID 0557:7000 ATEN International Co., Ltd Hub
Bus 001 Device 007: ID 14f7:0500 TechniSat Digital GmbH DVB-PC TV Star HD
Bus 001 Device 008: ID 051d:0003 American Power Conversion UPS
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
 
oh danke.. so ein LXC spart mir doch einige Ressourcen ein. kann ja nur besser werden
 
moin,

ich habe einen hp gen 8 mit einem hp 410 raid-kontroller und möchte proxxmox installieren.
meine idee ist auf einer ssd / hdd proxxmox und die VM's zu installieren und später dann die RAID-Laufwerke einsetzen und als RAID 5 laufen zu lassen.
kann ich das RAID später einbinden oder muss alles bei der Installation da sein ?
 
Welche ssd sind aus Erfahrung gut ? Würde sandisk Ultra 2 als raid 1 für die vm‘s machen und proxmox auch auf eine eigene ssd . Brauche ich die ISOs der vm nur zum installieren oder immer wenn ich die vm’s starte ? Wo sollte ich diese lagern ?


Gesendet von iPhone mit Tapatalk
 
Die ISOs brauchst du nur zum installieren, du kannst diese einfach am Webinterface hochladen => am einfachsten direkt am Host.

SSD => private Nutzung oder Firma? Platzbedarf?
 
Die Nutzung ist privat aber es soll ein localhost für meine Webseiten haben bevor sie hochgeladen werden . Owncloud für meine privaten Daten und efhm für mein smarthome meine ccu2 (homematic) ist sehr lahm. Und eben was man alles braucht VPN,Firewall


Gesendet von iPhone mit Tapatalk
 
Mal eine kleine Frage:
man kann ja einzelne HDDs direkt an VMs durchreichen. Kann man hier auch eine HDD mit vorinstalliertem Windows direkt an eine VM durchreichen? Sodass man sich eine Neuinstallation spart?
 
Warum das? Ich habe testweise mit clonezilla eine vm wiederhergestellt und das hat ja auch ohne Probleme geklappt. Für Grafikkarte habe ich nachträglich durchgereicht. Alles ohne Probleme. Deshalb würde ich es wohl mit der SSD versuchen diese direkt durchzureichen.
 
Achso...naja, fehlen halt sicherlich ein paar Treiber (VirtIO SCSI zum booten, ....)
 
Für das Block Device vielleicht nicht, aber der Controller an dem das hängt ist ja sicher ein virtio-scsi-pci Controller.
 
hat es eigentlich Sinn, Docker auf dem Hypervisor laufen zu lassen?
 
Kommt auf deinen Use-Case an ;)

Ich habs, weil mein G8 nicht genügend Bumms (a.k.a. RAM) hat um für jeden Quark eine extra VM laufen zu lassen, direkt auf dem PVE laufen.

@Work deploy ich extra dafür quer übers Cluster verteilt schlanke VMs (CoreOS), die ausschliesslich Docker Swarm Nodes sind (zum wegwerfen und neu hinzustellen via Ansible), aber da hat das Cluster auch Power.
 
für mich ist das ganze Teil nur spielwiese... übungen.. ausbildung.. nix produktives
 
oh ja... will es eigentlich nur nutzen, weil ich mit LXC Probleme habe...
Hab PVE auf einem kleinen USB-Stick am laufen und die Daten liegen auf ein ZFS-Pool. Irgendwie verweigert mir PVE, die Erstellung eines LXC auf dem ZFS, obwohl ich es freigegeben habe. Hab diesen Pool auch einfach als Ordner eingebunden... ohne Erfolg. Normale VMs laufen perfekt damit.
 
Jup...wird aber eine spannende Fummelei mit Treibern.

Eigentlich ist es sogar recht einfach. Zuerst als ideX hinzufügen, booten und die Treiber installieren. Danach kann man die Platte neu hinzufügen. Das ganze kann natürlich auch erledigen bevor man die Platte umbaut.

Grundsätzlich würde ich aber davon gänzlich abraten. Eine durchgereichte Platte hat diverse Nachteile => Snapshots, Backup, Replikation,.. wird damit mehr oder weniger unbrauchbar. Es ist weitaus einfacher das bestehende System zb mit disk2vhd in eine neue VM zu klonen.

- - - Updated - - -

oh ja... will es eigentlich nur nutzen, weil ich mit LXC Probleme habe...
Hab PVE auf einem kleinen USB-Stick am laufen und die Daten liegen auf ein ZFS-Pool. Irgendwie verweigert mir PVE, die Erstellung eines LXC auf dem ZFS, obwohl ich es freigegeben habe. Hab diesen Pool auch einfach als Ordner eingebunden... ohne Erfolg. Normale VMs laufen perfekt damit.

Abgesehen von Container/Container Template musst du am Storage nichts weiter "freigeben".
 
Seit PVE 5.4 geht auch in LXC Nesting, ich habe so auch unter LXC den UNMS-Docker Container von Ubiquiti zum laufen gebracht.
2019-06-18 18_14_56-Window.png
 
Sehr interessante Info, das habe ich in den Release Notes gar nicht gesehen. D.h. Du betreibst einen LXC, der Docker Hub spielt?

Edit: gerade Mal nachgelesen, das geht sogar schon seit 5.3, ging aber trotzdem an mir vorüber. Insofern trotzdem vielen Dank :)
https://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_5.3
"Nesting for Containers (privileged & unprivileged containers): Allows running lxc, lxd or docker inside containers, also supports using AppArmor inside containers"
 
Zuletzt bearbeitet:
@b99: kann es sein, dass du Turnkey Templates als unprivileged Container zu installieren?
 
nee.. ganz normales Ubuntu-Image. auch Suse macht mir Probleme... irgendwie will der den Mountpoint vom zfs nicht finden... der ist bei mir unter /media/pool.. und suchen will der immer unter //pool .. keine Ahnung was der da nicht mag
 
Sehr interessante Info, das habe ich in den Release Notes gar nicht gesehen. D.h. Du betreibst einen LXC, der Docker Hub spielt?

Edit: gerade Mal nachgelesen, das geht sogar schon seit 5.3, ging aber trotzdem an mir vorüber. Insofern trotzdem vielen Dank :)
Roadmap - Proxmox VE
"Nesting for Containers (privileged & unprivileged containers): Allows running lxc, lxd or docker inside containers, also supports using AppArmor inside containers"

Korrekt, habe aber mit Docker allgemein wenig Erfahrung. Bei UNMS hab ich einfach nur keine andere Wahl gehabt :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh