@bogomil22: LXC Passthrough https://forum.proxmox.com/threads/passthrough-usb-from-host-to-lxc.23856/#post-119771
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
ja, der passthrough ist in proxmox zwar ok, aber immer ne kleine Baustelle (lösbar)
dafür ist es zu stark auf "normales" Hosting ausgelegt ... was es dafür umso besser macht (imho)
bin auf jedenfall dankbar für proxmox ... will es nie mehr missen
Ich habe nicht gesagt, dass man generell nicht blacklisten muss. Dies galt nur der Cine S2, da ich diesen Tip mal im VDR-Forum erhalten habe. Und das funktioniert bei mir super. Habe es auch nie anders getestet.
Meinen LSI-3008 SAS-Controller (mpt3sas) habe ich allerdings geblacklisted. Wie ich das gemacht habe, hatte ich neulich im Proxmox-Forum geschildert:
https://forum.proxmox.com/threads/proxmox-ve-4-2-pci-passthrough-lsi-3008-mpt3sas.29577/
Leider hat dort nie jemand auf meine Fragen reagiert.
Wenn die VM exklusiven Zugriff auf die Hardware hat, musst du wohl nicht blacklisten. Bei dem SAS-Controller war mir das aber zu heikel, da sich dahinter ein RAID-Z2 bestehend aus 8x4TB befindet.
Gruß Hoppel
Ja, via lspci sehe ich alles in LXC aber ich kann auf die Geräte nicht zugreifen. Wie genau mounte ich den /dev/dvb in der vmid.conf?In einem LXC siehst du die gesamte Hardware direkt mit lspci. Bei der TV-Karte musst du dann aber wohl /dev/dvb in den Container über die "vmid.conf" mounten.
@bogomil: Du verwendest als "machine type" in der Windows-VM den "q35"-Typ: Das ist unnötig (q35 ist nach wie vor experimentell) und möglicherweise ein Grund, warum es beim Passthrough Probleme gibt. Ein einfaches "hostpci" Statement ohne "driver" und "pcie" parameter sollte reichen, wenn Du einfach beim Proxmox Default-Machine-Type (440fx) bleibst. Treiber-Blacklisting ist ebenfalls nur für Geräte nötig, die Probleme beim nachträglichen Treiber-Unbind machen. Typischerweise sind das Grafikkarten, bei den meisten anderen Karten (inkl. der x540 und i350) funktioniert das normal problemlos.
Hast Du schon mal verifiziert, ob die einzelnen PCIe-Functions der i350 auch in jeweils einer eigenen IOMMU landen? ("find /sys/kernel/iommu_groups/ -type l").
Weiterhin kannst Du bei der luxuriösen Hardware-Ausstattung auch mal SR-IOV ausprobieren. Damit kannst Du sowohl die vier i350 NICs als auch die X540-T1 auf dem Host in Dutzende von virtuellen NICs (VFs, "Virtual Functions") aufteilen, die sich dann per PCI-Passthrough an VMs durchreichen lassen. Hat den Vorteil, dass die VFs in Hardware virtualisiert werden und somit wesentlich weniger Overhead beim Assignment erzeugen als emulierte oder selbst paravirtualisierte (virtio) NICs. Dafür muss Dein Board aber entsprechenden SR-IOV Support bieten.
Was wählt man als Image aus? RAW, qcow2 oder das andere, was ich gerade vergessen habe?
Die Checkbox habe ich bisher immer übersehen^^. Spontan habe ich diesen WIKI Eintrag gefunden. Was meinen die Anderen?Discard ist für SSD-Trim, richtig?
Siehe hier:Wann sollte man IO-Thread auswählen?
Siehe HIER. Standardmäßig ist es deaktiviert um die Migration der VM zu gewährleisten. Andererseits fehlen dem Guest dann die ganzen Features die ein CPU hat (SSE, AES-NI,..). Ich habe es auf host gestellt, da ich nicht ständig die VM zw. verschiedenen Hardware-Systeme wechse.Wann macht es Sinn bei CPU "Host" auszuwählen?
SSDs/HDDs: VirtIO oder SCSI?
Hängt denke ich von dem Guest System ab. Allgemein wird bei neueren Windows Systemen soweit ich weiss immer VirtIO für HDD als auch für Network empfohlen (ist performanter). Linux hat die VirtIO Treiber auch auch bereits integriert. Würde mich auch interessieren was die Anderen hier bevorzugen? Immer VirtIO?Windows-VMs: Netzwerktreiber VirtIO oder Intel?
Auch abhängig vom Guest OS. Soweit ich weiss gehen nicht-Linux-basierte OS nur als VM. Falls du aber Debian & Co. virtualisieren möchtest ist ein LXC leichtgewichtiger. Hier können die Profis mal AntwortenLXC-Container oder VM?