[Sammelthread] Proxmox Stammtisch

Hallo zusammen,

hat wer Erfahrungen mit der Digital Devices Cine S2 und Passthrough unter Proxmox 4.1? Ich habe versucht, auf meinem ProLiant ML10v2 mit 1231v3 eine Windows-VM unter Ubuntu einzurichten. Das klappte prima, bis auf PCI Passthrough der Cine S2. Deshalb habe ich Proxmox ausprobiert, in der Hoffnung, daß untenstehende Fehlermeldung unter Proxmox nicht mehr erscheint. Nix war's.

Ich habe die Anweisungen von https://pve.proxmox.com/wiki/Pci_passthrough befolgt. Versuche ich nun, meine Windows-VM zu starten, ergibt das die Fehlermeldung
Running as unit 100.scope.
kvm: -device vfio-pci,host=0d:00.0,id=hostpci0,bus=pci.0,addr=0x10: vfio: failed to set iommu for container: Operation not permitted
kvm: -device vfio-pci,host=0d:00.0,id=hostpci0,bus=pci.0,addr=0x10: vfio: failed to setup container for group 12
kvm: -device vfio-pci,host=0d:00.0,id=hostpci0,bus=pci.0,addr=0x10: vfio: failed to get group 12
kvm: -device vfio-pci,host=0d:00.0,id=hostpci0,bus=pci.0,addr=0x10: Device initialization failed
TASK ERROR: start failed: command '/usr/bin/systemd-run --scope --slice qemu --unit 100 -p 'KillMode=none' -p 'CPUShares=1000' /usr/bin/kvm -id 100 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -vnc unix:/var/run/qemu-server/100.vnc,x509,password -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=67253946-697f-404b-bccd-680396f3ada0' -name Windows7 -smp '8,sockets=2,cores=4,maxcpus=8' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000' -vga std -no-hpet -cpu 'kvm64,hv_spinlocks=0x1fff,hv_vapic,hv_time,hv_relaxed,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce' -m 8192 -k de -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'vfio-pci,host=0d:00.0,id=hostpci0,bus=pci.0,addr=0x10' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:d0e61c6c7f5' -drive 'file=/var/lib/vz/images/100/vm-100-disk-1.qcow2,if=none,id=drive-virtio0,cache=writeback,format=qcow2,aio=threads,detect-zeroes=on' -device 'virtio-blk-pci,drive=drive-virtio0,id=virtio0,bus=pci.0,addr=0xa,bootindex=100' -drive 'if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=52:54:00:80:14:EA,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300' -rtc 'driftfix=slew,base=localtime' -global 'kvm-pit.lost_tick_policy=discard'' failed: exit code 1

Ein "dmesg | grep -e DMAR -e IOMMU" ergibt
root@server:~# dmesg | grep -e DMAR -e IOMMU
[ 0.000000] ACPI: DMAR 0x00000000F1DE4A80 000380 (v01 HP ProLiant 00000001 \xffffffd2? 0000162E)
[ 0.000000] DMAR: IOMMU enabled
[ 0.020131] DMAR: Host address width 39
[ 0.020132] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[ 0.020136] DMAR: dmar0: reg_base_addr fed91000 ver 1:0 cap d2008c20660462 ecap f010da
[ 0.020137] DMAR: RMRR base: 0x000000f1ffd000 end: 0x000000f1ffffff
[ 0.020137] DMAR: RMRR base: 0x000000f1ff6000 end: 0x000000f1ffcfff
[ 0.020138] DMAR: RMRR base: 0x000000f1f93000 end: 0x000000f1f94fff
[ 0.020139] DMAR: RMRR base: 0x000000f1f8f000 end: 0x000000f1f92fff
[ 0.020140] DMAR: RMRR base: 0x000000f1f7f000 end: 0x000000f1f8efff
[ 0.020141] DMAR: RMRR base: 0x000000f1f7e000 end: 0x000000f1f7efff
[ 0.020142] DMAR: RMRR base: 0x000000000f4000 end: 0x000000000f4fff
[ 0.020143] DMAR: RMRR base: 0x000000000e8000 end: 0x000000000e8fff
[ 0.020143] DMAR: RMRR base: 0x000000f1dee000 end: 0x000000f1deefff
[ 0.020145] DMAR-IR: IOAPIC id 8 under DRHD base 0xfed91000 IOMMU 0
[ 0.020145] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[ 0.020146] DMAR-IR: x2apic is disabled because BIOS sets x2apic opt out bit.
[ 0.020147] DMAR-IR: Use 'intremap=no_x2apic_optout' to override the BIOS setting.
[ 0.020287] DMAR-IR: Enabled IRQ remapping in xapic mode
[ 0.442443] DMAR: No ATSR found
[ 0.442504] DMAR: dmar0: Using Queued invalidation
[ 0.442513] DMAR: Setting RMRR:
[ 0.442520] DMAR: Setting identity map for device 0000:01:00.0 [0xf1dee000 - 0xf1deefff]
[ 0.442540] DMAR: Setting identity map for device 0000:01:00.2 [0xf1dee000 - 0xf1deefff]
[ 0.442555] DMAR: Setting identity map for device 0000:01:00.4 [0xf1dee000 - 0xf1deefff]
[ 0.442571] DMAR: Setting identity map for device 0000:00:1f.2 [0xe8000 - 0xe8fff]
[ 0.442590] DMAR: Setting identity map for device 0000:00:1f.5 [0xe8000 - 0xe8fff]
[ 0.442605] DMAR: Setting identity map for device 0000:03:00.0 [0xe8000 - 0xe8fff]
[ 0.442623] DMAR: Setting identity map for device 0000:03:00.1 [0xe8000 - 0xe8fff]
[ 0.442638] DMAR: Setting identity map for device 0000:0d:00.0 [0xe8000 - 0xe8fff]
[ 0.442652] DMAR: Setting identity map for device 0000:01:00.0 [0xe8000 - 0xe8fff]
[ 0.442660] DMAR: Setting identity map for device 0000:01:00.2 [0xe8000 - 0xe8fff]
[ 0.442667] DMAR: Setting identity map for device 0000:00:1f.2 [0xf4000 - 0xf4fff]
[ 0.442669] DMAR: Setting identity map for device 0000:00:1f.5 [0xf4000 - 0xf4fff]
[ 0.442670] DMAR: Setting identity map for device 0000:03:00.0 [0xf4000 - 0xf4fff]
[ 0.442672] DMAR: Setting identity map for device 0000:03:00.1 [0xf4000 - 0xf4fff]
[ 0.442673] DMAR: Setting identity map for device 0000:0d:00.0 [0xf4000 - 0xf4fff]
[ 0.442674] DMAR: Setting identity map for device 0000:01:00.0 [0xf4000 - 0xf4fff]
[ 0.442675] DMAR: Setting identity map for device 0000:01:00.2 [0xf4000 - 0xf4fff]
[ 0.442677] DMAR: Setting identity map for device 0000:00:1f.2 [0xf1f7e000 - 0xf1f7efff]
[ 0.442684] DMAR: Setting identity map for device 0000:00:1f.5 [0xf1f7e000 - 0xf1f7efff]
[ 0.442691] DMAR: Setting identity map for device 0000:03:00.0 [0xf1f7e000 - 0xf1f7efff]
[ 0.442699] DMAR: Setting identity map for device 0000:03:00.1 [0xf1f7e000 - 0xf1f7efff]
[ 0.442706] DMAR: Setting identity map for device 0000:0d:00.0 [0xf1f7e000 - 0xf1f7efff]
[ 0.442714] DMAR: Setting identity map for device 0000:01:00.0 [0xf1f7e000 - 0xf1f7efff]
[ 0.442719] DMAR: Setting identity map for device 0000:01:00.2 [0xf1f7e000 - 0xf1f7efff]
[ 0.442723] DMAR: Setting identity map for device 0000:00:1f.2 [0xf1f7f000 - 0xf1f8efff]
[ 0.442725] DMAR: Setting identity map for device 0000:00:1f.5 [0xf1f7f000 - 0xf1f8efff]
[ 0.442726] DMAR: Setting identity map for device 0000:03:00.0 [0xf1f7f000 - 0xf1f8efff]
[ 0.442728] DMAR: Setting identity map for device 0000:03:00.1 [0xf1f7f000 - 0xf1f8efff]
[ 0.442729] DMAR: Setting identity map for device 0000:0d:00.0 [0xf1f7f000 - 0xf1f8efff]
[ 0.442730] DMAR: Setting identity map for device 0000:01:00.0 [0xf1f7f000 - 0xf1f8efff]
[ 0.442732] DMAR: Setting identity map for device 0000:01:00.2 [0xf1f7f000 - 0xf1f8efff]
[ 0.442733] DMAR: Setting identity map for device 0000:00:1f.2 [0xf1f8f000 - 0xf1f92fff]
[ 0.442735] DMAR: Setting identity map for device 0000:00:1f.5 [0xf1f8f000 - 0xf1f92fff]
[ 0.442736] DMAR: Setting identity map for device 0000:03:00.0 [0xf1f8f000 - 0xf1f92fff]
[ 0.442737] DMAR: Setting identity map for device 0000:03:00.1 [0xf1f8f000 - 0xf1f92fff]
[ 0.442739] DMAR: Setting identity map for device 0000:0d:00.0 [0xf1f8f000 - 0xf1f92fff]
[ 0.442740] DMAR: Setting identity map for device 0000:01:00.0 [0xf1f8f000 - 0xf1f92fff]
[ 0.442741] DMAR: Setting identity map for device 0000:01:00.2 [0xf1f8f000 - 0xf1f92fff]
[ 0.442742] DMAR: Setting identity map for device 0000:00:1f.2 [0xf1f93000 - 0xf1f94fff]
[ 0.442744] DMAR: Setting identity map for device 0000:00:1f.5 [0xf1f93000 - 0xf1f94fff]
[ 0.442745] DMAR: Setting identity map for device 0000:03:00.0 [0xf1f93000 - 0xf1f94fff]
[ 0.442746] DMAR: Setting identity map for device 0000:03:00.1 [0xf1f93000 - 0xf1f94fff]
[ 0.442747] DMAR: Setting identity map for device 0000:0d:00.0 [0xf1f93000 - 0xf1f94fff]
[ 0.442749] DMAR: Setting identity map for device 0000:01:00.0 [0xf1f93000 - 0xf1f94fff]
[ 0.442750] DMAR: Setting identity map for device 0000:01:00.2 [0xf1f93000 - 0xf1f94fff]
[ 0.442751] DMAR: Setting identity map for device 0000:01:00.0 [0xf1ff6000 - 0xf1ffcfff]
[ 0.442752] DMAR: Setting identity map for device 0000:01:00.2 [0xf1ff6000 - 0xf1ffcfff]
[ 0.442753] DMAR: Setting identity map for device 0000:01:00.4 [0xf1ff6000 - 0xf1ffcfff]
[ 0.442762] DMAR: Setting identity map for device 0000:00:14.0 [0xf1ffd000 - 0xf1ffffff]
[ 0.442778] DMAR: Setting identity map for device 0000:00:1a.0 [0xf1ffd000 - 0xf1ffffff]
[ 0.442793] DMAR: Setting identity map for device 0000:00:1d.0 [0xf1ffd000 - 0xf1ffffff]
[ 0.442805] DMAR: Prepare 0-16MiB unity mapping for LPC
[ 0.442810] DMAR: Setting identity map for device 0000:00:1f.0 [0x0 - 0xffffff]
[ 0.442819] DMAR: Intel(R) Virtualization Technology for Directed I/O
[ 957.640713] vfio-pci 0000:0d:00.0: Device is ineligible for IOMMU domain attach due to platform RMRR requirement. Contact your platform vendor.
[ 1306.044634] vfio-pci 0000:0d:00.0: Device is ineligible for IOMMU domain attach due to platform RMRR requirement. Contact your platform vendor.
[ 1335.037447] vfio-pci 0000:0d:00.0: Device is ineligible for IOMMU domain attach due to platform RMRR requirement. Contact your platform vendor.
[ 1339.191294] vfio-pci 0000:0d:00.0: Device is ineligible for IOMMU domain attach due to platform RMRR requirement. Contact your platform vendor.
[ 1549.934223] vfio-pci 0000:0d:00.0: Device is ineligible for IOMMU domain attach due to platform RMRR requirement. Contact your platform vendor.

Hat jemand die Cine2S unter Proxmox an eine Win-VM durchgereicht?

Danke für Eure Tips.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Guten Morgen GrafikTreiber,

danke für den Hinweis. Genau das war der Grund, warum ich von Ubuntu zu Proxmox gewechselt bin. Ich möchte mit meinem ML10v2 in einer VM Windows laufen lassen und dort mit einer Cine S2 und DVBViewer TV aufnehmen.
Proxmox und Ubuntu geben mir hier beide die gleiche Fehlermeldung aus, weshalb ich annehme, daß mein ML10v2 nicht PCI Passthrough kann.

Da die Frage weniger Proxmox-spezifisch ist, gehe ich mit meiner Nachfrage in den Ursprungsthread zum ML10v2 zurück.

Danke trotzdem.

Ziegenpeter
 
Hallo,

ich habe mir zum Testen auch mal Proxmox installiert. Wenn ich die NoVNC Konsole aufrufe, passt sich das Browser Fenster nicht korrekt an die Auflösung des Betriebssystems an und die Maus kann ich auch nicht benutzen. Wenn ich das auf einem Windows Server 2012 R2 ist alles in Ordnung. Getestet habe ich es unter Windows 10 mit Google Chrome und Internet Explorer.
 
Hallo,

ich habe mir zum Testen auch mal Proxmox installiert. Wenn ich die NoVNC Konsole aufrufe, passt sich das Browser Fenster nicht korrekt an die Auflösung des Betriebssystems an und die Maus kann ich auch nicht benutzen. Wenn ich das auf einem Windows Server 2012 R2 ist alles in Ordnung. Getestet habe ich es unter Windows 10 mit Google Chrome und Internet Explorer.

rtfm ?
 
Was soll mir das bringen wenn ich zu dem Problem in den Manuals auch nichts finde?
 
Hallo,

ich habe mir zum Testen auch mal Proxmox installiert. Wenn ich die NoVNC Konsole aufrufe, passt sich das Browser Fenster nicht korrekt an die Auflösung des Betriebssystems an und die Maus kann ich auch nicht benutzen. Wenn ich das auf einem Windows Server 2012 R2 ist alles in Ordnung. Getestet habe ich es unter Windows 10 mit Google Chrome und Internet Explorer.

VNC ist bei mir auch ziemlich schlecht (langsam, Mausklicks liegen meist neben dem Zeiger, Desktop passt sich nicht der Fenstergröße an). Die Alternative SPICE funktioniert dafür umso besser (sogar der Sound), benötigt allerdings einen Grafiktreiber unter Windows (siehe hier). Microsoft Remotezugriff über RDP funktioniert auch, wenn es das Windows zulässt (Pro-Version) und es in aktiviert ist (Systemsteuerung\Alle Systemsteuerungselemente\System -> Remoteeinstellungen).
 
Hatte hier jemand jemals mit Netzwerk-Problemen unter Proxmox zu kämpfen?

Ich habe pfSense (OPNSense auch mal getestet, ähnliches verhalten) installiert, das funktioniert auch ganz okay - nur das andere Guest's teilweise keine Möglichkeit haben die pfSense-Instanz übers Netzwerk zu erreichen. Anpingen anderen Rechner im Subnetz funktioniert, nur eben nicht die Gäste. Bekomme von den Gästen aus auch keine Verbindung ins Internet. Hat jemand einen ähnlichen Fehler gehabt und weiß wo ich anfangen könnte zu suchen?
 
@Pheenix

Dein Aufbau ist zwar nicht beschrieben aber zum Thema Subnetze mit Proxmox kann ich etwas beisteuern.

Wenn deine VM´s ein anderes Netz haben als der Host muss als Gateway das Interface eingestellt sein und damit der Host dich rauslässt ip_forwarding aktiviert werden.

Beispiel:

Proxmox ist vmbr0 mit 192.168.111.1
Netz für die VM´s wäre 192.168.122.x über vmbr1 mit 192.168.122.1

Wenn die VM´s nun vmbr1 zugeordnet bekommen brauchen diese als Gateway 192.168.122.1
Diese VM´s kommen aber nur bis zur 192.168.111.1 und nicht weiter.
Mit aktiven ip_forwarding kommen diese über das default gw des 111er Netzes auch ins Inet etc..

sysctl -w net.ipv4.conf.all.forwarding=1

und in der sysctl.conf permanent setzen.

So sollte es dann aussehen.

sysctl -a | grep forwarding|grep ipv4

net.ipv4.conf.all.forwarding = 1
net.ipv4.conf.all.mc_forwarding = 0
net.ipv4.conf.default.forwarding = 1
net.ipv4.conf.default.mc_forwarding = 0
net.ipv4.conf.eth0.forwarding = 1
net.ipv4.conf.eth0.mc_forwarding = 0
net.ipv4.conf.eth1.forwarding = 1
net.ipv4.conf.eth1.mc_forwarding = 0
net.ipv4.conf.lo.forwarding = 1
net.ipv4.conf.lo.mc_forwarding = 0
net.ipv4.conf.tap100i0.forwarding = 1
net.ipv4.conf.tap100i0.mc_forwarding = 0
net.ipv4.conf.vmbr0.forwarding = 1
net.ipv4.conf.vmbr0.mc_forwarding = 0
net.ipv4.conf.vmbr1.forwarding = 1
net.ipv4.conf.vmbr1.mc_forwarding = 0
 
Hallo,

danke erstmal für den Input! So wie ich meinen Aufbau verstehe befinden sich Host und Guest in einem Subnetz. Mein Aufbau war wie folgt:

Proxmox:
LAN: vmbr0 -> eth0 -> Statische IP (192.168.100.2/24)

OPNSense:
WAN: vmbr1 -> eth1 -> bekommt seine IP-Adresse/Gateway/.. vom DHCP des TC7200 (192.168.0.15/24). Desweiteren war im TC7200 die WAN-IP von OPNsense als DMZ eingetragen (weil die tolle Box keinen Bridge Mode unterstützt)
LAN: vmbr2 -> eth2 -> Statische IP (192.168.100.1/24), und auf diesem Interface lief auch der DHCP Server (Adressbereich: 192.168.100.10/24 - 192.168.100.254/24)

Der Lan-Anschluss von OPNSense lief dann in ein 16-Port Gbit Switch, wo alle weiteren Geräte dran hängen.

OMV:
LAN: vmbr3 -> eth3 -> Kabel war in oben angesprochenem 16-Port Gbit Switch -> hat seine IP per DHCP bezogen von OPNsense, was auch immer mal geklappt hat


Alle anderen Rechner (wie meine Desktop/Laptop beispielsweise) haben ihre IP auch einfach aus dem Pool von OPNSense bezogen (stecken auch alle in dem 16Port Gbit Switch) und lustigerweise keinerlei Probleme mit Ping oder Zugang ins Internet.
 
Zuletzt bearbeitet:
@Pheenix

Dein Problem ist jetzt das die VM mit OMV kein Zugriff ins Inet hat ? Da Opensense ja über vmbr2 erreichbar ist sollte OMV auch nur über vmbr2 angebunden werden.
Es ist unnötig eine weitere Bridge vmbr3 anzulegen und aus dem Host raus zu gehen zum Switch um dann wieder zurück. Dann sollte alles per DHCP klappen auch ohne ip_forwarding mit Inet.
 
Hallo zusammen,

ich wende mich heute mit folgendem Problem an euch, evtl hat der eine oder andere einen Tipp dazu.

Ich habe akt. PVE 4.1 am laufen und habe mir eine Win8.1 VM aufgezogen an die ich eine DigitalDevices S2 Karte durchreiche.
Ansich kein Ding, google hat mir das passende Lösungen gegeben und hat auch alles soweit funktioniert.

Nur weiß ich mittlerweile nicht mehr ob das Problem von Anfang an bestand oder erst mit der Zeit sich eingestellt hat.
Das Problem äußer sie wie folgt:
Die VM fährt hoch und ich kann mit recht passablen Umschaltzeiten über Kodi/DVDviewer LiveTV schauen.
Nur hapert es mit den Aufnahmen. Diese werden auf einer XPenology-VM abgelegt.

Was mir als Erstes aufviel war, die Wiedergabe läuft nicht flüssig, es ist eher ein stotterndes wiedergeben mit Sprüngen von ca 15 Sekunden.
Die Dateigröße passt auch nicht, ich erwarte bei SD-Aufnahmen ca. 1,5GB / Stunde die letzten Aufnahmen lagen eher bei ca 500 MB.
Die Benachrichtung dass die Aufnahme beendet wurde kommt mehrere Stunden nach dem programmierten Ende.
Läuft eine Aufnahme ist das Webinterface von DVBviewer kauf bedienbar und zu guter Letzt, ist mein komplettes Netzwerk lahmgelegt.

WebGUI von PVE spuckt für die VM´s nur noch unkown state raus und auch XPenology ist nicht mehr erreichbar, so das ich dies nicht ordnungsgemäß abschalten kann.
Am Monitor des Servers kommt auch keine Ausgabe mehr raus. Als wenn die Kiste einfach eingefroren wäre. SSH geht nocht.
Da hilft dann immer nur der 4 Sekunden Power-Knopf betätigen und die Kiste neu starten.

Ich weiß nicht woran es liegt, da an sich die PCI-Karte in der Win-VM erkannt wird und auch die Treiber installierbar sind. Auch ein LiveTV ist möglich.

In der verlinkten Quelle haben sie eine blacklist.conf bearbeitet (möglicherweise auch erst erstellt), unter dem angegebenen Pfand habe ich nur eine pve-blacklist.conf.
Ich habe mittlerweile beides ausprobiert.
Beim Kumpel der, was den TV-Serve angeht, das gleiche Setup hat, läuft alles ohne Probleme.

Evtl ist damals auch was bei der installation schief gelaufen, denn ich musste die SSD wo PVE draufläuft in meinen Rechner einbauen und die Installation von dort aus starten,
da sie an meinem Server nicht durchlief.

Hat von euch noch einer eine Idee?
 
@Pheenix

Dein Problem ist jetzt das die VM mit OMV kein Zugriff ins Inet hat ? Da Opensense ja über vmbr2 erreichbar ist sollte OMV auch nur über vmbr2 angebunden werden.
Es ist unnötig eine weitere Bridge vmbr3 anzulegen und aus dem Host raus zu gehen zum Switch um dann wieder zurück. Dann sollte alles per DHCP klappen auch ohne ip_forwarding mit Inet.

Jaein. Manchmal hat OMV oder andere VM Zugriff darauf - manchmal nicht (wie gesagt, wenn ich OPNsense anpinge von OMV oder einer anderem VM bekomme ich oft keine Antwort und manchmal eine, dann jedoch mit mind. 50% Paket loss). Manchmal kann ich den Host anpingen - dann mal wieder nicht. Ich bridge es mal um auf vmbr2 und werde testen, Danke!

Nur zur allgemeinen Bildung: Es mag ja sein das es unnötig ist, aber es ist nicht komplett falsch, oder? Oder müsste ich trotzdem ip_forwardig aktivieren um diese Lösung zum Laufen zu bringen ohne OVM auf vmbr2 zu bridgen?
 
Zuletzt bearbeitet:
Wenn alles in einem Subnetz ist,kannst du das eigentlich auch alles auf vmbr0 legen.
 
Jaein. Manchmal hat OMV oder andere VM Zugriff darauf - manchmal nicht (wie gesagt, wenn ich OPNsense anpinge von OMV oder einer anderem VM bekomme ich oft keine Antwort und manchmal eine, dann jedoch mit mind. 50% Paket loss). Manchmal kann ich den Host anpingen - dann mal wieder nicht. Ich bridge es mal um auf vmbr2 und werde testen, Danke!

Nur zur allgemeinen Bildung: Es mag ja sein das es unnötig ist, aber es ist nicht komplett falsch, oder? Oder müsste ich trotzdem ip_forwardig aktivieren um diese Lösung zum Laufen zu bringen ohne OVM auf vmbr2 zu bridgen?

Von der Theorie sollte deine Lösung auch klappen was man aber so nicht macht.Das ip_forwarding aktivieren könnte bei dir Abhilfe schaffen ohne OVM auf vmbr2 zu stellen.
Würde ich testen ist ja nur ein command als root auf dem Host.Ich überlege gerade wieso es bei dir zum Teil schon funktioniert aber mit Packet loss.Ich vermute das liegt an den zwei Linux-Bridges die im selben Netz hängen aber kein ip-forwarding aktiv haben.Default ist das immer deaktiviert bei Debian.Verbiege die OVM auf vmbr2 und alles sollte gut sein.

- - - Updated - - -

@bacon

Wenn du nur Probleme beim Aufnehmen hast solltest mal mit htop etc. auf host und innerhalb der vm´s mal die CPU/Memory Last prüfen.Über deine Hardware wissen wir ja noch nichts.
 
Ja die HW hätte ich angeben und hole es hiermit nach:
Mainboard: supermicro X9-SAE-V
CPU: Xenon E3 1225v2
RAM: Kingston 16GB ECC
SSD: Crucial M4 60GB
HDD: 4x 3TB WD RED

Ich habe gerade auch mal eine kleine "Testreihe" gemacht, evtl. hilft euch dass das Problem weiter einzugrenzen.
Screenshot der Win8.1 VM bei laufendem LiveTV
TV-Server_LiveTV.JPG
Screenshot der XPenology-VM auf der die VM des TV-Server liegt
Synology-LiveTV.JPG
Screenshot des PVE-WebGUI beim LiveTV
PVE-LiveTV.JPG
Screenshot des PVE-htop
PVE_htop-LiveTV.jpg
Screenshot des PVE-top
PVE_top-LiveTV.JPG

So das Ganze nun bei einer Aufnahme:
Screenshot der Win8.1 VM bei laufender Aufnahme
TV-Server_Rec.JPG
Screenshot der XPenlogoy-VM bei laufender Aufnahme
Synology-Rec.JPG
Screenshot der PVE-WebGUI bei laufender Aufnahme
PVE-Rec.JPG
Screenshot der PVE-htop bei laufender Aufnahme
PVE_htop-Rec.jpg
Screenshot der PVE-top bei laufender Aufnahme
PVE_top-Rec.JPG
Screenshot der Dateiablage
Dateigröße-Rec.JPG

Wie im Screen der Dateiablage ersichtlich mein Problem. Denn ich würde bei einer Aufnahmezeit von ca 1h irgendwas zwischen 1200 und 1500 MB erwarten -> ca 20-25 MB/Minute.
Die letzten Aufnahme konnte ich im Kodi nicht abspielen da er sie nicht öffnet. Die vorherigen waren ca 500 MB und liefen nicht flüssig mit Sprüngen von mehreren Sekunden.
Auch bei der Testaufnahme aktuell, konnte ich sehen wie nach dem Bestätigen der Aufnahme im DVBviewer RecordingService-GUI das Laden des GUI langsam wurde.
Alle anderen WebGUI´s waren vorerst noch bedienbar. Auch war die einzelnen Auslastungen bis ich den Text fertig hatte gleich.

Was hat es mit diesem blacklisten vom pci-stub aufsich? Das ist doch der verantwortliche Dienst für das Passthrough wenn ich das richtig verstanden habe.
Sollte ich den nach einem Reboot des PVE nicht unter lsmod | grep pci sehen?
Habe den auch schon mit modprobe "gestartet" aber das hilft auch nicht. Habe ihn zusätzlich in der /etc/modprobe-load/... eingetragen, aber damit startet er auch nicht.

Trotzdem ein Dankeschön für die Zeit die ihr euch nehmt. Evtl wäre es doch besser das ganze System von Null auf noch mal hoch zu ziehen.

Update:
Ich ware gerade per PVE-Konsole auf der TV-Server-VM und wollte auf die Freigabe zugreifen, auf welcher die Aufnahmen liegen.
Hier hat sich der Exploerer schon abmühen müssen Zugriff zu bekommen, das Anlegen einer neuen Datei war auch kaum möglihc.
Im Task-Manager war die Explorer.exe zeitweise Inaktiv. Aber eine erhöhte CPU Last habe ich nicht festgestellt.
 
Zuletzt bearbeitet:
Versuch mal der Windows Vm und dem XPenology mehr Ram zuzuweisen.

Cup hast ja schon je 2 vergeben.

Ist echt ne Festplatte defekt?

Ist die Leistung von nem anderen Pc aus XPenology gut oder fantastisch?
 
Zuletzt bearbeitet:
Also die TV-Server VM hat 4GB, das sollte für ein Win8 doch reichen, beim Kumpel reichts auf jeden Fall. Aber ausprobieren schadet ja nicht.
Die XPenology hat 2GB was bisher auch gereicht hat. Zu Testzwecken habe ich es vor zwei Tagen auf 1GB reduziert.
Und da bestand das Problem ja auch schon, aber ich erhöhre das wieder auf 2GB.

Ich mach jetzt nen SMART Test bzw. les die SMART Werte der Red´s aus, den auch nur dadurch hat der Kumpel gesehen, dass die RED bei ihm defekt ist.
XPenology hat dank fehlender SMART-virtualisierung das nicht gemerkt. Erst als der Server ständig abgekackt ist

Was die Leistung vom XPenology betrifft. Da ich nur ein Rechner habe kann ich das nur von hier testen.
Aber bisher war alles i.O.

Wir haben auch gerade mal ein paar Sachen beim Kumpel geschaut.
Geben wir dort in einer SSH lsmod | grep pci ein, kommt das raus
vfio_pci 32768 1
vfio_virqfd 16384 1 vfio_pci
vfio 28672 5 vfio_iommu_type1,vfio_pci
pci_stub 16384 0

bei mir ist da nichts.
Edit:
nach der Modifikation erscheint im Moment nur pci_stub
Evtl kommt der Rest wenn ich den TV-Server angeworfen habe

Auch werde ich mal seine blacklist.conf und modules.conf übernehmen.

Ergänzend hier mal ein Auszug der SMART-Werte von einer WD Red
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 184 177 021 Pre-fail Always - 5766
4 Start_Stop_Count 0x0032 099 099 000 Old_age Always - 1831
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 9141
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 099 099 000 Old_age Always - 1272
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 54
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 1776
194 Temperature_Celsius 0x0022 119 096 000 Old_age Always - 31
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
 
Zuletzt bearbeitet:
Ich kann erfolgreich Rückmeldung geben, alles läuft wie man sich das Vorstellt.
Ich habe folgendes geändert:
/etc/modprobe.d/blacklist.conf
Hier das "pci-stub" ausgetragen und folgendes eingetragen
blacklist dvb_core
blacklist ddbridge

und in der
/etc/modules-loading/modules.conf
pci_stub
eingetragen

Nach einem Reboot der Kiste und dem Start der TV-Server VM zeigte auch
lsmod | grep pci
das aus was bein der Vergleichskiste angezeigt wird.

Somit zum Glück keine HDD defekt.
Danke für eure Zeit und Hilfsbereitschaft
 
Moin zusammen,

bin gerade am Testen mit win2012R2 Server auf Proxmox. Ist auf einer 120gb SSD, aber die VM kriegt nur 60gb, 12 gb Ram, 2x2 Kerne und 1x eth1 bzw. bridge...

Liegt es am Windows oder auf was muss man achten? Das system verhält sich so träge.... will wsus nutzen.
 
Hast du die VirtiO Treiber eingespielt.
Und die Festplatte auch als VirtiO eingestellt.
Das gleiche bei der Netzwerkkarte.

Bei mir läufst wie sau
 
Mal eine andere Frage weil es hier gerade um TV-Sticks geht. Ich habe hier noch einen DVB-C Stick rumfliegen, den ich eventuell gerne nutzen würde als TV-Server. Hatte das in einer Konfiguration mit DVBViewer auch schonmal, hat auch super geklappt! (jedoch nicht einer VM, sondern einfach nur Windows7 + DVBViewer)

Wenn ich den Stick nun in einer VM nutzen möchte wäre Windows XP oder 7 sinnvoller? Ich stelle mir vor das XP deutlich weniger Ressourcen verbrauchen würde - und die XP Instanz würde wirklich nur dafür laufen.
 
Hallo, es ist zwar nix Proxmox spezifisches, aber kann mir jemand sagen wo man fragen zum Turnkey Linux AD stellen kann. Ich benutze das als LXC Container unter Proxmox 4.1 und bekomme den DNS nicht zum laufen.
 
Da mein Problem mit mit dem TV-Server immer noch nicht behoben ist, muss ich mich nochmals an euch wenden.
Allerdings mehr in die Richtung, wie ihr Proxmox einsetzt und welche Erfahrungen ihr gemacht habt.

Ich bin heute über diesen Forumseintrag gestolpert.
Kurzgesagt möchte man dort die Ausfallsicherheit und Performance durch den Einbau zweier SSDs erhöhen. Zum Schluss kommt dann ein Punkt der mich hellhörig gemacht hat.

Da ich wohl um eine komplette Neuinstallation nicht herumkomme wollte ich im Vorfeld mal ein paar Erkundigungen einholen.
Was ich machen möchte:
Ich möchte eine Virtualisierungsumgebung aufbauen in der ich zum einen meine Datenhaltung so wie den ein oder anderen Dienst laufen lassen möchte.
Die Datenhaltung akt. läuft unter einem XPenology auf einem RAID6. Auf dem RAID liegt im Moment zum Teil die VM-Disks als auch alle anderen Daten.
An Dienste sehe ich im Moment eine Firewall (akt. Sophos soll aber eher eine pfSense werden) und der ein oder andere LXC-Container mit einer SQL-Datenbank, Webserver und wenns mal laufen sollte ein
minimales Debian als TV-Server.
Die VM-Disks landen dann auf einer neuen 240GB SSD, Backups der Disks dann auf dem Datengrab per NFS Freigabe.

Jetzt kommt mir der Gedanke das XPenology gegen ein freeNAS auszutauschen, da dort wohl ein ZFS Verbund angelegt werden kann.
Ich habe mich mit ZFS noch nicht viel beschäftigt, sehe aber den Vorteil darin, dass es wohl bei der Virtualisierung mehr Pluspunkt hat als wenn ich dies über eine XPenology RAID 6 mache.

Das dies machbar ist sehe ich ja, es läuft bei mir mehr oder wenig gut und bei anderen ohne Probleme.
Aber komme ich an meine Daten auch jeder Zeit ran, wenn ich das mit FreeNAS und ZFS lösen würde?
Bei XPenology baue ich die aus und klemme die an ein Linux und die Daten sind da, so zumindest der Plan.

FreeNAS selber schreibt ja, dass man es nur als BareMetal laufen lassen soll.

Was möchte ich wissen:
Wie setzt ihr Proxmox ein wo landen eure VM-Disks bzw generelle die von euch vorzuhaltenden Daten (Media-Sammlung, private Dokumente usw)
Wie sieht es bei euch mit der Datensicherheit/-verfügbarkeit aus? RAID/Backup-Lösung
 
proxmox und die VMS laufen in nem SSD ZFS Mirror RAID als root, die großen Daten wie Aufnahmen und Backups liegen auf nem ZFS RAID-Z. Zugriff via CIFS. zfsonlinux ist einfach ein Traum

Gesendet von meinem A0001 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Was möchte ich wissen:
Wie setzt ihr Proxmox ein wo landen eure VM-Disks bzw generelle die von euch vorzuhaltenden Daten (Media-Sammlung, private Dokumente usw)
Wie sieht es bei euch mit der Datensicherheit/-verfügbarkeit aus? RAID/Backup-Lösung

Ich hab Proxmox (ohne ZFS) auf einer Boot-SSD installiert und anschließend auf Proxmox-Ebene einen dicken ZFS-Pool "für alles" gemacht (RaidZ1 auf drei WD-RED Platten). Für die unterschiedlichen Container/VM-Daten gibt es in dem Pool jeweils ein eigenes Filesystem: Backup-Files, Container, Disk-Images, ISOs und Container-Templates. Die Filesysteme sind als Storage in Proxmox hinzugefügt. Wichtig dabei ist es, dass Container und Disk-Images als Typ "ZFS" hinzugefügt wird, sonst gibt's beim Booten eine Fehlermeldung. Der Rest wird als Typ "Directory" hinzugefügt.

Meine "Nutzdaten" liegen auch in eigenen ZFS-Filesystemen in diesem Pool. Sie werden dann an in Containern gemountet, in denen die Server-Software läuft, also so Sachen wie Samba, NFS, Logitech-Media-Server, Plex, Owncloud, GitLabs, usw... Container sind hier gegenüber VMs deutlich im Vorteil, da man Directories aus dem Wirts-Filesystem direkt an eine Stelle im Container-Filesystem mounten kann ohne über ein Netzprotokoll wie SMB oder NFS zu gehen. Da sich die Container den Kernel mit dem Wirts-OS (Proxmox) teilen, ist auch der Resourcenverbrauch sehr gering, ich hatte am Anfang immer viel zu viel Speicher zugewiesen und mich gewundert, wie sparsam das ist. Beim NFS-Server, der ja bei Linux ein Kernel-Server ist, musste ich dem Container mehr Privilegien geben, damit es funktioniert ("lxc.aa_profile: unconfined" in der Container-Konfiguration). Auch für den GitLabs-Container war das nötig, aber im Großen und Ganzen verhalten sich Container wie sparsame, schnellere VMs.

In Sachen Verfügbarkeit verlasse ich mich ganz auf ZFS. Redundanz mit RaidZ1 ist für den Heimgebrauch ausreichend ausreichend. Mit zfs-auto-snapshot Skripten habe ich regelmäßige Snapshots bis zu einem Jahr in die Vergangenheit, Backups mache ich mit simplesnap auf meinen alten Server und dann habe ich noch so einen Wechselrahmen für Backups auf Festplatte, für die ich noch keine gute Automatisierungs-Lösung habe. Ich stelle mir das so vor, dass ich die Platten nur reinschiebe und dann inkrementell losgelegt wird. Falls hier jemand einen guten Tipp für mich hat wäre ich interessiert, ansonsten werde ich mir wohl mal Simplesnap ansehen und ggf. ein wenig dafür anpassen.

Vermutlich ist ZFS On Linux nicht ganz so weit / robust wie ZFS unter Solaris oder BSD, aber ich hatte bisher keine Probleme damit (sammle aber erst seit ca. 2 Monaten Praxis-Erfahrungen damit, vorher hatte ich FreeNAS laufen). Insgesamt ist ZFS schon ziemlich genial, vorausgesetzt man hat genügend RAM für's Caching. Ich weiß ja nicht, wie robust inzwischen BTRFS ist, nach allem was ich bisher ausprobiert und gehört habe, ist das diesbezüglich immer noch nicht ausgereift und ZFS finde ich auch einfacher zu administrieren (sieht man von ein paar Einschränkungen ab, z.B. kann man keine Redundanz-Level on-the-fly ändern oder die Anzahl der Platten in einem RaidZ-Verbund nachträglich erhöhen).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh