[Sammelthread] Proxmox Stammtisch

ZFS Pool anlegen,die Festplatten dem Pool zuordnen,LXC Container erstellen und ihm Platz aus dem Pool zuweisen...


Gesendet von iPhone mit Tapatalk Pro
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Seit dem letzten Update funktionieren die Graphen nicht mehr. Die stehen alle bei 1970-01-01 01:00:00
Es scheint so, als ob da einfach nichts mehr geöladen wird. Das CPU-Auslastung und Ram-Auslastung mit der CPU-Info da funktioniert aber weiterhin.

Wie kann ich die Graphen wieder ans laufen bringen?


pvestat -v:
proxmox-ve: 4.4-77 (running kernel: 4.4.35-1-pve)
pve-manager: 4.4-5 (running version: 4.4-5/c43015a5)
pve-kernel-4.4.35-1-pve: 4.4.35-77
pve-kernel-4.4.19-1-pve: 4.4.19-66
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-48
qemu-server: 4.0-102
pve-firmware: 1.1-10
libpve-common-perl: 4.0-85
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-71
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-docs: 4.4-1
pve-qemu-kvm: 2.7.0-10
pve-container: 1.0-90
pve-firewall: 2.0-33
pve-ha-manager: 1.0-38
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.6-5
lxcfs: 2.0.5-pve2
criu: 1.6.0-1
novnc-pve: 0.5-8
smartmontools: 6.5+svn4324-1~pve80
zfsutils: 0.6.5.8-pve13~bpo80


service pvestat restart brachte auch keine Verbesserung (dieser Service läuft aber)


edit:
Ich glaube, ich habe das Problem gefunden. Ich erhalte immer folgenden Fehler:
Jan 03 00:40:24 node rrdcached[1277]: queue_thread_main: rrd_update_r (/var/lib/rrdcached/db/pve2-vm/106) failed with status -1. (/var/lib/rrdcached/db/pve2-vm/106: illegal attempt to update using time 1483400419 when last update time is 1483402624 (minimum one second step))

den erhalte ich sowohl für den Node als auch für alle VMs.

Ich denke es liegt an einen Zeitfehler. Ich habe die BIOS-Uhr korrigiert (während in Proxmox immer die richtige Zeit drin war, war im Bios -1h eingestellt, warum auch immer). Ich gehe davon aus, dass in einer Stunde das Problem sich von selbst behoben haben sollte?
 
Zuletzt bearbeitet:
Ja und Ja



laut lspci ist es eine single pcie Karte.
laut lspci -vv ist auch kein Modul geladen, das Blacklisting scheint also zu funktionieren.
Mit hostpci0: 04:00.0,driver=vfio,pcie=1 konnte ich die Vm starten, die Karte ist aber in der Vm nicht vorhanden. Sobald ich driver=vfio,pcie=1 weglasse, bekomme ich beim Versuch die Vm zu starten die Fehlermeldung "TASK ERROR: Cannot open iommu_group: Datei oder Verzeichnis nicht gefunden".

Hat noch jemand ne Idee was ich noch probieren könnte?

Verzweifelte Grüße Philipp
Hat noch irgendjemand ne idee? Bin leider noch nicht weitergekommen :confused:.
 
Hallo miteinander,

ich habe ein Problem mit meinem Homeserver und USB Passthrough. Es handelt sich um folgende Hardware:

Intel Xeon E3-1230 v5
ASRock Rack E3C236D4U
64 GB DDR4 ECC Ram (Samsung)
2* Seagate Ironwolf 10TB
Samsung PM961 256GB NVMe SSD
Asus GTX1060 Strix OC

Auf dem Server ist Proxmox 4.3 installiert und es laufen mehrere VMs. IOMMU wird unterstützt und ich konnte die Grafikkarte erfolgreich an eine Windows 10 VM durchreichen.

Nun zu meinem Problem. Ich möchte gerne eine USB HDD (Seagate) an die Windows VM durchreichen. Ich habe dazu die VM-Konfiguration um den entsprechende Parameter erweitert:
Code:
usb0: host=0bc2:2322,usb3=yes
Die HDD wird vom Windows Gastsystem erfolgreich erkannt und kann problemlos genutzt werden, allerdings führt dass Passthrough zu einer deutlich erhöhten CPU Last im Proxmox Webinterface, während der Gast eigentlich im Idle ist. Der VM sind 4 Kerne zugewiesen und durch das Passthrough steigt die ständige Idle Last von ca. 1,5% auf ca 8% - 10% an.

Hier die Konfiguration der VM:
Code:
bios: ovmf
boot: c
bootdisk: virtio0
cores: 4
cpu: host
cpuunits: 61440
efidisk0: local-lvm:vm-107-disk-2,size=128K
hostpci0: 01:00,pcie=1,x-vga=on
machine: q35
memory: 16384
name: Gaming
net0: virtio=36:90:79:6D:6E:8C,bridge=vmbr0
numa: 1
ostype: win8
scsihw: virtio-scsi-pci
smbios1: uuid=cbff4cb1-f442-49e6-99f4-017d4e7eba17
sockets: 1
startup: order=3
tablet: 0
virtio0: local-lvm:vm-107-disk-3,cache=writeback,size=32G
usb0: host=0bc2:2322,usb3=yes

Hat jemand eine Idee, was ich tun könnte, damit es nicht zur der stark erhöhten CPU Last kommt?
 
@asdfguy: Liegt das nicht in der Natur der Tatsache begründet, dass USB-Passthrough nicht per IOMMU beschleunigt wird und somit CPU-Leistung benötigt?
IOMMU ist mWn nur für PCI(e)-passthrough gedacht. Du könntest natürlich mal eine PCIE-Karte mit USB3-Controller besorgen und den gesamten USB-Controller durchreichen.

Ich habe aber auch mal eine Frage:
Aktuell habe ich eine 240GB SSD für VMs und Proxmox und eine 1TB HDD für Datencontainer, die an die VMs weitergereicht werden.

wie kann ich am besten/einfachsten eine Ausfallsicherheit herstellen, sowohl für die SSD als auch für die HDD?
Ich kann 6 Datenträger verbauen, spiele also mit dem Gedanken:
3* 240GB SSD mit ZFS Raid-Z1 (da hätte ich dann doch 480GB zur Verfügung, richtig?)
3* 1TB HDD mit...ja was? auch ZFS Raid-Z1?
 
Soo, ich nochmal:
Ich wollte mir jetzt bald eine zweite SSD holen, das reicht erstmal denke ich. Würde also gerne ZFS im Raid1 machen --> Wie erstelle ich das bei der Proxmox-Installation? Will kein Raid0, sondern Spiegelung. Kann man das da auswählen?
Die HDDs würde ich gerne auch in Raid1 oder gar 5 laufen lassen. Nehme ich da auch ZFS (wenn ja, wie erstelle ich das?) oder normales Linux-Software Raid?
 
ZFS ist gar nicht so Proxmox spezifisch. Da solltest du genug im Netz finden. Ich würde ZFS einem mdadm vorziehen.

RAID 5 nennt sich bei ZFS RAIDZ2. RAID 1 wird meist als Mirror bezeichnet. Da findet sich mehr, als man lesen kann ;)
 
Ja, aber bei proxmox kann man per webgui ja auch zfs einbinden, deshalb dachte ich, dass es irgendwie einfach geht
 
Just for the records:

Es gibt ein Update für den 4.4er-Kernel (pvetest und pve-no-subscription), mit dem ein ziemlich lästiger Bug des 4.4.35-1-pve-Kernel gefixt wurde: Der Out-out-Memory-Killer (OOM) löste ungewollt aus und hat VMs abgeschossen, obwohl noch ausreichend Speicher frei war. Besonders blöd, wenn die Firewall virtualisiert läuft und der OOM-Killer ausgerechnet diese VM killt = partielle Unerreichbarkeit...

Im Proxmox-Forum steht mehr dazu.
 
wenn ich Proxmox neuinstallieren möchte (wegen ZFS), wie könnte ich die VMs (liegen auf der OS-SSD) inkl Container (diese liegen auf einer separaten HDD, die erst später in einen Mirror-Verbund soll) am besten sichern? Die VMs auf die HDD verschieben und anschließend wieder zurück?
 
Ja, wenn die HDD als Storage im PVE mit eigebunden ist, klar. Oder halt per backup/restore.
 
Servus jungs eine Frage zwecks netzwerk!

Ich hab einen HP Micro Gen8 mit 2 Lan Anschlüssen!

Wo ich Proxmox Installiert habe hatte ich nur ein LAN Kabel angeschlossen .. jetzt möchte ich das LAN 1 eth0 nur für den Host sind "ip endung 2" und Lan2 eth1 für die VM´s die ihre IP selber bekommen !!

netzwerk.jpg

Wie muss ich da jetzt Vorgehen?

möglichst ohne das ich nen bildschirm anschließen muss :d

Lankabel gehen beide in den gleichen Switch!
 
Auf der console: ifconfig eth1 up
eth0 eine feste ip geben
Danach der Linux Bridge eth1 statt eth0 hinzufügen...wenn ich mich nicht irre :-)


Gesendet von iPhone mit Tapatalk Pro
 
Da solltest du eher eine zweite Bridge anlegen, die du dann den VMs zuweisen kannst. Oder willst du nur die Karte an eine einzige VM durchreichen? Falls Bridge:

PHP:
auto vmbr1
iface vmbr1 inet manual
	bridge_ports eth1
	bridge_stp off
	bridge_fd 0

Oder halt statt manual mit Adresse, damit der PVE routen kann. As you like.
 
möchte erst mal nur eine Schnittstelle für den Host haben damit der auch erreichbar ist wenn ein LAN kabel weg ist!!
 
Hallo,
ich bin Neueinsteiger in das Thema Proxmox und irgendwie hänge ich fest.
Ich habe mir aus vorhandenen und einigen neuen Teilen einen relativ netten Server zusammengeschreinert
und versuche nun Proxmox mit einem ZFS Pool zum laufen zu bringen.
Bin eigentlich schon recht weit gekommen (finde ich ;) ) aber jetzt hakts.

Ich habe 6 Platten im Server. 1x M2 SSD 256 GB / 1x 128 GB SSD SATA / 4x 4TB SATA
Außerdem hat die Kiste 32 GB ECC RAM und einen Xeon E3-1225v5 und läuft auf einem Fujitsu d3417-b
Board an dem auch alle Platten direkt hängen ohne irgendwelche Festplattencontroller.

Bei der ersten Installation habe ich Proxmox 4.4 einfach auf die M2 installieren lassen.
Danach habe ich einen ZFS pool erstellt mit den 4x4 TB und der SSD als Cache.

Ich denke das hat auch funktioniert:

root@pve:/# zpool status
pool: DATA
state: ONLINE
scan: none requested
config: NAME STATE READ WRITE CKSUM
DATA ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
sdb ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0
sde ONLINE 0 0 0

cache
sda ONLINE 0 0 0 errors: No known data errors

Außerdem habe ich eine virtuelle Maschine mit OMV 3.0 installiert,
das hat auch funktioniert, liegt ebenfalls auf der M2 SSD,
lässt sich starten und das webinterface ist erreichbar.

Was ich jetzt nicht weiß ist wie ich am besten den ZFS pool mit OMV nutzen kann.
Wie gebe ich den Zugriff auf diesen pool an OMV weiter damit ich dort die Freigaben etc verwalten kann ?
Habe Versucht den pool als Festplatte an OMV durchzureichen aber das hat irgendwie nicht funktioniert.

Bin auch nicht sicher was hier der beste Weg ist.
Ich möchte die Daten auf dem pool von Windows, Linux (VDR, Kodi,..) und Android (Tablets, FireTV,..) aus Nutzen können.
Bilder, Videos, diverse Dateien etc..

Dankeschön im Voraus für alle sachdienlichen Hinweise.
 
Zuletzt bearbeitet:
Wenn du eine KVM mit OMV erstellst kannst du Festplattenplatz aus dem zfs Pool der kvm zuweisen...da sich die Platten jetzt im Softwareraid befinden,kannst du sie nicht mehr einzeln durchreichen...einfach der kvm soviel zuteilen wie du benötigst.

Um die Freigaben in anderen Systemen zu nutzen,einfach nfs,smb freigaben erstellen und in den anderen Systemen (Kodi etc) mounten


Gesendet von iPhone mit Tapatalk Pro
 
Zuletzt bearbeitet:
Wenn du eine KVM mit OMV erstellst kannst du Festplattenplatz aus dem zfs Pool der kvm zuweisen...da sich die Platten jetzt im Softwareraid befinden,kannst du sie nicht mehr einzeln durchreichen...einfach der kvm soviel zuteilen wie du benötigst.

Soweit war mir das klar aber genau da hakts irgendwie.
Wie/wo weise ich der existierenden KVM diesen Festplattenplatz zu ?

Oder muss ich OMV neu installieren und das dann gleich auf dem Pool ?
 
OK, ich hab den pool jetzt mal mit diesen Einstellungen an OMV weitergegeben.
Funktioniert. War mir nicht sicher mit den ganzen Optionen wie "Virtio" oder "Cache"
was man hier nimmt wenn man darüber einen ZFS pool nutzen will.

Kopiere gerade mal Daten auf den Pool speed scheint zu passen für meinen billig Gbit switch.

Dankeschön!
 
...
Was ich jetzt nicht weiß ist wie ich am besten den ZFS pool mit OMV nutzen kann.
Wie gebe ich den Zugriff auf diesen pool an OMV weiter damit ich dort die Freigaben etc verwalten kann ?
Habe Versucht den pool als Festplatte an OMV durchzureichen aber das hat irgendwie nicht funktioniert.

Bin auch nicht sicher was hier der beste Weg ist.
Ich möchte die Daten auf dem pool von Windows, Linux (VDR, Kodi,..) und Android (Tablets, FireTV,..) aus Nutzen können.
Bilder, Videos, diverse Dateien etc..
....

Da gibt es mehrere Möglichkeiten:

1) Du legst auf dem Pool ZVOLs an, die Du dann als virtuelle Festplatten an OMV weitergibst. Innerhalb der OMV-VM kannst Du dann ein Filesystem auf den virtuellen Platten einrichten und dort die Shares erzeugen.
2) Du richtest auf dem Proxmox Host einen nfs- oder samba-Server ein und gibts direkt am Host die ZFS-Filesysteme als samba oder nfs Shares frei. In OMV kannst Du dann die nfs- oder samba-Shares mit dem Remote-mount-Plugin einbinden und die remote eingebundenen Shares dann in OMV wie lokale Freigaben weiternutzen.
3) Du installierst in der OMV-VM das ZFS-Plugin, exportierst den Pool am Host und reichst dann den kompletten AHCI-Controller des Mainboards per PCIe-Passthrough an die OMV-VM durch. Dort kannst Du den Pool dann wieder importieren. Die weitere Pool-Verwaltung geschieht dann innerhalb der OMV-VM. Das geht aber nur, wenn Deine M.2 SSD eine NVME-SSD mit PCIe-Anbindung ist (Glaube andere gehen auf dem Fujitsu-Board eh nicht). Der NVME-Controller ist vom SATA-Controller unabhängig und verbleibt beim Host, selbst wenn Du den AHCI-Controller an die VM durchreichst.
 
Was wäre Best-Practice?


Gesendet von iPhone mit Tapatalk Pro
 
"Best-Practice" ist in erster Linie mal inhaltsleerer Berater-Sprech. Welche Lösung am besten passt hängt einzig von den konkreten individuellen Umständen und ebenso Vorlieben ab. Natürlich hilft es, die Vor- und Nachteile der verschiedenen Möglichkeiten zu kennen...

Variante 1) hat @Oysterman ja schon umgesetzt und scheint damit zufrieden zu sein. Nachteile sind, dass man zwei Dateisysteme verschachtelt und schwer absehbar ist, wie die verschiedenen Caching-Mechanismen des nativen und virtualisierten Dateisystems miteinander agieren. Ebenso entsteht ein gewisser Virtualisierungsoverhead, welcher die Performance gegenüber Bare-Metal bremst. Ausserdem sind die ZVOLS in der Größe fix, do dass einem einer der grossen Vorteile von ZFS verlorengeht, nämlich dass jedem Dateisystem der komplette Pool-Speicherplatz zur Verfügung steht.

Variante 2) umgeht zumindest den letzten Nachteil, dafür hat man den Overhead des Netzwerk-Protokolls und muß seine Freigaben auf zwei verschiedenen Systemen verwalten. Verwaltung von Schreib-/Leserechten und Dateiattributen kann hier auch zum Problem werden.

Variante 3) kommt performance- und verwaltungsmäßig am nächsten an eine native Bare-Metal Installation ran. Dafür hat man jedoch ein höheres Risiko, daß beim PCIe-Passthrough was schief geht (z. B. durch Kernel-, Treiber-, BIOS-Bugs) und der AHCI-Controller in der VM pötzlich abschmiert. ZFS ist leider kein sehr robustes Dateisystem, was Hardware-Fehler anbelangt. So ein Pool ist dann fix korrupt und laßt sich nicht mehr wiederherstellen.
 
Danke oelsi.
Ich hab es jetzt mal so (1) eingerichtet und ein paar TB daten draufkopiert,
ob ich es so lasse werde ich mir noch überlegen.
Das mit dem weiterreichen des onboard SATA controllers hatte ich schon mal getestet (aber ich glaube das war mit ESXi)
danach wollte das hostsystem auch von der M2 SSD (ja genau NVME) nicht mehr booten.
War mir dann nicht sicher ob das gehen kann und habs nicht weiter probiert.

Sehr schön, viele neue Ideen. Danke ! :d

Noch eine Frage:
Wenn mir jetzt zB das mainboard abraucht und ich die Daten auf einem anderen PC wieder verfügbar machen will.
Hab ich dann mit Variante 1 mehr probleme oder ist das im Prinzip egal ?
 
Zuletzt bearbeitet:
...
Das mit dem weiterreichen des onboard SATA controllers hatte ich schon mal getestet (aber ich glaube das war mit ESXi)
danach wollte das hostsystem auch von der M2 SSD (ja genau NVME) nicht mehr booten.
War mir dann nicht sicher ob das gehen kann und habs nicht weiter probiert.

Habe das Fujitsu-Board selber und habe Variante 3) darauf schon mal getestet - ging problemlos. Mag aber sein, dass das unter ESXi anders aussieht.
Es gibt da übrigens auch noch die Variante 3b), wo man statt des ganzen AHCI-Controllers einfach die einzelnen Festplatten als Raw-Devices an die VM durchreicht (z.B. per virtio). Erfordert dann kein PCIe-Passthrough, und der virtio-Treiber ist stabil. Dafür hat man dann wieder einen gewissen Virtualisierungsoverhead und das Thema mit dem Caching. Allerdings lässt sich Schreib-/Lesecache bei virtio komplett deaktivieren, so dass das keine allzu grossen Probleme machen sollte.

...
Noch eine Frage:
Wenn mir jetzt zB das mainboard abraucht und ich die Daten auf einem anderen PC wieder verfügbar machen will.
Hab ich dann mit Variante 1 mehr probleme oder ist das im Prinzip egal ?

Ist im Prinzip egal. Solange nach dem "Abrauchen" der Pool noch intakt ist, kannst Du die ZVOLs einfach auf dem neuen Rechner ins Dateisystem mounten (sind ja ganz normale Blockdevices) und so wieder auf die Daten zugreifen.
 
Moin,

ich habe Probleme beim PCIE passthrough in 4.4.

Server ist ein T20 mit i350T4, DD CineS2 und nem IBM M1015 in IT-Mode.

Wunschszenario:
-Cine S2 an VM durchreichen (tvheadend)
-2 Adapter der i350 an eine VM (Nas4free -> muss nicht unbedingt, geht auch ne Bridge) und zusätzlich der HBA an die gleiche VM (Nas4free)

Aktuelle Situation:
-Cine S2 lässt sich durchreichen und funktioniert.
-weder I350 noch M1015 lässt sich durchreichen. Fehlermeldung erscheint keine. In Proxmox ist kurz einAnstieg der Speicherauslastung der VM zu erkennen, Status springt für einpaar Sekunden auf "running" und stoppt dann wieder.

Ich habe die Grub-Parameter durchprobiert und auch die Karten einzeln eingebaut, um zu schauen, ob der Fehler bei einem der Karten nicht auftritt. Kein Erfolg. Immer das gleiche, seltsame Kurzstarten der Nas4free VM.

lspci:
oot@proxmox:/etc/pve/qemu-server# lspci -k
00:00.0 Host bridge: Intel Corporation Xeon E3-1200 v3 Processor DRAM Controller (rev 06)
Subsystem: Dell Device 0620
Kernel driver in use: ie31200_edac
00:01.0 PCI bridge: Intel Corporation Xeon E3-1200 v3/4th Gen Core Processor PCI Express x16 Controller (rev 06)
Kernel driver in use: pcieport
00:02.0 VGA compatible controller: Intel Corporation Xeon E3-1200 v3 Processor Integrated Graphics Controller (rev 06)
Subsystem: Dell Device 0620
Kernel driver in use: i915
00:14.0 USB controller: Intel Corporation 8 Series/C220 Series Chipset Family USB xHCI (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: xhci_hcd
00:16.0 Communication controller: Intel Corporation 8 Series/C220 Series Chipset Family MEI Controller #1 (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: mei_me
00:16.3 Serial controller: Intel Corporation 8 Series/C220 Series Chipset Family KT Controller (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: serial
00:19.0 Ethernet controller: Intel Corporation Ethernet Connection I217-LM (rev 04)
Subsystem: Dell Device 05a6
Kernel driver in use: e1000e
00:1a.0 USB controller: Intel Corporation 8 Series/C220 Series Chipset Family USB EHCI #2 (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: ehci-pci
00:1c.0 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Express Root Port #1 (rev d4)
Kernel driver in use: pcieport
00:1c.1 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Express Root Port #2 (rev d4)
Kernel driver in use: pcieport
00:1c.2 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Express Root Port #3 (rev d4)
Kernel driver in use: pcieport
00:1c.4 PCI bridge: Intel Corporation 8 Series/C220 Series Chipset Family PCI Express Root Port #5 (rev d4)
Kernel driver in use: pcieport
00:1d.0 USB controller: Intel Corporation 8 Series/C220 Series Chipset Family USB EHCI #1 (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: ehci-pci
00:1f.0 ISA bridge: Intel Corporation C226 Series Chipset Family Server Advanced SKU LPC Controller (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: lpc_ich
00:1f.2 SATA controller: Intel Corporation 8 Series/C220 Series Chipset Family 6-port SATA Controller 1 [AHCI mode] (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: ahci
00:1f.3 SMBus: Intel Corporation 8 Series/C220 Series Chipset Family SMBus Controller (rev 04)
Subsystem: Dell Device 0620
Kernel driver in use: i801_smbus
01:00.0 Serial Attached SCSI controller: LSI Logic / Symbios Logic SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon] (rev 03)
Subsystem: LSI Logic / Symbios Logic Device 3020
03:00.0 PCI bridge: Texas Instruments XIO2001 PCI Express-to-PCI Bridge
05:00.0 Multimedia controller: Digital Devices GmbH Octopus DVB Adapter
Subsystem: Digital Devices GmbH Cine S2 V6 DVB adapter
Kernel driver in use: vfio-pci
06:00.0 Ethernet controller: Intel Corporation I350 Gigabit Network Connection (rev 01)
Subsystem: Intel Corporation Ethernet Server Adapter I350-T4
Kernel driver in use: igb
06:00.1 Ethernet controller: Intel Corporation I350 Gigabit Network Connection (rev 01)
Subsystem: Intel Corporation Ethernet Server Adapter I350-T4
Kernel driver in use: igb
06:00.2 Ethernet controller: Intel Corporation I350 Gigabit Network Connection (rev 01)
Subsystem: Intel Corporation Ethernet Server Adapter I350-T4
Kernel driver in use: igb
06:00.3 Ethernet controller: Intel Corporation I350 Gigabit Network Connection (rev 01)
Subsystem: Intel Corporation Ethernet Server Adapter I350-T4
Kernel driver in use: igb

M1015 ist blacklistet, da dieser exclusiv für Nas4free sein soll. Aber auch mit geladenem Treiber haut es nicht hin.

Kernel command line: BOOT_IMAGE=/boot/vmlinuz-4.4.35-2-pve root=/dev/mapper/pve-root ro quiet intel_iommu=on
[ 0.528857] iommu: Adding device 0000:00:00.0 to group 0
[ 0.528871] iommu: Adding device 0000:00:01.0 to group 1
[ 0.528877] iommu: Adding device 0000:00:02.0 to group 2
[ 0.528883] iommu: Adding device 0000:00:14.0 to group 3
[ 0.528893] iommu: Adding device 0000:00:16.0 to group 4
[ 0.528898] iommu: Adding device 0000:00:16.3 to group 4
[ 0.528904] iommu: Adding device 0000:00:19.0 to group 5
[ 0.528911] iommu: Adding device 0000:00:1a.0 to group 6
[ 0.528917] iommu: Adding device 0000:00:1c.0 to group 7
[ 0.528923] iommu: Adding device 0000:00:1c.1 to group 8
[ 0.528929] iommu: Adding device 0000:00:1c.2 to group 9
[ 0.528935] iommu: Adding device 0000:00:1c.4 to group 10
[ 0.528942] iommu: Adding device 0000:00:1d.0 to group 11
[ 0.528954] iommu: Adding device 0000:00:1f.0 to group 12
[ 0.528960] iommu: Adding device 0000:00:1f.2 to group 12
[ 0.528966] iommu: Adding device 0000:00:1f.3 to group 12
[ 0.528970] iommu: Adding device 0000:01:00.0 to group 1
[ 0.528976] iommu: Adding device 0000:03:00.0 to group 13
[ 0.528982] iommu: Adding device 0000:05:00.0 to group 14
[ 0.528989] iommu: Adding device 0000:06:00.0 to group 15
[ 0.528995] iommu: Adding device 0000:06:00.1 to group 16
[ 0.529001] iommu: Adding device 0000:06:00.2 to group 17
[ 0.529007] iommu: Adding device 0000:06:00.3 to group 18

agent: 0
boot: dcn
bootdisk: virtio0
cores: 2
cpu: host
hostpci0: 01:00.0,pcie=1
ide2: none,media=cdrom
keyboard: de
machine: q35
memory: 25600
name: Nas4Free-BSD
numa: 1
onboot: 1
ostype: other
smbios1: uuid=d36a9cd6-7729-494b-8447-e94af1193b85
sockets: 1
tablet: 0
vga: qxl
virtio0: local-lvm:vm-100-disk-1,cache=writethrough,size=12G

Der Netzwerkadapter ist hier auskommentiert. Aber auch dieser zeigt das gleiche Startverhalten der VM.

Ich weiss nicht mehr weiter.
Komischerweise ging es in Proxmox 3.4 wie beschrieben.

Vielleicht hat hier jemand einen Denkanstoß...
 
Zuletzt bearbeitet:
Liegt wahrscheinlich daran, dass du q35 als Machine-Type konfigurierst. Nimm' mal die Zeile aus der Config, und entferne das ",pcie=1" aus der hostpci0-Zeile
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh