[Sammelthread] Proxmox Stammtisch

Startet die VM denn ohne Passthrough-Geräte? Was sagen "dmesg" und syslog nach dem misslungenen Start?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ohne Passthrough-Geräte klappts.

Im syslog sieht es eigentlich soweit io aus.

Jan 19 16:39:04 proxmox qm[9954]: <root@pam> end task UPID:proxmox:000026E3:000A7468:5880DD92:qmstart:100:root@pam: OK
Jan 19 16:39:54 proxmox qm[10034]: <root@pam> starting task UPID:proxmox:00002733:000A8A58:5880DDCA:qmstart:100:root@pam:
Jan 19 16:39:54 proxmox qm[10035]: start VM 100: UPID:proxmox:00002733:000A8A58:5880DDCA:qmstart:100:root@pam:
Jan 19 16:39:54 proxmox systemd[1]: Starting 100.scope.
Jan 19 16:39:54 proxmox systemd[1]: Started 100.scope.
Jan 19 16:39:58 proxmox kernel: [ 6911.981489] vfio-pci 0000:01:00.0: enabling device (0400 -> 0403)
Jan 19 16:39:59 proxmox qm[10034]: <root@pam> end task UPID:proxmox:00002733:000A8A58:5880DDCA:qmstart:100:root@pam: OK
 
Was auch noch auffällt: "numa=1", probier' mal mit "numa=0". Eine Disk sehe ich auch nicht in der Config.
 
Was sagt "dmesg" nach dem misslungenen Start?

[ 7544.394946] vfio-pci 0000:01:00.0: enabling device (0400 -> 0403)

alternativ mit der Netzwerkkarte

[ 8519.892578] vfio-pci 0000:06:00.0: enabling device (0400 -> 0402)
 
Zuletzt bearbeitet:
Wird in der Zeit, in der die VM auf "running" springt, etwas auf der grafischen Konsole ausgegeben? Seabios-Screen?
 
...nein. da passiert nichts. Bleibt so, als ob die maschine aus ist ("starting vnc handshake" im oberen gelben Balken)
 
Sorry, mir gehen die Ideen aus. Ich würde nochmal die VM komplett aus der GUI heraus erzeugen, alles auf default lassen (ausser vielleicht virtio für die Disk) und als einzige manuelle Änderung die "hostpci0: 01:00.0" Line danach in die Config einfügen. Hast Du, abgesehen von "intel_iommu=on", noch andere Änderungen an der kernel command line vorgenommen?
 
...habe eben nochmal eine nackige Maschine erstellt und nur das device durchgereicht. Leider genauso erfolglos wie davor auch.
Im Kernel habe ich schon diverse Sachen durchprobiert. Jetzt ist wieder nur intel_iommu=on verändert.

Mhh...oelsi...keine Ahnung, was da los ist. Ich danke Dir jedenfalls sehr für die schnelle Unterstützung. Vielleicht kommt ja noch jemand mit ner anderen Idee um die Ecke...
 
KVM oder OpenVZ?
Ich würde mal die Logs des Hosts durchschauen ob da irgendwas zu sehen ist, klingt so als ob der Passthrough nicht richtig funktioniert.

Denke zwar den Artikel kennst du schon aber wer weiß ;) Proxmox Guest Boot Problems - Getting the Logs
 
ist KVM

logs habe ich mir angesehen. Zu sehen ist dort ichts auffälliges. Keine Fehler zum Startzeitpunkt. Vielleicht doch irgendwas verbastelt. Ich setz Proxmox morgen nochmal frisch auf und schaue, ob es was bringt. Wie gesagt: bei 3.4 hat es genau so noch funktioiert und die CineS2 wird auch unter 4.4 vernünftig durchgereicht. Komisch :confused:

Update:

nachdem ich nun Proxmox neu installiert und eine leere Maschine erstellt habe, hat sich leider immernoch nichts getan.
Maschine springt kurz auf running und geht dann wieder aus. Im Kernel ist nur intel_iommu=on hinzugefügt und die /etc/modules nach Beschreibung ergänzt.

-Wenn ich die CineS2 durchreiche funktioniert alles wunderbar.
-Einen Anschluss des Netzwerkadapters durchreichen: funktioniert nicht. startet kurz und geht sofort wieder aus.
-Kompletten Netzwerkadapter durchreichen: funktioniert nicht. startet kurz und geht sofort wieder aus.
-Sata-Controller durchreichen: funktioniert nicht. startet kurz und geht sofort wieder aus.

:motz:
 
Zuletzt bearbeitet:
Wie handhabt ihr den Storage unter Proxmox für ein virtualisiertes NAS bzw. ist die allgemeine Empfehlung?

Aktuell hab ich eine Xpenology-KVM mit durchgereichtem LSI 9211 (IT-Mode), an dem 3*6TB Disks (die dann im DSM als SHR gebündelt werden) hängen, am laufen. Da ich gerade von DSM 5.2 auf DSM 6 umsteige stellt sich die Frage aus dem Bedarf von ext4 auf btrfs zu wechseln.

Ich sehe dazu noch folgende Möglichkeit:
- ZFS-Pool unter Proxmox verwalten und den Pool vollständig an die KVM zuzuteilen, dort dann nochmals mit btrfs formatieren

Ich meine aber damit die Flexibiliät zu verlieren die Disks einfach durch grössere auszutauschen.

Wie seht ihr das bzw. wie macht ihr das?
 
Hi,
Ich habe einen zweiten Proxmox-Server aufgesetzt. Ich würde von meinem ersten Proxmox-Server gerne eine 1:1 Kopie machen, diesen formatieren und neu aufsetzen mit ZFS und die gesicherten VMs wieder zurückspielen. Wie mache ich das am geschicktesten?

oder wäre es möglich das auf einen anderen Linuxserver mittels NFS-Freigabe zu bewerkstelligen?
 
Zuletzt bearbeitet:
Jip, kannst auf NFS sichern. Musst nur im ersten Proxmox als Storage einbinden.
 
Bin ich aktuell am probieren. habe auf einem OMV3 Server NFS eingerichtet und die Client IP eingetragen und auf lesen/schreiben gesetzt. Jedoch meldet Proxmox immer, dass es Offline sei... kann es am User liegen? Kann bei Proxmox keinen User für NFS angeben..

/etc/export im OMV3 Server ist:

/export/PoolBackup 192.168.0.0/24(fsid=1,rw,subtree_check,secure,no_root_squash)

/export/Test 192.168.0.0/24(fsid=2,rw,subtree_check,secure,no_root_squash)

# NFSv4 - pseudo filesystem root

/export 192.168.0.0/24(ro,fsid=0,root_squash,no_subtree_check,hide)



Proxmox:

/etc/pve/storage.cfg content:

nfs: NFSTest1

server 192.168.0.108

export /export/PoolBackup/

path /mnt/pve/NFS

options vers=3

maxfiles 5

content vztmpl,images,rootdir,backup

wenn ich im Proxmox-Server den Share anziegen will, kommt:

showmount -e 192.168.0.108
clnt_create: RPC: Port mapper failure - Unable to receive: errno 111 (Connection refused)

nfs-kernel-server[6518]: Not starting: portmapper is not running ... (warning).


wo liegt das Problem?
 
Zuletzt bearbeitet:
Moin,
hatte bisher nicht viel mit Proxmox zu tun, und mich dank einem Kumpel mal ein wenig mit der Thematik beschäftigt.
Von der Arbeit her kenne ich nur ESX/ESXi, von daher war es meine erste Wahl für meinen Server. Nun bin ich am überlegen, da sowieso einige neue Sachen angeschafft werden müssen meinen Server auf Proxmox umzurüsten. Ob ich die VM's umziehe oder neuinstalliere bin ich mir noch nicht 100%ig sicher. Die Daten liegen momentan alle auf einer .vmdk, die über 8TB gezogen ist. Und da komm ich auch schon zur Frage. Habe keinen Raidcontroller oder ähnliches und würde die Platte gerne nativ in der Filervm haben. Wie stell ich das am besten an? Unter ESXi gäbe es ja noch das RDM, aber was gibt es da für Möglichkeiten unter Proxmox beziehungsweise wie würdet ihr das realisiren ?

Gru?
Moritz
 
Aus welchem Grund willst du die Platten denn nativ in der VM haben?
 
Aus welchem Grund willst du die Platten denn nativ in der VM haben?

Das ist die Frage, bringt das einen Vorteil? Wie würde man das in Proxmox denn machen, hab jetzt was gelesen, das hört sich so ähnlich wie ein Raw-Device-Mapping an. Die Platte braucht halt auch nur eine VM und sonst soll da niemand drauf zugreifen können.
 
Man kann eine hdd einzeln durchreichen. Smart funktioniert dann aber nicht mehr
 
Wie handhabt ihr den Storage unter Proxmox für ein virtualisiertes NAS bzw. ist die allgemeine Empfehlung?

Aktuell hab ich eine Xpenology-KVM mit durchgereichtem LSI 9211 (IT-Mode), an dem 3*6TB Disks (die dann im DSM als SHR gebündelt werden) hängen, am laufen. Da ich gerade von DSM 5.2 auf DSM 6 umsteige stellt sich die Frage aus dem Bedarf von ext4 auf btrfs zu wechseln.

Ich sehe dazu noch folgende Möglichkeit:
- ZFS-Pool unter Proxmox verwalten und den Pool vollständig an die KVM zuzuteilen, dort dann nochmals mit btrfs formatieren

Ich meine aber damit die Flexibiliät zu verlieren die Disks einfach durch grössere auszutauschen.

Wie seht ihr das bzw. wie macht ihr das?

Lasse FreeNAS mit einem durchgereichten LSI3008 laufen.
 
Also siehst du Durchreichen des Controllers weiterhin als ideale Lösung an?

Bin bisher auch gut gefahren damit, hatte damals aber diverse Hinweise gelesen, dass dies möglichst zu unterlassen sei (glaube speziell im Zusammenhang mit FreeNAS).:shot:
 
Ich habe per nfs undder backup funktion ein stopped backup gemacht. Kann ich das auf jedem server einspielen? Wie spiele ich das backup wieder ein?
 
Einfach dort auch den NFS Share anlegen, den kannst du dann im Menü durchsuchen, klickst dann auf die Backupdatei und dann auf Restore ;)

- - - Updated - - -

http://cyberpersons.com/2016/09/13/backup-transfer-proxmox-vm-another-proxmox-node/
 
Also siehst du Durchreichen des Controllers weiterhin als ideale Lösung an?

Bin bisher auch gut gefahren damit, hatte damals aber diverse Hinweise gelesen, dass dies möglichst zu unterlassen sei (glaube speziell im Zusammenhang mit FreeNAS).:shot:

Es gibt keine perfekte allgemeine Lösung. ;)

Ich wollte ein System bei dem ich mal schnell was administrieren kann. Da ich mir nur wenige Consolenbefehle merken möchte hilft mir das Webfrontend sehr. XPenology wäre mir lieber gewesen, aber ist mir der 6er Version (wg. BTRFS) zu nervig.

Anfänglich versuchte ich mit direkten pools unter Proxmox zu arbeiten und dann ein Samba LXC mit Mountpoint laufen zu lassen. Erwies sich für mich aber nicht als so schöne Variante. Es fehlt mir aber auch das Samba Know how.

Der Passthrou hat bei mir von Anfang an ohne Probleme funktioniert, so musste ich mich auch nicht nach einer anderen Lösung umsehen.
 
Einfach dort auch den NFS Share anlegen, den kannst du dann im Menü durchsuchen, klickst dann auf die Backupdatei und dann auf Restore ;)

- - - Updated - - -

How to backup and transfer a Proxmox VM to another Proxmox Node | Linux Tutorials and Guides

okay danke! Bei einer VM habe ich aber das Problem, dass der mir sagte, ich solle die 600GB vHDD auf "kein Backup" setzen. Das wäre ansich nicht tragisch, aber wenn ich das Backup wieder einspiele, wie kann ich verhindern, dass die Linux-VM meckert, dass da eine HDD fehlen würde?
 
Man kann eine hdd einzeln durchreichen. Smart funktioniert dann aber nicht mehr

was wäre denn am sinnvollsten? Proxmox ist ja mehr oder weniger ein Debian. Also könnte ich meine StorageHDDs theoretisch auch als ZFS unter Debian mounten und dann per Samba freigeben. Dann bräuchte ich keine extra VM für den Fileserver. Ist das so sinnvoll?

Gruß
Moritz
 
Du kannst das ZFS-Volume ganz einfach an einen LXC-Container durchreichen, so mache ich das. Dann hältst du das Hostsystem "sauber" und bist flexibler.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh