[Sammelthread] Proxmox Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen,

ich bräuchte mal Unterstützung für die Realisierung von pfsense unter Proxmox.

Ich habe zwei NIC's. Ich möchte pfsense nur also Firewall für Alls VM's nutzen. Leider komme ich nicht auf das Ergebnis.

Ich erstelle mir zwei Brücken: vmbr0 (für das Netzwerk vom Router) und die vmbr1 nutze ich als virtuelle Karte?
 
Zuletzt bearbeitet:
Jup, sollte so passen. Die anderen VMs hängst du dann auch alle in die vmbr1
 
na so funktioniert es leider nicht....kann dann noch nicht mal auf die gui von pfsense zugreifen ....
 
Die wird ja vermutlich auf dem Interface @ vmbr1 laufen ... und da hängt dein Client bestimmt nicht mit drin, oder?
 
ja habe es aber auch im selben Subnetz versucht. Kann aber z.b. auch mit einer anderen vm mit den neuen vmbr1 nicht ins netz verbinden. Route forward ist drin:

Code:
iface vmbr0 inet static
        address  192.168.1.2
        netmask  255.255.255.0
        gateway  192.168.1.1
        bridge_ports enp0s31f6
        bridge_stp off
        bridge_fd 0
        post-up echo 1 > /proc/sys/net/ipv6/conf/enp0s31f6/proxy_ndp
        post-up echo 1 > /proc/sys/net/ipv4/con/enp0s31f6/proxy_arp
        post-up echo 1 > /proc/sys/net/ipv4/ip_forward

        up ip route add /24 dev vmbr0

ist es möglich noch eine IP für die GUI in pfsense einbinden?
 
Nabend,

auf meinem Proxmox 5.1 habe ich ein ähnliches Setup wie morph027. Sprich unter/oberhalb ZFS sind die Platten mit LUKS verpackt.
Bei Boot, nach Grub müssen die Platten entsperrt werden. Unter Debian Jessie konnte ich das Entsperren via Dropbear und Busybox im initramfs realisieren. Nach Grub wird SSH gestartet und man kann Remote das System entsperren.

Bei Stretch scheint es so, dass sich die Einstellungen - das Handling sich geändert hat. Dropbear in der initramfs Config ist als "deprecated" deklariert.
Meine Einstellungen führen leider zu keinem Erfolg. Die Netzwerkkarte startet nicht, SSH startet nicht. Mit den Settings verschwindet auch das Bild ab und an nach Grub und man muss Blind die Eingabe durchführen.

Unter Debian Jessie habe ich diese Probleme nicht.

Settings sind Folgende:

Code:
/etc/dropbear-initramfs/authorized_keys -> SSH Key

/etc/default/grub
Code:
GRUB_CMDLINE_LINUX_DEFAULT -> IP=ip::gw-ip:netmask


Links zum Thema:
Remote unlocking of LUKS-encrypted root in Ubuntu/Debian | Hamys Internet Thingy Blog
Installing encrypted root on debian stretch
Remotely unlock LUKS via SSH - Ville Korhonen

Hat jemand von euch eine ähnliche Konstelation und funktionierend? Könnte das mit dem Proxmox Kernel zusammenhängen?
 
Hallo,

ich weiß nicht ob Ihr mir dort weiterhelfen könnt, ich habe mit auf meine Dell T20 mit Xeon 1225 V3 CPU Proxmox 5.1 installiert und möchte dort die Karte IBM M1015 durchreichen. Ich habe in der grub.conf die Command Line wie folgt abgeändert: "GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=igfx_off intel_iommu=on" und ein update-grub ausgeführt und den Host neu gestartet. Die VM die die Karte erhalten soll, startet aber nicht. Proxmox selber zeigt "OK" wenn die VM gestartet wird, aber es passiert nichts. Im Syslog konnte ich jetzt auch nichts auffälliges finde. Ein "dmesg | grep -e DMAR -e IOMMU" bringt folgendes

[ 0.000000] ACPI: DMAR 0x00000000C8FFE138 0000B8 (v01 INTEL HSW 00000001 INTL 00000001)
[ 0.000000] DMAR: Disable GFX device mapping
[ 0.000000] DMAR: IOMMU enabled
[ 0.022701] DMAR: Host address width 39
[ 0.022702] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[ 0.022708] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap c0000020660462 ecap f0101a
[ 0.022708] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[ 0.022711] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008020660462 ecap f010da
[ 0.022711] DMAR: RMRR base: 0x000000cbf7b000 end: 0x000000cbf88fff
[ 0.022712] DMAR: RMRR base: 0x000000cd000000 end: 0x000000cf1fffff
[ 0.022714] DMAR-IR: IOAPIC id 8 under DRHD base 0xfed91000 IOMMU 1
[ 0.022714] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[ 0.022715] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[ 0.022889] DMAR: DRHD: handling fault status reg 2
[ 0.022893] DMAR: [DMA Read] Request device [00:1f.2] fault addr cbf41000 [fault reason 06] PTE Read access is not set
[ 0.022963] DMAR-IR: Enabled IRQ remapping in x2apic mode
[ 0.585789] DMAR: No ATSR found
[ 0.586044] DMAR: dmar1: Using Queued invalidation
[ 0.586051] DMAR: Setting RMRR:
[ 0.586075] DMAR: Setting identity map for device 0000:00:14.0 [0xcbf7b000 - 0xcbf88fff]
[ 0.586102] DMAR: Setting identity map for device 0000:00:1a.0 [0xcbf7b000 - 0xcbf88fff]
[ 0.586129] DMAR: Setting identity map for device 0000:00:1d.0 [0xcbf7b000 - 0xcbf88fff]
[ 0.586140] DMAR: Prepare 0-16MiB unity mapping for LPC
[ 0.586156] DMAR: Setting identity map for device 0000:00:1f.0 [0x0 - 0xffffff]
[ 0.586236] DMAR: Intel(R) Virtualization Technology for Directed I/O

Danke.

Habe gerade mal versucht, das Problem nachzustellen:

  • Eigenbau auf Fujitsu D3417-B, E3-1225 v5, 32GB ECC
  • Dell Perc H200 (ebenfalls LSI2008 Chipsatz)
  • aktuelles Proxmox 5.1-36
  • Kernel 4.13.4-1-pve
  • Configs:

VM.conf
Code:
bootdisk: scsi0
cores: 1
cpu: host
hostpci0: 03:00.0
ide2: local:iso/debian-9.2.1-amd64-netinst.iso,media=cdrom
machine: q35
memory: 1024
name: hbatest
net0: virtio=76:29:D8:97:27:E5,bridge=vmbr10
numa: 0
ostype: l26
scsi0: local-zfs:vm-109-disk-1,size=4G
scsihw: virtio-scsi-pci
smbios1: uuid=9162409e-773b-4480-944d-042fab558006
sockets: 1
lspci:
Code:
00:00.0 Host bridge: Intel Corporation Skylake Host Bridge/DRAM Registers (rev 07)
00:01.0 PCI bridge: Intel Corporation Skylake PCIe Controller (x16) (rev 07)
00:02.0 VGA compatible controller: Intel Corporation HD Graphics P530 (rev 06)
00:14.0 USB controller: Intel Corporation Sunrise Point-H USB 3.0 xHCI Controller (rev 31)
00:14.2 Signal processing controller: Intel Corporation Sunrise Point-H Thermal subsystem (rev 31)
00:16.0 Communication controller: Intel Corporation Sunrise Point-H CSME HECI #1 (rev 31)
00:16.3 Serial controller: Intel Corporation Sunrise Point-H KT Redirection (rev 31)
00:17.0 SATA controller: Intel Corporation Sunrise Point-H SATA controller [AHCI mode] (rev 31)
00:1b.0 PCI bridge: Intel Corporation Sunrise Point-H PCI Root Port #20 (rev f1)
00:1c.0 PCI bridge: Intel Corporation Sunrise Point-H PCI Express Root Port #5 (rev f1)
00:1d.0 PCI bridge: Intel Corporation Sunrise Point-H PCI Express Root Port #9 (rev f1)
00:1f.0 ISA bridge: Intel Corporation Sunrise Point-H LPC Controller (rev 31)
00:1f.2 Memory controller: Intel Corporation Sunrise Point-H PMC (rev 31)
00:1f.3 Audio device: Intel Corporation Sunrise Point-H HD Audio (rev 31)
00:1f.4 SMBus: Intel Corporation Sunrise Point-H SMBus (rev 31)
00:1f.6 Ethernet controller: Intel Corporation Ethernet Connection (2) I219-LM (rev 31)
01:00.0 Ethernet controller: Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01)
02:00.0 SATA controller: ASMedia Technology Inc. ASM1062 Serial ATA Controller (rev 01)
03:00.0 Serial Attached SCSI controller: LSI Logic / Symbios Logic SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon] (rev 03)
04:00.0 Non-Volatile memory controller: Intel Corporation Device f1a5 (rev 03)

Ergebnis: Keine Probleme, die VM startet ohne Fehlermeldung, der HBA erscheint samt Platte im der VM.
Scheint also entweder ein Problem speziell des M1015 zu sein. Oder, was ich für wahrscheinlicher halte, des Dell T20.

EDIT:

Konnte das Problem jetzt mit einem ServeRaid H1110, geflasht auf 9211-4i IT Firmware, in o. g. Rechner nachstellen. Starten der VM erzeugt einen DMAR-Fehler. Durchreichen der selben Karte auf einem älteren LGA1155 Proxmox-Host selben Versionstands funktioniert hingegen. Der Bug hängt also scheinbar von der Kombination aus Karte und Mainboard ab. Der DMAR-Fehler könnte darauf hindeuten, dass ein Zusammenhang mit dem der Karte vom Mainboard-BIOS zugewiesenen Speicherbereichen besteht.

Und noch eine Beobachtung: Obwohl mein Dell H200 ebenfalls den SAS2008 Chipsatz besitzt, unterscheidet er sich in den PCI-Capabilites vom ServeRaid H1110. Während der H1110 SR-IOV-Fähigkeit ausweist und während des Hochfahrens auch für 16 VFs Speicher reserviert wird, weist der H200 diese Fähigkeit nicht aus.
 
Zuletzt bearbeitet:
ZFS und Trim

Hallo zusammen,

das Proxmox kein Trim macht, ist ja bekannt.

Nun lese gerade im offiz. Proxmox-Forum dies hier:

EVO SSDs als Systemdisk, ZFS im Raid1: Nach einem halben Jahr 92% verbraucht
Test-Laptop mit EVO: Nach einem Monat zu 15% verbraucht.
( Q: https://forum.proxmox.com/threads/zfs-trim-und-geschwindigkeit.38485/ )


Habt Ihr Erfahrungen?

Mein Server hat 2 HDDs im Raid1, da liegen ISOs und Proxmox selbst drauf.
Dann ein Raid0 SSD Pool, wo die VMs drauf sollen.

Somit müsste die Schreiblast (logs etc) auf dem HDD-Pool stattfinden

Ich kann leider noch keine Angaben machen, da der Server erst wenige Stunden gelaufen ist...
 
Du musst schon genau lesen, was in dem Artikel steht: Im ersten Beispiel waren nach einem halben Jahr nicht 92%, sondern nur 8% "verbraucht", und das bei "täglich 100erte Gigabytes an Daten". Nachdem beide Beispiele keine Angaben machen, welcher Workload die SSDs ausgesetzt waren, kein Mensch weiss, was "verbraucht" in dem Zusammenhang bedeutet, und auch nicht erkennbar ist, ob der "hohe" "Verbrauch" auf das Fehlen von Trim zurückzuführen ist, sind die Beispiele völlig nichtssagend.

Ansonsten gilt: Write amplification sind SSDs auch mit Trim ausgesetzt - Trim schützt nur vor zusätzlicher Write Amplification, die im Rahmen einer Garbage Collection durch das unnötige Verschieben, und die damit verbundenen unnötigen Schreibvorgänge, von Pages auf FS-Ebene gelöschter Daten entsteht. Ob das für Dich ein Problem darstellt, hängt also im Wesentlichen davon ab, welche Menge an Daten Deine Workload löscht, ohne deren Pages vor Einsetzten der GC wieder neu zu beschreiben, und natürlich nach welchem Zeitplan Deine SSD die GC durchführt. Von Erfahrungen anderer Leute wirst Du also kaum profitieren können.

Praktischerweise ist es jedoch so, dass die früher mal vorherrschende Panik hinsichtlich totgeschriebener SSD unbegründet ist. Bleibt also nur noch der eventuelle Performance-Impact, den die unnötigen Kopiervorgänge nicht-getrimmter Pages verursachen können. Den bekommst Du jedoch recht einfach durch den Einsatz von mehr Geld bei Anschaffung der SSDs in den Griff :heuldoch:
 
Nachdem sich in den letzten Tagen 2 Harddisks aus meinem Proxmox-System teilweise verabschiedet haben, bin ich auch am überlegen wie ich das System hardwareseitig in der Zukunft strukturiere. Was wäre denn derzeit die bessere Wahl - ein ZFS-Mirror mit Enterprise-SSDs, oder ein ZFS-Mirror bestehend aus 7200 RPM HDDs gepaart mit einem sehr schnellen Cache-Speicher (z.B. NVMe über PCIe oder ähnliches)? Habt ihr für den letzteren Fall gute Hardware-Empfehlungen? Prinzipiell würde in meinem Fall für das lokale System schon ein sehr schneller Speicher im Größenrahmen von 16-32GB völlig ausreichen. Ich bin lediglich unsicher, ob es da grosse preisliche Unterschiede zwischen den beiden Möglichkeiten gibt, bei Variante 2 sehe ich zumindest die größere Flexibilität sowie den größeren Speicherplatz.
 
Ich persönlich würde da eher ein Mirror aus zwei Enterprise SSDs nehmen. Ne Intel S3500 bekommt man bei eBay teils recht günstig. Neu sind diese natürlich recht teuer. Aber wenn man bedenkt, dass die größeren teils fast 2 PB an Schreibkapazität haben...

Zudem ist ein einfacherer Mirror auch einfacherer zu handeln. Weniger Konfigurationsaufwand und, fall es relevant ist, auch weniger Stromverbrauch. Wenn natürlich auch nur marginal.
 
Hallo Leute,

ich habe mal eine Frage zur Konfiguration meines Servers.
Vielleicht könnt Ihr mir eine Empfehlung geben.

Meine Hardware sieht folgender Maßen aus:
- Intel Pentium G4560 2x 3.50GHz
- Asus P10S-I Intel C232 So.1151
- 8GB (1x 8192MB) Kingston ValueRAM DDR4-2133 ECC DIMM CL15 Single
- 1x SSD 240 GB
- 4x HDD WD RED 3 TB

Ich würde gerne mit Proxmox 4 VM's erstellen:
- Seafile Server
- PiHole
- Download Server
- Fileserver

Ich hätte gerne Software Raid verwendet, also bleibt nur RAIDZ-1 übrig.
Das ganze soll "Stromsparend" sein.

Hierzu meine Fragen:

- Wenn auf dem Fileserver kein Zugriff ist, geht dann der Raidpool in Spindown bzw. Ruhezustand?
- Soll ich die VM's auf den Raidpool installieren oder auf die SSD?
 
Hallo,

bei vier Festplatten hat du aber noch die Möglichkeit von Raid10 (Stripe-Mirror) und RaidZ2 (aka Raid6) zu betreiben. Ob du das möchtest, ist allerdings was anderes. ;-)

Ich persönlich würde die VMs etc immer auf ner SSD installieren. Es ist einfach wesentlich performanter. Willst du wirklich KVM VMs nutzen? LXC Container wären wesentlich ressourcensparender weil wesentlich weniger Overhead.

Wie hast du dir denn gedacht deine Festplatten deinem Dateiserver zur Verfügung zu stellen? Wenn du den Raid Controller / HBA an eine VM durchreichen kannst, wird diese sicherlich auch ein Spindown etc durchführen können. Anderweitig war es bis zur Version 5 von Proxmox nicht möglich Platten schlafen zu legen. Man hat sich da auf Seiten der Entwicklung dagegen entschieden (Gegenteiliges bitte nennen!)
 
Hallo teqqy,

das mit dem Raid muss ich mir wohl nochmal überlegen ;-)

Hast natürlich recht ich sollte LXC Container verwenden. Wenn ich diese auf der SSD laufen lasse und mir die dann ausfällt habe ich allerdings ein Problem.
Gibt es ne Möglichkeit regelmäßig auf das Raid ein Backup zu fahren?

Es macht wahrscheinlich sind den Raidcontroller durchzureichen. Allerdings habe ich keine Ahnung wie das geht. Hast du ein Tutorial für mich?
 
Ich würde eher die SSD rauswerfen und Proxmox am z1 mitlaufen lassen. Die Performance ist dafür bei 4 Platten ausreichend, insbesondere bei derart geringen Anforderungen.

Du kannst dafür aber auch die SSD nutzen und die VM´s am z1 sichern, Proxmox bringt dazu alles notwendige mit (unter Datacenter - Backups).
 
Bzgl. der Performace hast du Recht allerdings gehen dann die Platten nie in den Spindown und fressen stätig Strom. oder sehe ich das falsch?
 
Ja, ich verzichte halt auf ~20 Euro im Jahr und habe dafür wenige Spindown/up Zyklen und sämtliche Daten/OS am z1.
 
Hallo teqqy,

das mit dem Raid muss ich mir wohl nochmal überlegen ;-)

Hast natürlich recht ich sollte LXC Container verwenden. Wenn ich diese auf der SSD laufen lasse und mir die dann ausfällt habe ich allerdings ein Problem.
Gibt es ne Möglichkeit regelmäßig auf das Raid ein Backup zu fahren?

Es macht wahrscheinlich sind den Raidcontroller durchzureichen. Allerdings habe ich keine Ahnung wie das geht. Hast du ein Tutorial für mich?

Ich würde kein Backup auf Platten im gleichen System machen, sondern lieber eine externe Festplatte.

Zum durchreichen habe ich derzeit kein Tutorial in der Hand. Ist aber eine gute Idee für mein YT Kanal. Danke schon mal dafür.
 
Ich würde kein Backup auf Platten im gleichen System machen, sondern lieber eine externe Festplatte.

beides kann sinnvoll sein. ein lokales "backup/timepoint" und natürlich dann eine 2. Sicherung delokal ... aka täglich/stündlich lokal und wöchentlich/täglich dezentral

restore points würde ich auch FÜR DAHEIM nicht auf extern setzen :)
 
Zuletzt bearbeitet:
Wäre alles Möglich da da ich genug Platten und noch ein Synology NAS rumstehen habe.
Problem ist aber eher die Doku... scheinbar bin ich zu doof was vernünftiges zu finden.

Das muss ja alles per Konsole erstellt werden oder?
 
Guten Morgen,

habe mich seit dieser Woche das erste mal mit Proxmox beschäftigt.
Stoße jetzt vor ein Problem:

Habe ein VM für pfSense erstellt. Läuft soweit, nur mit dem durch reichen der LAN Ports komm ich nicht weiter.
Mein Server hat ein LAN Port onboard und eine Quad LAN PCIe Karte.

Die Onboard soll fürs WAN/Internet genutzt werden.
Und die Quad als Switch dienen.

Jetzt habe ich zuerst versucht die onboard + 4 LAN Ports durch zureichen über die conf Datei:
das hab ich hinzugefügt.
Code:
machine: q35
hostpci0: 00:1f.6,pcie=1  #onboard
hostpci1: 01:00.0,pcie=1  #Quad 1
hostpci2: 01:00.1,pcie=1  #Quad 2
hostpci3: 01:00.2,pcie=1  #Quad 3

net0: e1000=xx.xx.xx.xx.xx.xx,bridge=vmbr0  #Quad 4, soll auch für proxmox erreichbar sein

Mein Ziel:

onboard für WAN
die 4 Quad als Switch für mein Netztwerk und über die 4 Port wollte ich Proxmox und pfsense erreichbar machen.

Onboard und die 3 LAN Ports werden durch gereicht. Und der 4 Port ist dann tot, steck ich ein Kabel ein leuchte oder blink die LED am Anschluss nicht, wird auch keine IP vergeben.

Hat jemand für mich eine idee?


Edit: Lösung gefunden. Habe alle nic als Bridge bei Promox angelegt und diese dann mit net0, net1,... hinzugefügt
 
Zuletzt bearbeitet:
Hallo,

gestern war es soweit und ich habe endlich Proxmox auf meinem Media Storage installiert. Ging auch alles ganz einfach.
Mein Problem ist nur leider, dass ich weder das Proxmox Webinterface noch das von napp-it aufrufen kann. Kommt immer "connection refused", auch wenn ich es vom Proxmox-Host selbst via Google Chrome aufrufen will.

Am Ende soll es Workstation mit KDE sein, letzteres habe ich bereits installiert und auch einen User eingerichtet. Läuft auch alles soweit!

Hat jemand eine Idee?


Edit: Problem gelöst, es lag an der Installations-Disc. Habe es eben mit der neuen ISO vom 21.12. probiert und nun klappt es bestens! ;)
 
Zuletzt bearbeitet:
hab seit paar Tagen Proxmox laufen.
Eine VM für pfsense
eine VM für openmediavault
und eine VM für Windows 10

Ich würde gerne eine VM für Ubuntu erstellen und dabei den onboard DP dafür verwenden, ist dies möglich?

Für Windows 10 habe ich die PCIe Grafikkarte durch gereicht.

Mainboard D3401-B2 zwei DP und ein DVI Anschluss.
 
Hallo,

ich will demnächt nen neuen Server aufbauen und wollte Proxmox einsetzen. Ich habe bis jetzt nur eine Testinstallation gemacht und ein bischen quergelesen.

Meine angedachte HW:

19" Gehäuse
ASUS P10S-V/4L
16GB Ram ECC
1x Samsung Evo 960 M2 via PCIE Adapter
6x 4 TB SATA HDD (teilbefüllt; NTFS)

zukünftig VMS:

1. OMV
2. PFsense
3. SQLServer (Linux) (für Kodi)
4. Unifi Controller
5. Testsystem
6. evtl. Owncloud (klein)

Dazu hätte ich ein paar Fragen:

1. Ist es ok das Hostsystem und den VM-Pool auf die M2 zu packen? (Bestpractice?)
2. Bei der Installation wird man nach dem Dateisystem gefragt. Ext4 oder ZFS. Bringt mir ZFS hier einen Vorteil?
3. die 6Hdds möchte ich an OMV weiterreichen. Angedacht war es die Platten weiterhin mit NTFS zu betreiben (ohne Raid). (Die 6 HDDs liegen als Backup nochmal im Schrank. Die M2 würde ich Sichern.)
4. Ohne ZFS, brauche ich dann unbedingt ECC Speicher?



Gruß
Marcus
 
hab seit paar Tagen Proxmox laufen.
Eine VM für pfsense
eine VM für openmediavault
und eine VM für Windows 10

Ich würde gerne eine VM für Ubuntu erstellen und dabei den onboard DP dafür verwenden, ist dies möglich?

Für Windows 10 habe ich die PCIe Grafikkarte durch gereicht.

Mainboard D3401-B2 zwei DP und ein DVI Anschluss.

Hey,

wenn du mit DP den Displayport deines Mainboards meinst, dann ein klares "Jein".

Ich gehe mal davon aus, dass du mit VM KVM meinst, also virtuelle Maschinen, keine Container (LXC).

Du kannst nur USB-Geräte mit eigenständigen IDs und PCI(/e) Geräte an eine VM weiterreichen, so wie du es bereits bei der Windows 10 Maschine gemacht hast.

Davon ausgehend könntest du also maximal die komplette Grafikkarte des Mainboards an die VM weiterreichen, keine separaten Anschlüsse. Da das genannte Mainboard allerdings kein IPMI aufweist bzw. keine andere Grafikkarte für die Ausgabe hat, müsstest du dann die Ausgabe von Proxmox auf serielle Konsole umstellen. Mit LXC würden mir noch andere Varianten einfallen, aber bleiben wir mal vorerst bei den VMs.

Was hast du mit der VM für Ubuntu vor ?

Anbei 3 Varianten zur Umsetzung:

1. Passthrough der gleichen Grafikkarte, die bereits der Windows-Maschine zugewiesen wurde (hat den Nachteil, dass nur eine Maschine gleichzeitig laufen kann)
2. Verwenden von SPICE als virtuelle Grafikkarte und Nutzen des SPICE-Viewer als Konsole an Stelle von VNC (SPICE ist im Netzwerk wesentlich performanter als VNC, kann auch USB-Geräte und Sound übertragen. Nachteil: Videos lassen sich nicht ruckelfrei abspielen, da kommt es dann doch an seine Grenzen)
3. Einbau einer weiteren Grafikkarte (PCI/e bzw. USB)
 
Hey,

wenn du mit DP den Displayport deines Mainboards meinst, dann ein klares "Jein".

Ich gehe mal davon aus, dass du mit VM KVM meinst, also virtuelle Maschinen, keine Container (LXC).

Du kannst nur USB-Geräte mit eigenständigen IDs und PCI(/e) Geräte an eine VM weiterreichen, so wie du es bereits bei der Windows 10 Maschine gemacht hast.

Davon ausgehend könntest du also maximal die komplette Grafikkarte des Mainboards an die VM weiterreichen, keine separaten Anschlüsse. Da das genannte Mainboard allerdings kein IPMI aufweist bzw. keine andere Grafikkarte für die Ausgabe hat, müsstest du dann die Ausgabe von Proxmox auf serielle Konsole umstellen. Mit LXC würden mir noch andere Varianten einfallen, aber bleiben wir mal vorerst bei den VMs.

Was hast du mit der VM für Ubuntu vor ?

Anbei 3 Varianten zur Umsetzung:

1. Passthrough der gleichen Grafikkarte, die bereits der Windows-Maschine zugewiesen wurde (hat den Nachteil, dass nur eine Maschine gleichzeitig laufen kann)
2. Verwenden von SPICE als virtuelle Grafikkarte und Nutzen des SPICE-Viewer als Konsole an Stelle von VNC (SPICE ist im Netzwerk wesentlich performanter als VNC, kann auch USB-Geräte und Sound übertragen. Nachteil: Videos lassen sich nicht ruckelfrei abspielen, da kommt es dann doch an seine Grenzen)
3. Einbau einer weiteren Grafikkarte (PCI/e bzw. USB)
Will Ubuntu nur zum surfen und zum arbeiten nutzen. Briefe schreiben und so.
Und zum üben von Linux Systeme


Gesendet von meinem SM-N950F mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh