Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Welche Vergleichsmöglichkeiten hast du denn? LXC-Container, qemu, KVM etc. kann man auch ohne Proxmox z. B. mit libvirt komfortabel nutzen.Weil Proxmox mMn im Bereich von Virtualisierung unschlagbar ist.
Ja, RAID1, aber lief auch unter Proxmox schon so. Von den Größen meiner Festplatten und SSDs her ist keine andere Konfiguration sinnvoll und "ressourcenverschwendend" ist relativ. Unter RAID6 würde ich bei einem Mehrplattensetup nicht mehr gehen wollen, insofern wäre da ein denkbares RAID10 bei vier Platten (mehr Platz ist nicht im Gehäuse meines MX130 S2) gleichauf.Dann Raid0 oder 1? Ist das nicht etwas ressourcenverschwendend?
Welche Vergleichsmöglichkeiten hast du denn? LXC-Container, qemu, KVM etc. kann man auch ohne Proxmox z. B. mit libvirt komfortabel nutzen.
Das stimmt natürlich, da hatte ich irgendwie einen Denkfehler.Wobei dir bei einem Raid10 nur eine beliebige HDD ausfallen darf und somit dem Redundanzlevel Raid1 (Mirror) oder Raid5 (Raidz1) entspricht - und keinesfalls mit Raid6 (Raidz2) vergleichbar ist
Hat / hätte es mich auch nicht. Aber die Aussage, dass Proxmox in Virtualisierung unschlagbar ist, passt irgendwie nicht so richtig - denn Proxmox ist ja nicht für die Virtualisierung verantwortlich. Hättest du jetzt geschrieben, dass du LXC-Container, qemu, KVM usw. im Bereich Virtualisierung unschlagbar findest, wäre das was anderes gewesen Ich habe damit bisher auch die besten Erfahrungen gemacht. Seitdem ich libvirt kenne, weiß ich aber, dass es für meine Zwecke auch simpler und komfortabler als mit der Proxmox-GUI gehtESXI, Hyper V und Virtualbox. Hat mich alles nicht überzeugt.
Hast du dir mal die Preise angesehen? Für meine zwei 3,5" 4TB-Platten habe ich 170 Euro neu bezaht - dafür hätte ich gerade mal eine 4TB 2,5"-Platte bekommen.Warum verbaust du nicht 2.5" Festplatten in das MX130 S2?
kvm: -drive file=/dev/zvol/rpool/data/vm-250-disk-1,if=none,id=drive-scsi0,discard=on,format=raw,cache=none,aio=native,detect-zeroes=unmap: Could not open '/dev/zvol/rpool/data/vm-250-disk-1': No such file or directory
sudo zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 232G 74.8G 157G - 38% 32% 1.00x ONLINE -
tank 2.72T 1.20T 1.52T - 17% 44% 1.00x ONLINE -
Oct 27 12:31:31 pve systemd[1]: dev-zvol-rpool-swap.device: Job dev-zvol-rpool-swap.device/start timed out.
Oct 27 12:31:31 pve systemd[1]: Timed out waiting for device dev-zvol-rpool-swap.device.
Oct 27 12:31:31 pve systemd[1]: Dependency failed for /dev/zvol/rpool/swap.
Oct 27 12:31:31 pve systemd[1]: dev-zvol-rpool-swap.swap: Job dev-zvol-rpool-swap.swap/start failed with result 'dependency'.
Oct 27 12:31:31 pve systemd[1]: dev-zvol-rpool-swap.device: Job dev-zvol-rpool-swap.device/start failed with result 'timeout'.
So, nach etlichen probieren benötige ich nochmals etwas Hilfe /Unterstützung.
Proxmox läuft und zfs ist für den Datenpool eingerichtet.
Wie ist das beste Vorgehen für das Bereitstellen von Daten/Datenpool für ALLE VM's. Auf den Datenpool sollen Bilder, Filme usw. abgespeichert werden bzw Bereitgestellt werden.
Wenn ich das ZFS an eine VM als Proxmox -Storage durchreiche schreibt er ja eine Imagedatei darauf. Sollte eine Festplatte abschmieren , stellt das dann ein Problem für diese Image Datei dar?
Also die Grundsatzfrage: Wie kann ich mein Datenstorage an alle VM's Bereitstellen?
Hallo,
ich weiß nicht ob Ihr mir dort weiterhelfen könnt, ich habe mit auf meine Dell T20 mit Xeon 1225 V3 CPU Proxmox 5.1 installiert und möchte dort die Karte IBM M1015 durchreichen. Ich habe in der grub.conf die Command Line wie folgt abgeändert: "GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=igfx_off intel_iommu=on" und ein update-grub ausgeführt und den Host neu gestartet. Die VM die die Karte erhalten soll, startet aber nicht. Proxmox selber zeigt "OK" wenn die VM gestartet wird, aber es passiert nichts. Im Syslog konnte ich jetzt auch nichts auffälliges finde. Ein "dmesg | grep -e DMAR -e IOMMU" bringt folgendes
[ 0.000000] ACPI: DMAR 0x00000000C8FFE138 0000B8 (v01 INTEL HSW 00000001 INTL 00000001)
[ 0.000000] DMAR: Disable GFX device mapping
[ 0.000000] DMAR: IOMMU enabled
[ 0.022701] DMAR: Host address width 39
[ 0.022702] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[ 0.022708] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap c0000020660462 ecap f0101a
[ 0.022708] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[ 0.022711] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008020660462 ecap f010da
[ 0.022711] DMAR: RMRR base: 0x000000cbf7b000 end: 0x000000cbf88fff
[ 0.022712] DMAR: RMRR base: 0x000000cd000000 end: 0x000000cf1fffff
[ 0.022714] DMAR-IR: IOAPIC id 8 under DRHD base 0xfed91000 IOMMU 1
[ 0.022714] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[ 0.022715] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[ 0.022889] DMAR: DRHD: handling fault status reg 2
[ 0.022893] DMAR: [DMA Read] Request device [00:1f.2] fault addr cbf41000 [fault reason 06] PTE Read access is not set
[ 0.022963] DMAR-IR: Enabled IRQ remapping in x2apic mode
[ 0.585789] DMAR: No ATSR found
[ 0.586044] DMAR: dmar1: Using Queued invalidation
[ 0.586051] DMAR: Setting RMRR:
[ 0.586075] DMAR: Setting identity map for device 0000:00:14.0 [0xcbf7b000 - 0xcbf88fff]
[ 0.586102] DMAR: Setting identity map for device 0000:00:1a.0 [0xcbf7b000 - 0xcbf88fff]
[ 0.586129] DMAR: Setting identity map for device 0000:00:1d.0 [0xcbf7b000 - 0xcbf88fff]
[ 0.586140] DMAR: Prepare 0-16MiB unity mapping for LPC
[ 0.586156] DMAR: Setting identity map for device 0000:00:1f.0 [0x0 - 0xffffff]
[ 0.586236] DMAR: Intel(R) Virtualization Technology for Directed I/O
Danke.
Bescheidene Frage: Kann man eine VM auch mit UEFI betreiben?
Ich weiß, dass es für QEMU/KVM die OVMF gibt, aber ich finde keine Infos ob das in Proxmox enthalten ist.
Vielen Dank im Voraus!