ProxMox VE 3.3 nun mit ZFS Plugin

pumuckel

Urgestein
Thread Starter
Mitglied seit
13.12.2002
Beiträge
8.166
Ort
Bayern
Erstmal: danke an Fischje für den Tipp (hab das 3.3er Release verpennt ... shit happens wenn man nicht mehr im Firmeneinsatz ist ^^)


Vorwort: ProxMox ist ein (deb)Linux basierender Hypervisor - kostenfrei (vgl ESXi) - nur für Enterprise support (repos) zahlt man



Proxmox VE 3.3 released!

nun auch mit ZFS on Linux Plugin (keine VM mehr nötig)





Video mit Neuerungen : http://www.proxmox.com/training/video-tutorials/item/neuerungen-in-proxmox-ve-3-3


Proxmox VE 3.3

Released 15.09.2014: See Downloads

improved security features
Firewall support (new package pve-firewall) ..... Anmerkung: per GUI/WEb konfigurierbar
Two-Factor Authentication (Yubico and OATH)

pve-manager (GUI) updates
new Proxmox VE Firewall
noVNC console
openvz: add bridge vlan && firewall options to gui
new Proxmox VE Mobile, GUI for mobile devices
add new 'Pool View'
ZFS storage can now be configured on GUI
glusterfs: new option to specify backup volfile server
add new email_from option to datacenter.cfg
add Persian (Farsi) translation.
improved Spanish translation
update Chinese translation
Countless updates and fixes

update to qemu 2.1.0
pci passthrough improvements
hotplug improvements
migration : enable auto-converge capability
add cpu_hotplug (and maxcpus config)
add virtio-net multiqueue support
new option smbios1 to specify SMBIOS type 1 fields
set uuid for newly created machines
support new q35 machine type
add Broadwell cpu model
compile with new libiscsi (1.12.0)
use glusterfs 3.5.2 libraries
support drive option 'discard'
add support for new qemu throttling burst max parameters
add 'vmxnet3', 'lsi53c810', and 'pvscsi' to the list of available network card models

improved Console support
HTML5 Console for shell, VM and container console (noVNC)
noVNC console is now the default
vncterm: new option -notls (for novnc, which use 'wss')
vncterm: updated signature for java applet to avoid warnings

pve-kernel-2.6.32-32-pve: 2.6.32-136
update aacraid, arcmsr, netxtreme2, ixgbe, igb, megaraid_sas and e1000e drivers
update to vzkernel-2.6.32-042stab093.4.src.rpm
allow to use grub-efi-ia32 boot loader

pve-kernel-3.10.0-4-pve: 3.10.0-17
enable vfio xfga
update arcmsr, netxtreme2, ixgbe, igb, e1000e drivers
update to kernel-3.10.0-123.6.3.el7.src.rpm
allow to use grub-efi-ia32 boot loader
Note: there is still no OpenVZ support with this kernel

update ceph packages to 'firefly' (0.80.5)
Note: Please upgrade ceph packages first if you run ceph server on proxmox nodes (see ceph upgrade instructions).

update gluster packages to 3.5.2

fence-agents-pve: 4.0.10
update to 4.0.10
add fence_ovh and fence_amt
remove baytech, bullpap, cpint, egenera, mcdata, nss_wrapper,rackswitch, vixel, xcat. Those agents are no longer included in upstream package.
removed fence_scsi
Note: This includes updates for fence_ipmilan (fence_ilo3, fence_ilo4, fence_imm, and fence_idrac), and some parameter names changed (see 'man fence_ipmilan'). Please verify that your fence device still works if you use HA.

based on Debian Wheezy 7.6
countless bug fixes and package updates, for all details see bugtracker and GIT

- - - Updated - - -

zu vfio xfga : GPU passthrough nun auch !

https://pve.proxmox.com/wiki/Pci_passthrough#PCI_EXPRESS_PASSTHROUGH

Read this too :) - https://bbs.archlinux.org/viewtopic.php?id=162768
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nun auch mit ZFS on Linux Plugin (keine VM mehr nötig)
Was redest du da?
Storage: ZFS - Proxmox VE
Also entweder habe ich hier wesentliche Entwicklungen in den letzten Wochen nicht mit bekommen oder du hast dir das ZFS Plugin überhaupt gar nicht angeschaut welches überings schon seit letztem Jahr als Preview enthalten ist.
http://pve.proxmox.com/wiki/Storage:_ZFS schrieb:
As of Proxmox 3.3 the ZFS storage plugin is full supported which means the ability to use an external storage based on ZFS via iSCSI.
Natürlich kann man das iSCSI auch lokal machen oder sogar direkt lokal ZFS verwenden, siehe https://github.com/proxmox/pve-storage/pull/1/files, aber so wie du das beschrieben hast ist es ja nun mal nicht, du verschaffst den Leuten damit einen völlig falschen Eindruck.
Es geht beim ZFS Plugin darum einfach bestehen iSCSI Storage besser zu verwalten und z.B. Snapshots darüber zu verwenden ohne manuell welche anlegen zu müssen.
 
Zuletzt bearbeitet:
Ich bekomme den Eindruck, wenn ich das netz so durchstöbere, dass kaum jemand den Storage und den Hypervisor auf einem Gerät kombiniert. Hat das einen speziellen Grund?

Erhalte ich Probleme wenn ich mein ZFS-Storage als VM laufen lasse und darüber iSCSI Storage anbiete für die anderen VMs?
 
Naja, die Sache ist wohl das klassische Henne-Ei Problem ;)

Gehört hab ich schon öfter, das Leute eine VM auf nem Host laufen haben, an die ein Hardware-Controller durchgereicht wird, der dann mit den Platten das Storage für den Host zur Verfügung stellt, auf dem dann wiederum die VMs laufen...

Ich habe es aber getrennt, weil es flexibler ist... ;)
 
Das Problem war bislang, das es kaum Storage-Systeme gab, die auch VMS laufen lassen können und auch kaum einen Hypervisor mit ordentlicher Storagetechnik drunter. Zusätzlich wurde in größeren Unternehmen seit jeher (auch personell) immer strikt zwischen Storage Backend und Storage Client (also Hypervisor) getrennt, je größer die Umgebungen, desto komplexer wird es eben auch. Daher gibt's nicht viele, die in beiden Welten zuhause sind.
Das ändert sich derzeit wohl von beiden Seiten, siehe Qnap Virtualisation Station oder VMWare EVO:Rail (bzw. Virtual SAN).
Produkte, die diesen Ansatz schon länger verfolgen gibt's beispielsweise von Joyent oder Simplivity.


cu
 
Okay, das beantwortet zwar die Frage wie die Entwicklung dahin war, aber nicht, was ich jetzt für mich daraus für Schlüsse ziehe.

Ich habe mir 2 mögliche Strategien überlegt:
1. Ich installiere auf einer VM XPenology, mit dem komm ich prima zurecht, weil ich Jahre lange eine echte Sysnology im Einsatz hatte. Dort konfigurier ich mir ein iSCSI-Target und binde das unter Proxmox ein. Vielleicht sogar "nur" eine NFS-Freigabe. Dabei nutze ich SHR, SoftwareRaid.
2. Ich bastel mir was in richtung FreeNAS, könnte so die Platten als ZFS-Storage laufen lassen, mit allen Vorteilen dieses besseren Dateisystems, und binde hierüber ein iSCSI Target oder eine NFS-Freigabe oder dann eben sogar nativ ZFS in Proxmox ein.

Aber welche Lösung ist besser - und ob das überhaupt was bringt? Vielleicht sogar besser das ZFS Lokal auf dem Host installieren?... hmm
 
Oder:

3. direkt Smartos nehmen, damit alles auf ZFS lokal auf die Platten und das ganze Brimborium mit iSCSI, NFS, passthrough etc vergessen?

cu
 
3. direkt Smartos nehmen, damit alles auf ZFS lokal auf die Platten und das ganze Brimborium mit iSCSI, NFS, passthrough etc vergessen?
Danke für den Tipp. Kannte ich noch garnicht. Leider wäre ich ohne eine Administrationsoberfläche, wie in Proxmox oder mit dem vSphereClient, wohl ziemlich verloren muss ich sagen.
 
Oder einfach ZFSonLinux unter Promox verwenden, dann kann man auch ordentlich Encryption machen, das fällt bei den Solaris-Varianten nämlich völlig flach.

SmartOS ist ja ganz nett, nur produktiv einsetzen? Ist dann doch ziemlich zeitraubend und nervig alles über die Konsole zu machen. Wenn es nicht gerade der Hauptjob ist über 9000 SmartOS-Server zu verwalten wird man damit dann sowieso nie schneller sein als wenn man alle paar Tage mal was im Webinterface in Proxmox oder ESXi macht.

Zudem wenn man will kann man ja unter Proxmox auch die Console verwenden um Dinge zu scripten.
Webinterface für SmartOS ist ja noch nicht so wirklich. Und ziemlich klein ist das Projekt auch, kaum Nutzer. Ich weiß ja nicht ob ich dieses Pferd setzen würde. Grundsätzlich ganz schön, aber es ist halt kein ESXi oder Proxmox mit Massen an Nutzern.
 
Zuletzt bearbeitet:
Hmm: Ich würde es halt einmal gerne installieren wegen Dedup und wegen der Selbstheilung und des Scrubbing. Encryption wüsste ich jetzt nicht wofür bei mir zu Hause auf der Platte. Wenn ich das richtig sehe hilft die ja nur gegen plattenraub oder( Wer einmal im System ist kann sowieso lesen oder)?

Ich werde mich mal an das Wiki von proxmox halten und versuchen mir ein zfs on linux unter ner neuen proxmox installation zu braten - mit dem m1015 als controller und auf nem sm-board. das sollte doch möglich sein, das auch so ein von bastelei angetriebener Bänker wie ich das hinbekommt. immerhin wurde ich gerade nicht vom grafiktreiber denunziert. :banana:
 
ZFSonLinux unter Debian (Proxmox) zu installieren ist doch Kindergarten. ;)
Setz dir ein aktuelles Proxmox mit dem RHEL7-Kernel auf, installiere ZoL und schau dir dann noch den Punkt KVM Tuning auf ZFS - Proxmox VE an.

Und vergiss Dedup mal schnell wieder, das ist hilft nur in sehr wenigen Fällen, LZ4-Compression tut schon eine Menge, Dedup ist aufgrund des Ram-Bedarfs nur selten nützlich.

Und wenn du es dir ganz einfach machen willst nutzt du ESXi mit einer Storage-VM, dann kannst auch gleich eine Solaris-basierende verwenden. Aber das wäre ja unkühl da nicht offene Sauce und freie Weichware und so. :fresse:
 
Zuletzt bearbeitet:
Warum nicht proxmox standart installieren und per paket zfs on linux, sondern der umweg über rhel7 ?
 
grafiktreiber hat sich auf Flames spezialisiert ... konstruktives bekommt man selten zu lesen
 
Zuletzt bearbeitet:
Hallo Pumukel,

diese Aussage von Dir möchte ich nicht so unkommentiert stehen lassen. GrafikTreiber ist kompetent und hilfsbereit, aber auch sehr direkt.
An die Hand nehmen wie im Kindergarten ist bei ihm nicht, selber lernen/machen ist angesagt. Unterstützung für User die sich anstrengen gibt es aber trotzdem.
Du bist laut Deinem Avatar lang genug dabei, um diesen Unterschied eigentlich erkennen zu können.
 
Oder einfach ZFSonLinux unter Promox verwenden, dann kann man auch ordentlich Encryption machen, das fällt bei den Solaris-Varianten nämlich völlig flach.

SmartOS ist ja ganz nett, nur produktiv einsetzen? Ist dann doch ziemlich zeitraubend und nervig alles über die Konsole zu machen. Wenn es nicht gerade der Hauptjob ist über 9000 SmartOS-Server zu verwalten wird man damit dann sowieso nie schneller sein als wenn man alle paar Tage mal was im Webinterface in Proxmox oder ESXi macht.

Zudem wenn man will kann man ja unter Proxmox auch die Console verwenden um Dinge zu scripten.
Webinterface für SmartOS ist ja noch nicht so wirklich. Und ziemlich klein ist das Projekt auch, kaum Nutzer. Ich weiß ja nicht ob ich dieses Pferd setzen würde. Grundsätzlich ganz schön, aber es ist halt kein ESXi oder Proxmox mit Massen an Nutzern.

keine Ahnung wo du die Userzahl bezügl. SmartOS hernimmst, aber du wirst es schon wissen (wie immer).
Mit den gleichen Argumenten könnte man natürlich auch zu Produkten von M$ raten, alles per GUI, Console auch möglich, Massen von Usern...

cu

- - - Updated - - -

Hallo Pumukel,

diese Aussage von Dir möchte ich nicht so unkommentiert stehen lassen. GrafikTreiber ist kompetent und hilfsbereit, aber auch sehr direkt.
An die Hand nehmen wie im Kindergarten ist bei ihm nicht, selber lernen/machen ist angesagt. Unterstützung für User die sich anstrengen gibt es aber trotzdem.
Du bist laut Deinem Avatar lang genug dabei, um diesen Unterschied eigentlich erkennen zu können.

Bist du auch lange genug dabei, um den Unterschied zwischen "direkt" und "herablassend" zu erkennen?

cu
 
ich kann das schon vertragen was der grafiktreiber da los lässt. natürlich hab ich mich auch mal wieder STANDARDMÄßIG vertippt... :)
Er hilft mir ja auch schon des öfteren - da gehe ich jetzt mal nicht davon aus, dass ich auch zu den Kindergarten-Kindern gehöre:
An die Hand nehmen wie im Kindergarten ist bei ihm nicht, selber lernen/machen ist angesagt. Unterstützung für User die sich anstrengen gibt es aber trotzdem.
Aber: Vielleicht nur manchmal, ab und an, würde ich mir wünschen, wenn der umgang doch etwas weniger herablassend rüberkäme - dann macht, wie gefordert, dass selber lernen auch mehr spaß und man ist motiviert.

back to topic:
vielen dank für die info bzgl. des kernel. ich probier mal mein glück...
 
grafiktreiber hat sich auf Flames spezialisiert ... konstruktives bekommt man selten zu lesen
Den Unterschied zwischen Flames und Spaß scheinst du noch nicht ganz verstanden zu haben. Ich grinse meist beim Schreiben meiner Posts und mache dies auch mit Emotes kenntlich. Aber als Kobold geht man wohl zum Lachen unter Tage. :p

keine Ahnung wo du die Userzahl bezügl. SmartOS hernimmst, aber du wirst es schon wissen (wie immer).
Willst du jetzt etwa behaupten SmartOS hätte überhaupt einen Marktanteil der über 0,XX hinaus geht? Linux/KVM ist ja immerhin mit Pi*Daumen 10 bis 20% dabei, wird von IT-Giganten entwickelt und genutzt. Und wer entwickelt SmartOS? Genau, im Vergleich dazu eine Schmeißfliege.

Außerdem kenne niemanden der das nutzt und man liest aber auch nicht wirklich von den über 9000 Firmen die jetzt sagen sie würden es nutzen.
Aber ja, anscheinend gibt es ja noch eine Parallelwelt unter der Erdkruste mit Millionen von Servern die SmartOS nutzen und nicht zu vergessen die unzähligen SmartOS-Installationen der Reichsflugscheiben auf Aldebaran. Die verstecken sich fleißig vor allen Marktanalysen und sind auch immer still auf den bekannten IT-Plattformen. :fresse:

Einfach mal bisschen IT-Nachrichten lesen oder noch besser Geld für IDC oder ähnliche Reports ausgeben oder anderweitig besorgen, dann kennt man auch die Marktanteile und muss niemanden überheblich nennen nur weil er Fakten ausspricht. ;)

back to topic:
vielen dank für die info bzgl. des kernel. ich probier mal mein glück...
Einfach loslegen und installieren, ist nicht wirklich kompliziert, klappt schon. Man könnte ja mal auch einen Promox Sammelthread oder Stammtisch oder ähnliches einrichten, für ESXi gibt es ja auch einen. ;)
 
Zuletzt bearbeitet:
Ach so, wenn nicht mal du jemanden kennst, der das benutzt, ja dann ...
Deine Überheblichkeit kennt mal wieder keine Grenzen heute gell?
Aber lassen wir das, hilft dem Fischje ja nicht weiter ...

cu
 
Man könnte ja mal auch einen Promox Sammelthread oder Stammtisch oder ähnliches einrichten, für ESXi gibt es ja auch einen. ;)
Find ich gut. Bin dafür das du oder der pumuckel einen aufmachst oder vielleicht den thread hier anpasst. find ich einfacher als alles in den verschiedenen anderen threads zu diskutieren. :)
 
So gehen die Zeiten zu Ende, in welchen man sich für den Einsatz von Proxmox rechtfertigen musste ... :banana: :btt:
 
mal sehen.

mein serverbaord ist immer noch nicht da :( soll aber heute kommen, so kann ich noch kein pve 3.3 aufsetzen.

Proxmox ist Debian mit RHEL-Kernel. Mit RHEL7-Kernel meinte ich dass du den 3er-Kernel (aktuell pve-kernel-3.10.0-4-pve) verwenden sollst und nicht den 2.6.32.
Warum eigentlich? Gibt es sonst Schwierirgkeiten mit ZFS? Hardwareerkennungen? ist 3.1 nicht unstable?
 
Zuletzt bearbeitet:
Weil es für RHEL einen Kernel gibt der KVM und OpenVZ gleichzeitig kann, OpenVZ nimmt quasi RHEL als Entwicklungsplattform. Außerdem hat es den Vorteil das eine bestimmte Kernelversion über Jahre hinweg gepatcht und mit neuen Treibern versorgt wird, das ist bei den Debian-Kerneln nicht so der Fall, Debian bewegt sich wesentlich schneller, es wird viel zügiger auf neue Kernel-Versionen gewechselt.

Aber wenn du OpenVZ sowieso nicht nutzt, was mit dem aktuellen RHEL7-Kernel sowieso auch noch nicht geht, kannst du auch einfach den Debian-Kernel verwenden oder noch besser den Debian-Backports-Kernel (HowTo hier), das tue ich auf meinen Servern so auch, ist halt einfach aktueller, da ich nur KVM verwende auch kein Beinbruch. Den pve-Kernel (RHEL) musst du eigentlich nur benutzt wenn du Support von der Proxmox GmbH haben willst, ansonsten kannst du machen was du möchtest.

Weiteres bitte gleich in http://www.hardwareluxx.de/community/f101/proxmox-stammtisch-1039627.html . :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh