Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Stimmt, ist einiges dabei. Aber man kann sich ja auch ein minimales Debian installieren und dort dann die PVE Quellen hinzufügen und nur die Virtualisierungskomponenten installieren. Und ich persönlich halte ESXi für eine furchtbare Plage. But you never get fired for buying Cisco/VMWare...
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich möchte mal mit Proxmox herumspielen, kenne bisher ESXi und Hyper-V.
Im Moment habe ich vier Platten verbaut, alle unterschiedlich, daher erstmal kein RAID.
Proxmox ist installiert auf einer SSD, die anderen Platten sind noch nicht konfiguriert (120GB SSD, 750GB + 1TB SATA).
Ich stelle mir jetzt die Frage womit und wie ich die Platten konfiguriere, partitioniere und formatiere. Fdisk, lvm??
Welches Dateisystem ist am besten geeignet?
Das würde mich nun interessieren: Was kann Proxmox den besser als ESXi? Gerade solche Erfahrungen von erfahrenen Proxmox-Benutzern fände ich super interessant.
Es geht mir erst einmal darum Erfahrungen mit Proxmox zu sammeln. Bisher habe ich noch keine zusätzlichen Platten für Linux eingerichtet sondern immer mit einer Komplettplatte gearbeitet. Die wurde dann von einem Installer oder mit einfach fdisk und mkdisk eingerichtet.
Für meine ersten Tests mit Proxmox könnte ich mir folgende Szenario vorstellen:
111GB SD - Proxmox Host, Templates
120GB SSD - kleine VMs, wenn möglich Cache für die beiden Magnetplatten unten?
750GB HDD - Backups
1TB HDD - VMs / Daten
Das würde mich nun interessieren: Was kann Proxmox den besser als ESXi? Gerade solche Erfahrungen von erfahrenen Proxmox-Benutzern fände ich super interessant.
Als allererstes Mal: Ich denke, der kann nichts besser, nur vieles anders Ich kann nur mal ganz subjektiv aufzählen, was mich anspricht, klar.
- OpenSource (Mit Möglichkeit auf Subscription für "LTS" und Support)
- Linux (Debian) Basis
- mittlerweile ZFS
- Container (ich muss nicht jede Firlefanz-WebApp voll virtualisieren)
Hallo liebe Proxmox Kenner
ich hab da ein nicht allzu kleines Problem.
Erstmal zu meiner Systemconfig, also ich hab nen ml10v2 mit 2 120gb SSDs, sowie 3 WD RED Platten, auf einer der SSDs ist auf einer 20GB großen Ext4 Partition Debian installiert.
Ich hab dann einen ZFS Mirror auf jeweils einer Partition auf den beiden SSDs, mit aktivierten Dedup, darauf liegen meine VMs.
Ich hab 2 dauerhaft aktiviert VMs, einmal ein Debian für DNS und DHCP und eine Storage VM, an welche die 3 HDDs per RDM durchgereicht werden.
Wenn ich jetzt ein Backup der VM starte (auf den per NFS eingebundenen Storage der Storage VM), kommt es regelmäßig vor, dass Proxmox komplett abstürzt.
Also die VMs werden sehr träge, bzw. stoppen komplett, im Webinterface wird der Server mal als "grün" und mal als "rot" angezeigt, die eigentlich laufenden VMs werden nach dem Symbol (Monitor links in der Serverview) mal als laufend grün und beim nächsten reload der Seite als gestoppt angezeigt.
Bei Summary der VMs sind die ganzen Graphen nur leere Kästchen, die Namen, Status und co. werden als not specified bzw. unknown angezeigt.
Ich hatte das jetzt schon mehrfach (aktuell wieder) und habe es die letzten male nur durch einen Neustart des Hosts wieder zum laufen gebracht.
Hoffe jemand hat ne Idee woran es liegen könnte.
Hier mal die Ausgabe von pveversion -v
Naja aber die CPU load ist jetzt nicht so sonderlich hoch, ksmd hat maximal 10% von einem core beansprucht.
Mein Gedanke war halt, dass es sich gerade in dem Fall lohnt, weil ja viele gleiche Sektoren vorliegen, da sich die VMs kaum voneinander unterscheiden.
Oder hab ich da nen Denkfehler drinnen?
Das Problem ist, dass ja gerade bei den VMs viele Schreibzugriffe stattfinden und jedes Mal muss vorher in der Dedup-Tabelle nachgeguckt werden, ob das jeweilige File schon vorhanden ist. Du sparst wahrscheinlich im einstelligen Prozentbereich Speicherplatz, hast aber dafür die Dedup-Tabelle ständig im RAM (bei 120GB SSD kann die so bis auf ~0,5 GB anwachsen) und schmälerst den schreibenden Datendurchsatz. Lohnt sich das? Nicht wirklich. Das hier ist ein alter Blogeintrag, der die ZFS-Deduplikation ganz gut beschreibt.
So ich wollte jetzt grade die Daten auf ne andere Platte kopieren, bis mir dann aufgefallen ist, dass das so nicht so wirklich funktioniert, da Proxmox ja für jede VM ein eigenes FS auf dem ZFS Pool erzeugt.
Ich habe auch schon probiert ein Snapshot von dem Pool mit "zfs send storagepool@now | zfs receive -F extern" zu übertragen, dass dauert allerdings nur eine Sekunde und es passiert überhaupt nichts.
Wie kann ich den gesamten Pool inklusive aller Filesysteme sichern, dass alle Daten (inklusive der der VMs) noch vorhanden sind?
Edit: Hier mal die Ausgabe von zfs list zur besseren Verständnis
Ok danke dir, ich hatte die Platte schon wieder exportiert, als ich das letzte zpool list ausgeführt hab.
Eigentlich hab ich des genau so gemacht, naja werds morgen nochmal probieren.
Schon mal jemand SR-IOV (single root I/O virtualization) probiert ??? Musste leider feststellen das die Netzwerk performance von Proxmox nicht der Hit ist.
ESXI ist da leider um Welten schneller.
Schon mal jemand SR-IOV (single root I/O virtualization) probiert ??? Musste leider feststellen das die Netzwerk performance von Proxmox nicht der Hit ist.
ESXI ist da leider um Welten schneller.
Also ich bekomme per VirtIO oder direkt in Containern auch nahezu Wirespeed hin und find eher ESXi mit seinen furchtbaren vSwitches langsam. Die bekomme ich nicht über 200Mbit/s
Ich kann ja mal gerne was über meine Tests und Vergleiche sagen.Hier gehts nicht um Streaming Performance.Sondern Latenz und kleine Pakete.
Unser Yabu Build System baut ein Projekt auf einem DELL R620 mit Lokaler Platte in 1:30.
Selbe Anzahl Cores+RAM unter ESXI 1:41 und Proxmox 1:58.
Da die Hypervisoren die HD ja über VirtIO emulieren war ja ein Overhead zu erwarten.
Da wir aber unsere Workers Pfade nicht Lokal haben sondern über NFS Mount rangezogen werden.
Server RAW 2:27
ESXI 3:08
Proxmox 3:52
Der NFS Server ist 1Gbit angebunden. Dazu muss gesagt werden die VM´s hatten ein Interface nur für den NFS Mount.
Finde den Unterschied ESXI zu Proxmox mal krass und geht in der Praxis gar nicht. Also unsere Compiler Farm wird nicht Virtualisiert und wenn nur mit ESXI.
Vt-d durchreichen ist kein Hit geht nicht wenn man Migration in einem Cluster nutzen möchte. Bleibt eigentlich nur noch SR-IOV um die Leistung zu steigern.
Ich habe mal eine Frage...
Wenn mein Dell Root bereits einen Hardware Raid Controller besitzt.
Perclt 730 mini
und ich 2 Intel SSDs mit 480 GB als Raid 1 nutzen möchte, wie würdet Ihr folgende Werte für die Partionen definieren?
Wieviel bei maxroot und minfree ?
maxvz nehme ich an ist der Speicher für die VMs also groß gestalten..
Welches Filesystem soll ausgewählt werden?
Ich möchte auf dem dedizierten Server nur Proxmox nutzen und ganz viel Speicher für die VMs haben.
Swap sollten doch 8 GB reichen bei 64 GB Arbeitspeicher?
maxroot reichen 10 Gb die werden nie voll.
swap nimmt man i.d.R MEM/2 bei dir also 32 Gb
minfree hätte ich max 5% der gesamt Kapazität genommen. Sollte man mit LVM Snapshots rumspielen wollen für Backupzwecke sollte das reichen.
Würde immer ext4 nehmen. Früher zu Promox 3.X Zeiten mit alten Kernel war ext3 am schnellsten und ext4 hatte einen Bug und war langsam.Das ist mit dem 4.x Kernel alles nicht mehr.
Nunja, genau das will ich ja eben vermeiden, dass ich noch einen Stromfresser im 19" Schrank verbaue. Ich sehe für mich da keinen Vorteil ob auf einem Server virtualisiert und Daten bereit gestellt werden anstatt das physikalisch zu trennen. Am Ende ist der Server nur effizient ausgelastet und idled nicht permanent. Nenn mir bitte ein paar Benefits der Trennung!?
Nunja, genau das will ich ja eben vermeiden, dass ich noch einen Stromfresser im 19" Schrank verbaue. Ich sehe für mich da keinen Vorteil ob auf einem Server virtualisiert und Daten bereit gestellt werden anstatt das physikalisch zu trennen. Am Ende ist der Server nur effizient ausgelastet und idled nicht permanent. Nenn mir bitte ein paar Benefits der Trennung!?
dann wäre aber sowas wie ein SOC ala RB Pi/Odroid C2 + ne HDD am Router sparsamer (bzw ne ESata oder USB Raid Lösung welche man abschalten kann)
das wären 3W+2W (bzw beim externen case die Watt /Laufzeit)
für die "Testhardware" und Zeit der letzten 2 jahre allein hätte ich schon Strom für 15 Jahre eines 50W Servers bezahlen können
ich hab letztens mal ne Rechnung aufgemacht ob sich für daheim überhaupt noch 24/7 Storage lohnt und das Ergebnis war : nope (außer für Private Daten, die ich bequem auf 2,5" Platten bekomme, da max 2-3TB .. die ganz wichtigen noch encrypted auf meinen 250GB AllInkl Account)
man streamt doch eh zu 90% heute und meine DVDs im Schrank brauchen auch keinen Strom ^^
die Mp3s liegen auf nem USB Stick am Router
einzig auf IMPI (kost auch ca 5W/Gerät) möchte ich nicht verzichten, da ich so mit dem handy die Systeme starten/stoppen kann