[Sammelthread] Proxmox Stammtisch

Wie soll das denn anders funktionieren? Ne laufende VM schreibt permanent Daten. Bzw. kann sie ja gar nicht laufen, ohne dass die Platten laufen.

Wenn Du einen Hypervisor suchst, auf dem nur eine VM läuft, die regelmäßig down ist und der dann in den SpinDown geht, bist Du bei Proxmox falsch. Bei ESXi oder anderen ernstzunehmenden Hypervisorwn übrigens auch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie soll das denn anders funktionieren? Ne laufende VM schreibt permanent Daten. Bzw. kann sie ja gar nicht laufen, ohne dass die Platten laufen.

Wenn Du einen Hypervisor suchst, auf dem nur eine VM läuft, die regelmäßig down ist und der dann in den SpinDown geht, bist Du bei Proxmox falsch. Bei ESXi oder anderen ernstzunehmenden Hypervisorwn übrigens auch.

Sry, vielleicht falsch ausgedrückt. Auf die HDD kommen nur Daten drauf und die HDD ist an eine VM durchgereicht, also im Endeffekt würde ich da nur sporadisch darauf zugreifen, also meiste Zeit im Leerlauf, theoretisch.
 
Dann hast Du die Aussage von mrpink77 wohl falsch gedeutet.

In der Proxmox Gui nicht als Storage definieren, also im Menü auf Datacenter und dann Storage darf deine Disk nicht eingebunden sein. Somit kannst du diese Disk auch nicht für VMs bzw. VM Backups nutzen.

Versteh leider halt nur nicht was er damit genau meint. Ich habe die HDD unter Storage nirgends eingebunden. Lediglich über parted erstellt / formatiert etc, so dass sie unter sdb läuft (sdb - disk; sdb1 - part).
 
Es spielt keine Rolle ob du die HDD in Proxmox einbindest oder nicht. Proxmox weckt die Platte sofort wieder auf, wenn du sie im Standby schickst. Natürlich würde ein Standby funktionieren, selbst wenn du Vm's am Start hast, hab ich selbst problemlos getestet.
 
Wie hast du die Platte durchgereicht? Einfach nur komplett der vm zur Verfügung gestellt, oder wie? Es gibt eine Möglichkeit HDDs einzeln durchzureichen, deshalb frage ich.
Wie du die Platten in den Spindown schickst?
PCI-E Controller Card für SAS/SATA, die HDDs da anschließen und den Controller an die VM durchreichen. Dann sieht proxmox die HDDs nicht mehr.
 
Ja, die HDDs kannst du Virtuell durchreichen. Vorteil, du kannst diese an mehrere VMs nutzen. Wie gesagt, das macht die VM nichts, wenn die zugreift wird die Platte halt aufgeweckt. Es ist nicht so das es mit dem Standby grundsätzlich nicht geht. Irgendwas ist jedoch an der Proxmox ISO verbogen, sodass kein Standby zugelassen wird. Vielleicht irgendein Systemd Service, keine ahnung.
 
Pvestatd ist es, wie zuvor erwähnt. Brauchst die keine Graphen? Dann kill den Prozess.

Wenn du die hdds per pci passtrough durchreichst, dann sind die vom Host nicht mehr zu sehen.
 
Selbst wenn ich Pvestatd deaktiviere interessiert das Proxmox geschweige denn der HDD gar nicht. Die HDD hängt derzeit am Onboard SATA board und ist ganz normal mit dem Befehl "qm set ID -virtio2 /dev/disk/by-id" an OMV durchgereicht wurden.
 
@Crusha

Wie oft den noch. Wenn du standby haben willst, darfst du die Proxmox ISO nicht benutzen. Nimm ein Debian und hau Proxmox drauf, dann gehen deine Platten auch in standby. Ist das so schwer zu verstehen?
 
@Crusha

Wie oft den noch. Wenn du standby haben willst, darfst du die Proxmox ISO nicht benutzen. Nimm ein Debian und hau Proxmox drauf, dann gehen deine Platten auch in standby. Ist das so schwer zu verstehen?

Darf ich jetzt nicht mal den anderen hier antworten die mich etwas gefragt haben?
 
Nabend Zusammen,

hab seit einigen Tagen einen Ryzen Proxmox Host am laufen.

Ryzen 3700x
Asrock Rack x470du Board mit IPMI
64 GB Ram ECC
4x 8 TB WD Red
64 Gb SD Card x USB Stick (proxmox boot)
1TB M2 SSD (vm storage)
Dell Perc 310 HBA

2x Windows 10 Vm
1x Freenas

Ich hab 2 Sachen die mir noch im Kopf keine Ruhe lassen.

Ich hab des öfteren immer hier gelesen von: Das viele unter Proxmox zB Freenas installieren, dort den HBA mit den HDDS durchreichen, dort den storage einrichten und vpn Freenas an den Proxmox Host das Storage zurück geben? Macht dass Sinn? Wie funktioniert das im Detail? Hab leider nichts dazu gefunden.

2. Reicht es wenn ich den Proxmox Host via Snapshots "backupe" auf ein Off-Site NAS? Oder sollte man die VMS lieber standalone backupen? Hab bisher noch nicht mit Snapshots gearbeitet. Kann mich da einer aufklären diesbezüglich?
 
Proxmox kann direkt ZFS Storage, wieso willst du da noch ein eigenes FreeNAS aufsetzen? Die Lösung sehe ich eher für einen Standalone ESXi Host, aber bei Proxmox würde ich die Bordmittel nutzen.

Ob du mit der SD-Card/USB-Stick glücklich wirst weiß ich auch nicht. Für Proxmox ist eigentlich immer eine HDD/SSD als Bootmedium empfohlen, da hier sehr viel geschrieben wird. Solltest du keine Pfade umgebogen haben etc. wird dir dein Stick oder die SD-Karte nicht lange überleben.
 
2. Reicht es wenn ich den Proxmox Host via Snapshots "backupe" auf ein Off-Site NAS? Oder sollte man die VMS lieber standalone backupen? Hab bisher noch nicht mit Snapshots gearbeitet. Kann mich da einer aufklären diesbezüglich?

Am Ende hängt es von deiner Erwartungshaltung ab. Sollen die Daten noch verfügbar sein wenn dein ZFS Pool zerstört wurde? Sollen die Daten verfügbar sein wenn die ganze Bude abbrennt? Je nachdem solltest du deine Backups auf einen getrennten Datenträger oder extern auslagern.
 
Ich hab des öfteren immer hier gelesen von: Das viele unter Proxmox zB Freenas installieren, dort den HBA mit den HDDS durchreichen, dort den storage einrichten und vpn Freenas an den Proxmox Host das Storage zurück geben? Macht dass Sinn? Wie funktioniert das im Detail? Hab leider nichts dazu gefunden.

Bis auf den vpn ist das ganz richtig. Man erstellt sich eine Storage VM mit Betriebssystem der Wahl ( Freenas, Xigmanas, OMV, XPEnology , WindowsServer, NappIT) und gibt den Storage für die VMs dann per NFS, iSCSI oder SMB frei. Diese kann man dann in PVE mounten.

Ob das Sinn macht oder nicht darüber streiten sich die Geister :-)
Nachteil:
- Eine VM hat mehr Overhead, da PVE nur ein aufsatz für debian ist kann das eigentlich alles mit Hausmitteln.
- Mehr Punkte an denen etwas scheifgehen kann.

Vorteil:
- Mehr Flexibilität und weniger "gefrickel". Die StorageOS haben meist eine Bessere GUI, vor allem wenn noch was als Netzwerkfreigabe dienen soll.
- Man muss am Hypervisor nichts ruminstallieren
- Einfacher Festplatten auch mal schlafen zu legen.
- Man kann die StorageVM auch (einfach) umziehn, auf einen anderen Hypervisor oder direkt auf einen Rechner.

Wenn man den Speicher nur für den Hypervisor, also die VMs (und Container) verwendet macht das überhaupt keinen wenig Sinn. Nutzt man die StorageVM auch noch für freigaben im Netzwerk, überwiegen die Vorteile.
Man kann auch überlegen nur die Netzwerkfreigaben zu virtualisieren, also z.B HDD's in die Storage VM, SSDs für den VM Speicher in PVE lassen.
 
Kann ich dann also einen zfs-pool erstellen, und diesen an eine SMB-VM durch reichen? Oder Geht das nur in Kombination mit einem HBA? Wollte dann OMV nutzen und mir die vorteile von proxmox (zfs) dann natürlich mit in die Tasche stecken :d
 
Vorteil:
- Mehr Flexibilität und weniger "gefrickel". Die StorageOS haben meist eine Bessere GUI, vor allem wenn noch was als Netzwerkfreigabe dienen soll.
- Man muss am Hypervisor nichts ruminstallieren
- Einfacher Festplatten auch mal schlafen zu legen.
- Man kann die StorageVM auch (einfach) umziehn, auf einen anderen Hypervisor oder direkt auf einen Rechner.

Korrektur
- Keinerlei Flexibilität - die VM ist durch den durchgereichten HBA an den Host gebunden
- Es ist extra Software die wieder gesondert gepflegt werden muss
- Gefrickel, brauchst einen passenden HBA und MUSST am Hypervisor herumbasteln
- Keine simple Möglichkeit die Storage VM auf einen anderen Host zu schieben - du musst den Host vom Netz nehmen und die physische Hardware umbauen
- Keine Snapshots/Backup der Storage VM möglich

Wer unbedingt eine Gui für die Freigaben möchte, dann am besten als Container/VM mit virtuellen Datenträger.
 
Kann ich dann also einen zfs-pool erstellen, und diesen an eine SMB-VM durch reichen? Oder Geht das nur in Kombination mit einem HBA? Wollte dann OMV nutzen und mir die vorteile von proxmox (zfs) dann natürlich mit in die Tasche stecken :d

Ich mach das so ähnlich. Hab ein Dataset in einem Pool, dass in einen LXC Container gemountet wird und dort drin läuft dann der Samba Server.
 
Korrektur
- Keinerlei Flexibilität - die VM ist durch den durchgereichten HBA an den Host gebunden
- Es ist extra Software die wieder gesondert gepflegt werden muss
- Gefrickel, brauchst einen passenden HBA und MUSST am Hypervisor herumbasteln
- Keine simple Möglichkeit die Storage VM auf einen anderen Host zu schieben - du musst den Host vom Netz nehmen und die physische Hardware umbauen
- Keine Snapshots/Backup der Storage VM möglich

Wer unbedingt eine Gui für die Freigaben möchte, dann am besten als Container/VM mit virtuellen Datenträger.

Wir wiedersprechen uns ja garnicht wirklich sehen es nur aus einer anderen Perspektive 8-), von einem Clustersetup rede ich nicht.
- Ich rede von Umziehen des Storage auf eina anderes System; BareMetal oder anderen Hypervisor (ESXi, KVM(ohne PVE)), das Hier die HDD's und gegebenfals der HBA getauschet werden muss versteht sich von selbet.
- Ob man dann Snapshots vom Storage machen kann hängt dann halt vom OS in der StorageVM ab.

Wenn ich ein Netzwerkstorage haben wähle ich ein OS was darauf spezialisert ist, will ich Virtualiserung nehme ich was dort seinen Fokus hat.
 
...

Wenn ich ein Netzwerkstorage haben wähle ich ein OS was darauf spezialisert ist, will ich Virtualiserung nehme ich was dort seinen Fokus hat.
und genau da sind die Vorzüge von Proxmox zu finden. Als OS ist ein einfaches Debian mit leicht angepassten PVE-Kernel drunter und kann alles, was Debian auch kann. Also Virtualisierung und ZFS. Auch die Verwaltung des Ramcache für ZFS ist da schon sinnvoll, im OS zu haben, da sich alles sonst der RAM vollständig von der VM belegt ist und nicht dynamisch verwendet werden kann. Wenn ZFS freien Ram erkennt, wird dieser auch verwendet... ganz nach dem Prinzip: Freier Speicher ist schlechter Speicher
Also ich für mein Teil bekomme mit ein paar wenigen Konsolenbefehlen ZFS bequem so gemanaged. Da muss keine GUI dazu sein
 
Ich habe mich jetzt auch mal daran versucht, wie kann ich denn 4 Festplatten (a4TB) zu einem Raid0 bekommen?
 
Code:
zpool create tank raid0 /dev/sda /dev/sdb /dev/sdc /dev/sdd cache /dev/sde -f
wobei sda bis sdd die Platten sind und evtl sde eine Cache SSD sein kann
 
@b99 ich danke dir. Das hat schon mal geklappt.
Wenn ich mir nun noch als VM FreeNas oder OMV installieren würde, kann ich den dann den Raid0 zuteilen?
 
Wenn ihr einen USB 3.0 Stick an eine Windows VM durchreicht, was bekommt ihr für Schreibraten? Bei mir gibts nämlich keinen Geschwindigkeitsunterschied ob ich den 3.0 Haken setze oder nicht (und ja ich nutzen einen 3.0 Port und ein 3.0 Device, welches mehr als 2.0 Speed kann)
 
Kurze Frage,.. Ich plane den Rest der Konfiguration meines Systems.

Brauch ich unbedingt 2x SSD als Boot drive? Also als raid? Oder kann ich auch eine einzelne ssd als Boot nehmen wo zfs drauf läuft? Hab unter VMware. Player aufm Rechner testweise mal proxmox laufen lassen damit ich die Oberfläche ect kennen lerne, und da gab's bei der Installation keine Möglichkeit mit 1er virtuellen hdd zumindest zfs zu nutzen.

Gesendet von meinem Mate 20 Pro mit Tapatalk
 
Du kannst mit einer DIsk einfach ein ZFS Stripe (Raid0) erstellen, nutze ich auch in diversen unkritischen Setups so.
 
Richtig, bei der Installation Raid0 auswählen, dann gibt er sich auch mit einer Platte zufrieden.
 
In welchem Status befindet sich der zpool dann?

Code:
zpool status

Müsste der Pool dann nicht die ganze Zeit im Status „DEGRADED“ sein, weil die zweite Platte sich im Status „UNAVAIL“ befindet?

Gruß Hoppel
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh