[Sammelthread] Proxmox Stammtisch

@MisterY: Wieviele Server waren es denn seinerzeit? Hast du die Anleitung zur Cluster-Erstellung gemäß Wiki befolgt? Einen "Master-Node" gibt es defacto nicht mehr, du kannst von jedem Node aus auf die Weboberfläche bzw. die VM-Kontrolle zugreifen. Denk daran, das sich alle Nodes im gleichen Subnetz befinden müssen und der Switch Multicast durchlassen muss, da der Cluster darüber kommuniziert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es waren/sind drei. Natürlich habe ich mich daran gehalten :) Masternode ist halt der, wo der Cluster zuerst erstellt wurde.
Subnetz ist identisch. Ich versuche es einfach mal mit meinen beiden Backup-Servern. Ich möchte die halt auch vereinzelt booten/nutzen können, ohne dass irgendein anderer Server laufen muss.
 
Eigentlich gibt es keinen einzigen Master....also das ganze ist Multi-Master.
 
Dein Problem hängt mit dem Quorum zusammen. Ein Cluster sieht einen einzelnen Node eigentlich als "isoliert" an. Entweder nimmst du einen Raspi o.ä. Gerät als Quorum, oder du reduzierst dein Quorum Vote auf 1:

pvecm expected 1
 
Zuletzt bearbeitet:
ah okay, danke euch. Kann ich einen Cluster auch erstellen/beitreten, wenn schon VMs installiert sind?
Ich habe heute auf meinem Hauptserver, auf dem Ich noch nichts dergleichen ausprobiert habe, nun irgendwie ein komisches Problem, dass ein Herunterfahren des Servers verhindert. Dabei bleiben entweder CTs oder VMs beim herunterfahren hängen ("cant acquire lock" oder so). wenn ich die Dateien aus /var/lock/qemu-server/xxxx.lock entferne, funktioniert es bis zum nächsten Neustart. Das einzige, was ich gemacht habe, war, dass ich die 2 Port S-ATA PCI-E Karte gegen eine mit 4 Ports ausgetauscht hatte. Aber auch wenn ich es zurücktausche funktioniert das Herunterfahren nicht (auch nicht der VM alleine, auch nicht per CLI).

Dann noch eine weitere Frage: Ich habe einige CTs am laufen, davon einige auch mit mehreren Hundert GB an Daten auf einem ZFS-Pool. Ich überlege, ob ich Proxmox mal neu installiere und dann auch direkt auf die NVME installiere anstatt auf den beiden SSDs im ZFS-Mirror. Den ZFS-Mirror würde ich dann nur noch für CTs nutzen und auf die NVME kommen dann Windows-VMs.
Wie installiere ich das alles neu, sodass ich auch meine CTs wiederbekomme ohne jetzt alle Daten zu sichern/Doppelt zu haben. Denn wenn ich die ja sichere, neu installiere und dann wieder zurückspiele habe ich ja mehrere Hundert GB die auf dem ZFS-Pool (hier sind NUR Daten) zu schreiben sind, was ich irgendwie gerne vermeiden würde. Kann man die CTs irgendwie "importieren"?

Grüße
 
Zum beitreten muss der Node leer sein.

Du kannst die CT Konfigurationsdateien auch sichern (/etc/pve/lxc/), dann neu installieren, den ZFS Pool wieder unter gleichem Namen einbinden und die Konfigurationsdateien wieder in den Cluster kopieren (IDs beachten, notfalls umbenennen).
 
So, hab ein Cluster erstellt, läuft soweit auch alles. Nachdem ich dann Node1 heute starten wollte, blieb der hängen bei "waiting for quorum".... was ist das denn jetzt schon wieder??

Edit: okay, mit pvecm expected 1 funktioniert es.
ABER: Nun steht da im Cluster-Manager "Standalone-Knoten - keine Cluster definiert". Es werden aber noch beide Nodes angezeigt. Aber einen weiteren Node kann ich so nicht hinzufügen?

Edit2: Nun, wenn ein weiterer Node hochfährt, ist wieder ein Cluster definiert. Das Problem: Fahre ich nun Node2 herunter und starte Node 1 neu, bleibt der wieder hängen...

edit 3: Egal ob ein Node vorher hochgefahren war oder nicht, Node1 bleibt immer beim Reboot hängen...
 
Zuletzt bearbeitet:
Man kann wohl mit einem Setzen von Quorum = 2 auf allen Nodes in der corosync.conf das verhindern.
Ich habe einfach erstmal "pvecm expected 1" in die rc.local eingebaut, klappt auch.
 
hat einer von euch auch das Problem, dass SPICE in neu angelegten VMs keine Auflösungsanpassung mehr bei Vollbild durchführt? Meine alten VMs funktionieren, die neuen aber nicht?
 
Tipp ins blaue ,vielleicht fehlen die VM Tools?
Habe leider nur Linuxe die auf ein Terminal starten.

Ansonsten ggf. mal über SSH in die VM Config Files schauen ob es unterschiede gibt.
 
Hallo zusammen,

vielleicht kann mir in diesem Thread jemand helfen.

Folgendes Setup läuft bei mir.
Proxmox manuell auf Debian installiert.
Spindown der Festplatten ist manuell möglich über
hdparm -y /dev/sdd

Aus einer OMV (Openmediavault) VM bewirkt der Befehl gar nichts.
Ich habe die formatieren Platten direkt durchgereicht, sehe sie auch in OMV. Oder mache ich was falsch?

/etc/..../100.conf
sata2: /dev/sdd

Ich habe statt sata2 auch alle anderen Varianten ausprobiert, bin aber irgendwie ratlos.

Hat jemand von euch eine Idee oder alternativen weg? Wenn ich die VM im suspend habe, wie bekomme ich diese wieder auf running? Wake on Lan funktioniert leider nicht, denn dann könnte ich mir eine eigene Möglichkeit (Skript) schaffen.
Was muss ich tun damit WOL funktioniert?

Danke, Gruß
 
Abend zusammen,

kann mir hier jemand ein sata pcie nennen welches problemlos mit Proxmox läuft? Ich brauche mehr sata Steckplätze 4 wären gut. Danke!
 
Die sybia sollen wohl funktionieren. Alternativ ein Dell Perc H310 auf IT Modus geflasht.
 
Allgemein alles was auf SAS2008 basiert hat idR. eine gute Linux Unterstützung. Den Dell H310 hab ich auch in 2 Servern, läuft seit über einem Jahr problemlos. War allerdings ein wenig zickig zu flashen, ich musste hier mein altes AM2 System rausholen, da der Flashvorgang mit UEFI bei mir immer fehlschlug. Problemloser war da mein Fujitsu D2607.
Zu den Flashvorgang gibt es auch genügend Anleitungen im Netz.

Vorsicht bei RAID-Controllern aus China., es sind viele Fälschungen im Umlauf...
 
Zuletzt bearbeitet:
@P0stbote gibt es noch ein Tip wo man kaufen sollte? Sonst danke ich schon einmal an alle Tips!
 
@P0stbote Danke, gerade gekauft. :)

Kabel für zwei Platten sind dabei, mehr brauche ich wohl erst einmal nicht. Mal sehen ob ich das teil tot flashe ^^
 
Zuletzt bearbeitet:
Ich würde euch aber empfehlen, nen Controller mit SAS2008 nur noch für HDD-Arrays zu nutzen. Mit SSD-Arrays minimum nen 2308 oder gleich nen 3008.
 
Ich würde euch aber empfehlen, nen Controller mit SAS2008 nur noch für HDD-Arrays zu nutzen. Mit SSD-Arrays minimum nen 2308 oder gleich nen 3008.

Aber nur wenn man rein SSD fährt, oder? Weil nach oben hin dann der Durchsatz limitiert. Oder gibt es da noch andere Gründe? Bei meinen 4x SSD sehe ich da noch kein Problem bisher. Rein rechnerisch erst ab 7 SSD?
 
Hi möchte nun auch gern von ESXi auf Proxmox wechseln.

Zurzeit habe ich alles auf einem 9271-4i im Raid5 laufen diesen möchte ich gegen eine 9207-8i HBA austauschen. Dort dann ein RaidZ einrichten mit insgesamt 4 SSDs. Hab dazu aber noch ein paar Fragen.

1. Wisst ihr ob ich alles erst mal mit dem Onboard Raid Controller austauschen kann und dieses danach dann ersetzen kann?
2. Würdest ihr Proxmox auf einem USB Stick installieren wie bei ESXi oder besser auf die SSDs mit drauf?
3. Ich hab mehrere Linux VMs laufen, kann ich diese einfach umwandeln bzw. den großteil davon in LXC Container umwandeln?
4. Unterstützt Proxmox mittlerweile TRIM?

Danke euch!
Grüße DrAg0n141
 
1. Wisst ihr ob ich alles erst mal mit dem Onboard Raid Controller austauschen kann und dieses danach dann ersetzen kann?

Der Controller ist eigentlich nicht so wichtig wenn du die Platten 1:1 ansprechen kannst. Sprich du kannst den Controller eigentlich jederzeit austauschen und den Pool neu importieren.


2. Würdest ihr Proxmox auf einem USB Stick installieren wie bei ESXi oder besser auf die SSDs mit drauf?

Auf eine SSD, das würde ich aber auch beim ESX machen.



3. Ich hab mehrere Linux VMs laufen, kann ich diese einfach umwandeln bzw. den großteil davon in LXC Container umwandeln?

Mit Qemu-IMG kannst du diese recht einfach in VM´s konvertieren. Aber du bist vermutlich schneller wenn du gleich saubere Container anlegst und die Applikationen in diese migrierst.


4. Unterstützt Proxmox mittlerweile TRIM?

Nein, aber das hängt eher an ZoL/OpenZFS. Nach aktuellen Stand ab Version 0.8 => Add TRIM support · zfsonlinux/zfs@1b93956 · GitHub
 
Würdest du dann eine einzelne nehmen oder auf das RAIDZ drauf installieren? Oder lege ich das sowieso erst nach dem installieren an?
Ja dann werde ich wohl besser neue Container anlegen ist wahrscheinlich deutlich sauberer.
 
Es kommt schlicht und einfach auf deinen Bedarf an. Ich bevorzuge für die OS Installation einen Mirror/Raid1, das kannst du gleich beim Setup erledigen.
 
Der Sas2008 maxed etwa bei 3200 MB/s oder 350 k Iops aus, je nach was eher kommt. D.h. ein SSD-Raid mit 3 Mirrorpärchen als Vdev oder auch ein Raidz mit 6 SSD schlägt da bereits an.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh