[Sammelthread] Proxmox Stammtisch

Ich sags mal so: Du hast eine etwas "exotisches" Setup, wo einige Dinge ineinander greifen. Da macht es am meisten Sinn mit einer 1:1 Umgebung zu arbeiten, sprich parallel aufziehen, damit man live schauen kann, was fehlt oder wie Dinge an bestimmten Stellen konfiguriert sind. Dazu fehlen Dir aber die Ressourcen.

Man könnte auch die VMs eine nach der anderen konvertieren und auf einem Proxmox Backup Server sichern, dann den bestehenden ESX platt machen, Proxmox installieren und dann vom PBS rücksichern. Geht, ist aber halt risikobehaftet, weil bei Dir einiges ineinander greift und man nach dem ESX platt machen nicht mal so eben wieder auf den alten Stand gehen kann.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welche Migrationsstrategie seht Ihr? Doch noch irgendwie einen zweiten Rechner auftreiben, Proxmox installieren und VMs wie oben beschrieben migrieren?
Würd ich mit zusätzlicher Hardware machen. Muss ja für die Migration nix Großes sein, kannste theoretisch auf nem alten Laptop machen - alternativ halt was gebrauchtes, was man später zu einem fast gleichen Preis wieder los wird (n alter Dell T... oder HP Microserver).

Auf ner Produktivmaschine ESXi nach Proxmox umzuziehen halte ich für unnötig riskant - trotz Backup kann das sehr unangenehm werden, wenn man da versehentlich das falsche Laufwerk platt macht oder beim Umbau der Hardware was kaputt macht (Schraubenzieher fallen lassen etc). Ich würde vorher zumindest mal die Prozedur auf ner ungefährlichen Maschine durcharbeiten und mir Notizen machen.
 
@kandamir
In deinem Fall würde ich persönlich ohne neue Hardware die folgenden zwei Szenarien prüfen:
1. da nur wenige VMs eventuell die Konfiguration sichern und neu installieren
2. die VMs in ESXi exportieren, den Rechner mit Proxmox neu installieren und dann Importieren. Backup vom alt System würde ich auch anlegen.

Du findest für den zweiten Vorschlag ein paar Anleitungen, habe es aber selber noch nich versucht ob es sauber klappt
 
Abend,

hat jemand mal ein verschlüsseltes Backup von einem PVE Host A welches auf PBS Z ist auf PVE Host B erfolgreich wiederherstellen können ?
Beide PVE sichern auf demselben PBS Host.

Ich scheitere am Fingerprint...


Edit/Gelöst

PBS auf neuem Server mit dem cert des alten Servers einbinden.... ansich logisch...
 
Zuletzt bearbeitet:
So meine 3x mg09 18tb sind angekommen.
Raidz1 in proxmox oder truenas direkt erstellen? Google sagt ja eigentlich direkt in truenas
 
Bis auf die Tatsache, dass auch bei mir die X710-Netzwerkkarten alle neue Interfacenamen bekommen, funktioniert das Update auf 8.2 tadellos. 👍🏻
 
kann ich einfach meine verbaute melanox 3er karte austauschen gegen 2.5gig pci-e im selben steckplatz und proxmox beim neustart ist wieder auf dem selben vmbr0 bridge, wenn ich mein dhcp fixed ip dann wieder im dhcp manager auf die neue mac-adresse setze sollte dann alles normal laufen?
 
Bis auf die Tatsache, dass auch bei mir die X710-Netzwerkkarten alle neue Interfacenamen bekommen, funktioniert das Update auf 8.2 tadellos. 👍🏻
kann ich einfach meine verbaute melanox 3er karte austauschen gegen 2.5gig pci-e im selben steckplatz und proxmox beim neustart ist wieder auf dem selben vmbr0 bridge, wenn ich mein dhcp fixed ip dann wieder im dhcp manager auf die neue mac-adresse setze sollte dann alles normal laufen?

DIe Ursache für "vertauschte" Interfacenamen liegt darin, das Linux die PCIe Geräte so durch numeriert, wie sie am PCIe Bus erscheinen. Wenn man ein Gerät entfernt oder dazusteckt, ändert sich je nach vorheriger Position der Device Name. Das ist extrem unpraktisch, weil man jdesmal die config anpassen muss, nur weil man z.B. eine m.2 SSD dazu gesteckt hat.


Aber es gibt eine Lösung: fixe Zuweisung per MAC Adresse





/etc/systemd/network

Hier Dateien anlegen - für jedes Interface eine eigene Datei

Dateiname + Eigenschatfen
NAME.lnk // zb: 10-eth_10g0.link // maske 644
encoding uft-8 ohne BOM

Any user-supplied .link must have a lexically earlier file name than the default config 99-default.link in order to be considered at all. For example, name the file 10-ethusb0.link and not ethusb0.link.

Code:
[Match]

MACAddress=7d:21:e1:13:d3:25


[Link]

Name=eth_10g0
 
Ja, wobei das Problem nicht selbstverschuldet ist. Liegt am neuen Kernel, umgebaut wurde gar nichts. Und das darf meiner Meinung nach nicht passieren und trifft scheinbar auch nur die 700er Generation von Intel. Alle anderen Netzwerkkarten mit anderen Chipsätzen zeigen sich völlig unbeeindruckt. Nur aus meinen X710, die vor dem Update enp99s0f0 hießen, wird danach enp99s0f0np0.

Die Ursache mag sich z.B. per udev-Regel beheben lassen, dürfte im Vorfeld aber gar nicht auftreten. Scheint für alle anderen Karten ja auch zu funktionieren. Aber die Entwickler wissen Bescheid, vielleicht lässt sich das automatisch behben, ohne dass der Anwender manuell eingreifen muss. War von Kernel 6.2.x auf 6.5.x ja auch kein Problem.

Ist halt blöd, wenn das Management-Interface davon betroffen ist. Ja, es lässt sich relativ einfach beheben, aber wo gibt's denn sowas, dass ein Minor-Upgrade einem ggf. die komplette Netzwerkconfig zerhaut?

Aber ich persönlich bekomme das auf allen meinen Hosts geregelt und es trifft auch keine essenziell wichtigen Interfaces, im ersten Moment steht man aber trotzdem doof da.
 
@Supaman Kann ich eigentlich HA machen ohne Shared Storage? Bzw. dass die Nodes halt den Storage ebenfalls die ganze Zeit abgleichen?
Niemand? Wenn das nicht geht, wo kriegt man einen Shared Storage fürs Internet möglichst günstig her? Oder ist das Thema wirklich nur für lokale Geschichten gedacht.
 
Für HA gibt es viele Ansätze, z.B. 2 Node Active/Passive oder balanced mit lokalem Storage und Quorum Device, 3+ Node als CEPH Cluster, Setups mit externem Storage uvm.

Da musst Du erstmal die Zielsetzung und das Budget festlegen.
Beitrag automatisch zusammengeführt:

Wo kriegt man einen Shared Storage fürs Internet möglichst günstig her? Oder ist das Thema wirklich nur für lokale Geschichten gedacht.
Für echten Shared Storage über das Internet benötigst Du eine seeehr gute und stabile Anbindung bez. Lantenz,
und da wird es anspruchsvoll und teuer.
 
Da musst Du erstmal die Zielsetzung und das Budget festlegen.
Also exemplarisch, ich möchte einen Jabber(Chat)-Server für den privaten Gebrauch HA im Internet betreiben. Budget fast null.
Ich vermute, bei der Nutzung von weniger als fünf Leuten ist die Storage Anforderung auch sehr gering, die meiste Zeit passiert gar nichts. Gleichwohl müssen die Chats halt synchronisiert werden.
 
Ich habe folgendes Problem. Die letzten 2 neuen Kernel kann ich nicht nutzen da dann meine USB Netzwerkkarte (ASIX Chipsatz AX88179) nicht mehr erkennt. Ich habe alles versucht. Auf die interne Netzwerkkarte kann ich nicht zurückgreifen, da diese defekt ist. Es funktioniert mit Kernel 6.5.13-3-pve tadellos, aber alles danach nicht mehr.

 

Man kann den boot kernel festlegen. Alternativ eine andere Netzwerkkarte anschliessen, die supportetd wird, kann nicht die Welt kosten.
 
Installiert man proxmox auch auf'n USB-Stick und macht dann nur "alles andere" auf vernünftige Datenträger oder eher proxmox selbst auch auf ne "richtige" SSD o.ä.?
 
Ich hatte Proxmox immer auf der Nvme
 
Ich hab aber nicht so viele Anschlüsse... bzw. hab so'n hübschen internen USB-A Anschluss, der sonst ungenutzt verkommen würde...
 
Dann besorg dir doch einen USB auf SATA (oder mSata oder NVME Adapter) und nutze das beste aus beiden Welten. USB Stick schreibt dir Proxmox schnell kaputt mit Standard log Setting. USB selbst ist (im Gegensatz zu ESXi) kein Problem, nur die Haltbarkeit der allermeisten USB Sticks is eben meh.
 
Ich hab aber nicht so viele Anschlüsse... bzw. hab so'n hübschen internen USB-A Anschluss, der sonst ungenutzt verkommen würde...
Proxmox schreibt exzessiv logs. Das kann man zwar weitgehend reduzieren, aber ein USB-Stick ist nicht optimal.
Wenn du ZFS nutzt, sind die USB-Controller auch oft nicht so gut geeignet, da unzuverlässig. NVMe wäre am besten, oder eben SATA SSD. Logs würd ich trotzdem wie im Link erklärt aus machen, um den SSD wear zu reduzieren.
 
Zuletzt bearbeitet:
Na gut. Habt mich überzeugt. Ist jetzt auf ner NVME. Erste VM mit Solaris 11.4 und LSI HBA im Passthrough läuft auch schon. :)
 
Proxmox schreibt exzessiv logs. Das kann man zwar weitgehend reduzieren, aber ein USB-Stick ist nicht optimal.
Wenn du ZFS nutzt, sind die USB-Controller auch oft nicht so gut geeignet, da unzuverlässig. NVMe wäre am besten, oder eben SATA SSD. Logs würd ich trotzdem wie im Link erklärt aus machen, um den SSD wear zu reduzieren.
Genau das hatte ich auch schon erlebt. Mein Proxmox läuft auf nem Thinclient mit ner i5 drinne. Da hab ich am Anfang ne 3TB SSD drangeklemmt und nach irgendnem YT Video als ZFS eingehängt. Dann ist irgendwas kaputt gegangen, jetzt dümpelt der Eintrag im Baum rum und ich bekomme ihn nicht gelöscht. Gibt es da einen einfachen Weg, wie ich den wieder raus kriege?
 
jetzt dümpelt der Eintrag im Baum rum und ich bekomme ihn nicht gelöscht.
Was fürn "Eintrag" denn? Also ein Scrub schadet nie - alternativ kannste die Platte mit ner ZFS LiveCD einhängen, den "Eintrag" löschen und den pool anschließend wieder exportieren. Schau aber, dass du die ZFS Version nicht versehentlich auf etwas upgradest, was von deinem Hauptsystem nicht unterstützt wird.
 
Was fürn "Eintrag" denn? Also ein Scrub schadet nie - alternativ kannste die Platte mit ner ZFS LiveCD einhängen, den "Eintrag" löschen und den pool anschließend wieder exportieren. Schau aber, dass du die ZFS Version nicht versehentlich auf etwas upgradest, was von deinem Hauptsystem nicht unterstützt wird.
Bin jetzt im Laden, mach heut abend aber gern nen Screenshot, dann weisst Du was ich meine. Das ist ein Eintrag im Baum - oder besser 2.
 
proxmox baum.JPG


So, das ist der Baum den ich meinte. die beiden Disks mit dem Fragezeichen, die würde ich gerne loswerden... und hab keine Ahnung, wie das geht.
Ansonsten finde ich diese Installation von Containern eine wahre Pracht, das hab ja sogar ich begriffen...

Kannst Du mir da helfen?
 
So, das ist der Baum den ich meinte. die beiden Disks mit dem Fragezeichen, die würde ich gerne loswerden... und hab keine Ahnung, wie das geht.
Ansonsten finde ich diese Installation von Containern eine wahre Pracht, das hab ja sogar ich begriffen...

Kannst Du mir da helfen?
Leider nicht. Das hat mit ZFS auch wenig zu tun, sondern eher mit Proxmox.
 
schaue bitte in der /etc/pve/storage.cfg nach.
Da steht dann sowas drinnen und die unerwünschten Einträge einfach rauslöschen:

Code:
dir: local
        path /var/lib/vz
        content iso,backup,vztmpl

zfspool: local-zfs
        pool rpool/data
        content rootdir,images
        sparse 1

pbs: pbs-hp
        datastore datastore1
        server pbs-hp.home.xxx
        content backup
        fingerprint xxx
        prune-backups keep-all=1
        username backup@pbs

zfspool: ssd-pool
        pool ssd-pool
        content rootdir,images
        mountpoint /ssd-pool
        nodes pve-tmxxxx
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh