[Sammelthread] Proxmox Stammtisch

Hallo zusammen,

seit Jahresanfang nach einem größeren Update, tritt bei mir folgendes Problem auf:

Irgendwann läuft meine Netzwerkkarte in ein "Detected hardware unit hang" und die ganze Maschine ist tot.
Am Anfang war es alle 4 Wochen mal, aber diese Woche war es schon öfters zum Teil 2 Mal innerhab von 2 Stunden.

Jetzt scheint das Problem nicht all zu unbekannt zu sein und lässt sich wohl mit einem Kernelupdate verbinden. Mit diesem Update wurde wohl ein anderes Problem "gehotfixt"
Genaue Infos habe ich gerade nicht parat.

Dieser und ähnlichen Quellen nach
https://www.taste-of-it.de/proxmox-ve-detected-hardware-unit-hang/

kann ich auf der Schnittstelle irgendwelche Checksummengeschichten deaktivieren.
Aus div. Quellen konnte ich entnehmen, dass damit die maximale Bandbreite der Schnittstelle begrenzt wird.

Irgendwie fühlt sich das für mich nach Frickelei an, ich meine die Optionen die man da deaktiviert haben doch bestimmt ihre Berechtigung.
Wenn auch ggfs im privaten Umfeld nicht unbedingt zum Tragen kommt.

Meine Überlegung war, den Kernel auf einen Stand vor Januar zu bringen.
Die Infos finden sich bestimmt, im schlimmsten Fall würde ich vom Installationsmedium den Kopieren. Hatte ja erst letztes Jahr, ich meine zu Weihnachten, die Maschine neuaufgesetzt.

Kennt von euch jemand das Problem und kennt eine andere, ich will sie mal bessere Lösung nennen?

Danke
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das debian strech Paket - 232-25+deb9u11
 
danke... wollen wir mal hoffen, dass Problem bis Jahresende gefixt wurde.. Will da eigentlich auf einen Ryzen umsteigen
 
Debian Buster, welches die Grundlage für PVE6 ist, ist davon nicht betroffen, wurde kurz vor Release noch gefixt. Ältere Versionen sowieso nicht.
Ich sitze wie auf Kohlen und warte auf den Final Release von PVE6. Da hängt gerade einiges dran. Beta ist seit letzter Woche (noch vor dem endgültigen Buster Release) draußen. Final sollte auch in den nächsten Tagen kommen, sofern alle kritischen PVE Bugs behoben sind.
 
echt? PVE6 kommt schon bald? Dann sollte das ja weniger ein Problem sein.. bin da mal gespannt drauf
 
Räum gerade schon meinen privaten Server auf, damit ich die Beta installieren kann ;) (Will mal wieder neu installieren, schleppe mich schon seit PVE3 mit Updates durch).

Für einen Kunden gerade erst einen Epyc Server geordert, ich bin gespannt.
 
echt? PVE6 kommt schon bald? Dann sollte das ja weniger ein Problem sein.. bin da mal gespannt drauf
Mit PVE 5.x ist das noch weniger ein Problem. In den alten systemd Versionen ist das geänderte Verhalten bzgl. Randomness noch nicht drin.

Aussage Proxmox: PVE6 kommt, sobald Buster stable ist (check) und sobald alle PVE-releasekritischen Bugs behoben sind:
Proxmox VE 6.0 beta released! | Proxmox Support Forum
Ich werde mit der Beta nicht erst experimentieren, da ich mit einem zeitnahen Release rechne. Buster ist ja schon ewig freezed gewesen und die haben ja nicht erst letzte Woche mit PVE6 angefangen. Schön ist, dass auch zol 0.8 schon backported wurde.
 
genau... um zol 0.8 geht es mir ja.. hab da einige SSDs mit im Einsatz.. Trim kann da ganz gut tun. Bisher sind die SSDs nur als Cache im Einsatz.
 
Da die Beta sich auf Prod upgraden lässt, kriegt das der Heimserver einfach ;)
 
genau @morph... bei mir ist da nix produktives.. .sondern nur Basteln... bin mal gespannt, ob ich dann Container direkt auf ein ZFS speichern kann.. .wäre mir sehr hilfreich
 
Das geht auch so schon ewig...zumindest mach ich das seit ZFS in PVE existiert so ;)
 
irgendwie klappt das bei mir mit den Zugriffsberechtigungen nicht so ganz
 
Screenshot from 2019-07-09 11-46-31.png
 
hatte ich gemacht.. sieht bei mir fast genauso aus.. nur das ich den Haken für Thin provision nicht gesetzt habe... wofür steht dieser?
Disk image geht ja auch bestens
Container kann ich nur auf dem local installieren. Also auf dem Stick

Edit... interessant:
A number of storages, and the Qemu image format qcow2, support thin provisioning. With thin provisioning activated, only the blocks that the guest system actually use will be written to the storage.

Say for instance you create a VM with a 32GB hard disk, and after installing the guest system OS, the root file system of the VM contains 3 GB of data. In that case only 3GB are written to the storage, even if the guest VM sees a 32GB hard drive. In this way thin provisioning allows you to create disk images which are larger than the currently available storage blocks. You can create large disk images for your VMs, and when the need arises, add more disks to your storage without resizing the VMs' file systems.

All storage types which have the “Snapshots” feature also support thin provisioning.
 
Zuletzt bearbeitet:
Ja, der Haken ist optional, für echte VMs aber ganz spannend. Was kommt denn für eine Meldung wenn du einen Container anlegen willst?
 
Code:
mounting container failed
TASK ERROR: unable to create CT 100 - cannot open directory //POOL: No such file or directory

mein Mountpoint ist eigentlich unter /media/pool/

- - - Updated - - -

ansonsten habe ich den Pool auch als Ordner eingebunden, da kommt diese Meldung:

Code:
()
Formatting '/media/pool/data/images/100/vm-100-disk-0.raw', fmt=raw size=8589934592
mke2fs 1.43.4 (31-Jan-2017)
Discarding device blocks:    4096/2097152               done                            
Creating filesystem with 2097152 4k blocks and 524288 inodes
Filesystem UUID: e942fc04-fb70-425b-9989-d460cc17753a
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632

Allocating group tables:  0/64     done                            
Writing inode tables:  0/64     done                            
Creating journal (16384 blocks): done
Multiple mount protection is enabled with update interval 5 seconds.
Writing superblocks and filesystem accounting information:  0/64     
Warning, had trouble writing out superblocks.
TASK ERROR: unable to create CT 100 - command 'mkfs.ext4 -O mmp -E 'root_owner=100000:100000' /media/pool/data/images/100/vm-100-disk-0.raw' failed: exit code 144
 
So, Upgrade auf 6.0.1 durchgeführt und läuft. Dann noch autotrim aktiviert und die ssds freuen sich
 
das Upgrade wird am WE bei mir passieren.. hat ja noch alles Zeit
bin aber auch schon sehr gespannt drauf
 
Würde mich wundern. Musst halt das Repository anpassen:
Code:
deb http://download.proxmox.com/debian/pve buster pvetest
Und wie immer bei Release Wechsel brauchst Du dist-upgrade.
Aber sinnvoll wäre es, Mal in den Upgrade Guide zu schauen:
https://pve.proxmox.com/wiki/Upgrade_from_5.x_to_6.0
 
Zuletzt bearbeitet:
Zum bsp gab es ja in der letzten Version von 5.4 die neue Funktionen bezüglich Spectre in VMs. Sowas meine ich.
 
Das meist erwartetste dürfte ZFS 0.8 mit Verschlüsselung und Trim sein.

Der Ceph Version Bump ist für die Nutzer sicherlich auch nett.
 
Zum bsp gab es ja in der letzten Version von 5.4 die neue Funktionen bezüglich Spectre in VMs. Sowas meine ich.
Deshalb habe ich auch Changelog von PVE6 und Debian 10 verlinkt.
Wenn Du weißt, was Du vermisst, siehst Du dort, ob sich der Umstieg lohnt. Ich bin z.B. happy über ZoL 0.8 und Samba 4.9. Das kann bei Dir völlig anders sein.
 
Ich bin stark an ZoL 0.8 bzgl. Trim und Encryption interessiert. Kann mir einer von euch bitte eine kleine Anleitung schreiben, was ich nach dem erfolgreichen PVE Update tun muss um diese Features bei meinem vorhandenen Pool zu aktivieren? Kann man die Encryption über die Gui einstellen? Ist Encryption für den Boot-Pool auch möglich? Vielen Dank vorab!
 
"zpool upgrade" sollte die features auf dem pool aktivieren. TRIM manuell geht mit "zpool trim <pool>", auto dürfte sich mit "zpool set autotrim=on <pool>" aktivieren lassen. Ohne zu lesen würde ich jetzt mal sagen, dass mal einen Pool nicht nachträglich verschlüsseln kann, da müsste man sicher einen neuen auf anderen Platten erstellen und die Daten dann via zfs senden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh