[Sammelthread] Proxmox Stammtisch

Ultimativer Gegentest: ich würde als erstes mal den Laptop an den gleichen Port hängen, und dann versuchen was runter zu laden, idealerweise auch mit gleichen Kabel.
Guter Hinweis, soeben gemacht: Der Laptop kann auch da mit voller Geschwindigkeit ins Internet. Also Kabel und Port/Router scheinen da nicht das Problem zu sein.
Mit einer frischen PVE Installation sollte alles sauber sein. Als mögliche Fehlerquellen würden mir einfallen: Kabel, Netzwerkkarte, schrottiger Treiber, oder Systemauslastung weil irgendwas anderes am Rad dreht - sofern ab Router/Switch alles inOrdnung ist.
Auslastung ist im Promillebereich gering, sowohl bei Server wie auch Router.
Was mich eben so verwundert ist einfach, dass übers Netzwerk ja die volle Geschwindigkeit ankommt. Aber eine andere NIC verwenden, dürfte wohl trotzdem der nächste Schritt sein, danke.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Prüf mal den Connect Speed am Router/Switch. In seltenen Fällen wird ein Gerät auch mal nur als Fast Ethernet erkannt (100 mbit oder weniger). Kabel tauschen schafft manchmal Abhilfe.

Weiterhin: in seltenen Fällen vertragen sich Netzwerkkarte (bzw Treiber) und Switch nicht und führen dann zu o.g. Problem.

Falls vorhanden, kanst Du mal einen Switch dazwischen klemmen, also PVE ---- [eigentlich überflüssiger Switch] ------ [bisheriger Switch],
und dann schauen ob sich was ändert.
 
Energiesparmodi sind ein gutes Stichwort. Am Router und Switch ggf mal schauen, ob IEEE 802.3az (Green Ethernet oder auch EEE) aktiviert sind. Wenn ja, mal deaktivieren.

Proxmox zeigt im Standard auf ftp.de.debian.org, um Pakete zu aktualisieren. Die sind manchmal stark ausgelastet oder je nach Provider ist das Routing dahin sehr unglücklich. Stell die sources.list mal auf deb.debian.org um, das zeigt automatisch auf den für dich am besten geeigneten Mirror.
 
Hmm, irgendwie werde ich daraus nicht schlau. Nextcloud hat einfach ausm nichts aufgehört zu funktionieren. Kann da jemand helfen?

edit: ok, rollback und update und läuft wieder

Code:
Traceback (most recent call last):
  File "/usr/lib/python3/dist-packages/middlewared/job.py", line 509, in run
    await self.future
  File "/usr/lib/python3/dist-packages/middlewared/job.py", line 556, in __run_body
    rv = await self.middleware.run_in_thread(self.method, *args)
         ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/usr/lib/python3/dist-packages/middlewared/main.py", line 1367, in run_in_thread
    return await self.run_in_executor(io_thread_pool_executor, method, *args, **kwargs)
           ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/usr/lib/python3/dist-packages/middlewared/main.py", line 1364, in run_in_executor
    return await loop.run_in_executor(pool, functools.partial(method, *args, **kwargs))
           ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/usr/lib/python3.11/concurrent/futures/thread.py", line 58, in run
    result = self.fn(*self.args, **self.kwargs)
             ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/usr/lib/python3/dist-packages/middlewared/schema/processor.py", line 183, in nf
    return func(*args, **kwargs)
           ^^^^^^^^^^^^^^^^^^^^^
  File "/usr/lib/python3/dist-packages/middlewared/schema/processor.py", line 55, in nf
    res = f(*args, **kwargs)
          ^^^^^^^^^^^^^^^^^^
  File "/usr/lib/python3/dist-packages/middlewared/plugins/apps/app_scale.py", line 51, in start
    compose_action(app_name, app_config['version'], 'up', force_recreate=True, remove_orphans=True)
  File "/usr/lib/python3/dist-packages/middlewared/plugins/apps/compose_utils.py", line 61, in compose_action
    raise CallError(err_msg)
middlewared.service_exception.CallError: [EFAULT] Failed 'up' action for 'nextcloud' app. Please check /var/log/app_lifecycle.log for more details
 
Zuletzt bearbeitet:
Prüf mal den Connect Speed am Router/Switch. In seltenen Fällen wird ein Gerät auch mal nur als Fast Ethernet erkannt (100 mbit oder weniger). Kabel tauschen schafft manchmal Abhilfe.

Weiterhin: in seltenen Fällen vertragen sich Netzwerkkarte (bzw Treiber) und Switch nicht und führen dann zu o.g. Problem.

Falls vorhanden, kanst Du mal einen Switch dazwischen klemmen, also PVE ---- [eigentlich überflüssiger Switch] ------ [bisheriger Switch],
und dann schauen ob sich was ändert.

Energiesparmodi sind ein gutes Stichwort. Am Router und Switch ggf mal schauen, ob IEEE 802.3az (Green Ethernet oder auch EEE) aktiviert sind. Wenn ja, mal deaktivieren.

Proxmox zeigt im Standard auf ftp.de.debian.org, um Pakete zu aktualisieren. Die sind manchmal stark ausgelastet oder je nach Provider ist das Routing dahin sehr unglücklich. Stell die sources.list mal auf deb.debian.org um, das zeigt automatisch auf den für dich am besten geeigneten Mirror.
Hallo ihr zwei,

bin noch nicht dazu gekommen, alles zu testen wie von euch vorgeschlagen, da wir mitten im Umzug sind. Hab jetzt allerdings auch mal den Server an seinen künftigen Einsatzort gebracht und dort die Internetleitung eingerichtet. Dabei hab ich mit Speedtest im Proxmox festgestellt, dass er zwar nur ~3,x MBit/s im Download hat, aber die ~550MBit/s Upload kommen an :fresse:
Also durchaus etwas merkwürdig und ich kann wohl zumindest das Debian-Repo ausschließen. Werde als nächstes Mal den zusätzlichen Switch testen und dann eben auch eine andere NIC.
 
Uhm was ist denn dies hier:
can't add vlan tag 50 to interface enxbe3af2b6059f - the interface name enxbe3af2b6059f.50 is too long at /usr/share/perl5/PVE/Network.pm line 174.
Das interface ist eine 40g Mellanox Karte, die sind nun mal so benannt - und nu?
 
Bug-Alert?
Da kann das Skript wohl nix mit ENX-Interfaces anfangen...

//Edith:
1741111699644.png

Oder iproute2 / Kernel macht Stress.

//Edith2:
iproute2:
 
Zuletzt bearbeitet:
Nicht ganz ein Bug, war aber die richtige Richtung - systemd will das der Name nicht länger als 16 Zeichen ist. Nu reichts, das 40g KRams fleigt raus, es nervt einfach nur das immer wieder was dran geschraubt werden muss das es vernünftig läuft. Screw that shit, next upgrade irgendwann mal entweder 25 oder 100....
 
Ach, der Kernel sogar - danke fürs richtig stellen!
Nunja, ich werd nu auf 10G setzen, 40G ignorieren und beizeiten dann auf 25/100 wechseln.
 
Wie verhält es sich denn mit ZFS/Proxmox, wenn man den ZFS-Pool mit Consumer SSDs betreibt? Schlechte Idee in einem Homeserver? Backup ist natürlich klar, die Frage geht eher so in Richtung des TRIM Befehls und wie sich die Consumer-SSDs bei Stromausfall verhalten...

Hintergrund: habe mir einen HP EliteDesk 800 G5 Mini PC geschossen und überlege diesen als Server aufzubauen. Hat zwei 2280 M.2 Slots und man kann eine 2,5" SATA-SSD nachrüsten, auf die 2,5" SATA SSD könnte man das OS spielen und die beiden M.2 Plätze in einen ZFS-Pool legen. Wäre sicher schneller und stromsparender, als mein momentaner Server mit 3,5" Platten
 
Bei ZFS Trim und wenigen Desktop SSD gabs in der Tat Problemberichte bis hin zu Datenverlust. Meist wird Trim dann aber als nicht unterstützt angezeigt. Wenn Trim geht und es keine Probleme bei Scrub gibt, ist es meist ok.

SSD ohne plp sind besonders problematisch ohne Raid also basic vdev oder basic slog. Da Platten sequentiell geschrieben werden hat man im Raid bei Problemen üblicherweise einen wiederherstellbaren Datenblock.
 
Folgendes Problem: Ich habe quasi das erste mal einen privilegierten CT erstellt, darin soll Docker laufen. Nun reagiert dieser CT sehr langsam, teilweise Timeouts, und ich habe überhaupt keine Idee, warum das so ist. Lt. Summary ist die Auslastung quasi nicht gegeben und er wurde gerade erst erstellt. Gestern hatte ich das auch schon bemerkt. Quelle ist jeweils debian-12-standard_12.7-1_amd64.tar.zst.

Edit: Wenn ich das Ganze als unprivilegierter CT aufsetze, gibt es diese Probleme nicht. Docker scheint trotzdem zu laufen. 😅

Edit2: Dafür verursacht es jetzt dauerhaft 100% CPU-Auslastung. ☹️
 
Zuletzt bearbeitet:
SSD ohne plp sind besonders problematisch ohne Raid also basic vdev oder basic slog. Da Platten sequentiell geschrieben werden hat man im Raid bei Problemen üblicherweise einen wiederherstellbaren Datenblock.
Zwei Fragen hierzu:

1. finde auf geizhals z.B. kein Filterkriterium für power loss protection bei den SSDs - gibt es das nicht, heißt das vielleicht nur anders, oder wie finde ich raus, welche SSDs das Feature haben?

2. Hier steht "ZFS Barriers gewährleisten einen konsistenten Zustand auf dem Medium für Geräte, deren Caches flüchtig sind (z.B. HDDs oder SSDs ohne PLP)." mit einem Verweis auf den Parameter zil_nocacheflush bei OpenZFS. Heißt das, dass das Problem bei (Proxmox)ZFS doch nicht existiert?
 
Wenn Du PLP haben willst, bleiben Dir nur Datacenter SSDs, ein Beispiel ist die Samsung PM9A3; oder SM863, SM883/PM883 für Sata. Die einzige Ausnahme sind Intel Optanes 800P/900P/905P, die haben kein Problem mit Powerlosses weil sie ganz andere Speicherarchtitektur haben.

Wenn Du Consumer-SSDs zu permanenten Cacheflushes zwingst, oder zu ZFS-Syncwrites (kann man im Dataset / Volume per ZFS Property erzwingen), dann killst Du schnell jegliche Performance.


Im Prinzip hast Du, alltagstauglich, nur zwei Auswahlen: Datacenter mit PLP oder Vertrauen dass nix passiert.

Es kommt halt immer drauf an, was Du mit den SSDs anstellst. Fileablage mit wenig permanenten I/O-Datenvolumen ist was anderes, als wenn Du da nen Exchange oder Oracle-Server drauf laufen lässt.

Ich hab Proxmox daheim sowohl mit Pools aus PM9A3 8TB als auch SN850X 4TB oder 870 Evo 4TB.
Was Du meiner Meinung nach dringend vermeiden solltest sind irgendwelche Billo-SSDs mit niedrigen TBWs und ohne Dram-Cache (Für Experimentieren und Lernen geht das natürlich auch).

=> ZFS hat kein Problem mit guten Consumer-SSDs in Mirror-Pools oder Raidz im Homelab, wenn sie im richtigen Anwendungsfall genutzt werden. Du musst halt bissl Einschätzen können, was damit passieren soll.
 
geizhals.png


@luckyspiff
<weitere filter anzeigen lassen> und dann gaanz unten, 3ze Zeile von unten, da kann man das auswählen.

Neben den Samsungs die @Trambahner schon erwähnt hat kommen z.B. noch Kingston Data Center DC 600 und Micron 7300 7400 7500 in Frage.

Ich habe noch eine Micron 7300 - 960GB als m2 zu verkaufen, und noch 3x Micron, weis aber nicht genau ob das nun 7300 oder 7400 sind.
Beitrag automatisch zusammengeführt:

Folgendes Problem: Ich habe quasi das erste mal einen privilegierten CT erstellt, darin soll Docker laufen. Nun reagiert dieser CT sehr langsam, teilweise Timeouts, und ich habe überhaupt keine Idee, warum das so ist. Lt. Summary ist die Auslastung quasi nicht gegeben und er wurde gerade erst erstellt. Gestern hatte ich das auch schon bemerkt. Quelle ist jeweils debian-12-standard_12.7-1_amd64.tar.zst.

Edit: Wenn ich das Ganze als unprivilegierter CT aufsetze, gibt es diese Probleme nicht. Docker scheint trotzdem zu laufen. 😅

Edit2: Dafür verursacht es jetzt dauerhaft 100% CPU-Auslastung. ☹️

Hast Du mal beim CT unter Resources mehr CPU Kerne und Speicher zugewiesen ?
 
Hast Du mal beim CT unter Resources mehr CPU Kerne und Speicher zugewiesen ?
Jau. Mit zwei Kernen statt einem wird nur einer voll ausgelastet. Ist aber trotzdem viel zu viel. RAM ist massig zugewiesen.
 
Ohne plp gibt es Möglichkeiten, Schreibaktionen sicherer zu machen, meist auf Kosten der Performance. Die helfen aber nicht bei SSD Hintergrundaktionen (Garbage Kollektion, Trim). Ist also besser als nichts ohne so sicher zu sein wie echte SSD plp vor allem in Hardware. Nicht ganz so gut ist PLP in Firmware, manchmal ist plp auch nur ein Marketingversprechen ohne Wert. https://www.kingston.com/en/blog/servers-and-data-centers/ssd-power-loss-protection.

Im Prinzip ist es Wahrscheinlichkeit. Wie selten darf etwas passieren. Je niedriger das Risiko, desto aufwendiger/teurer.
 
Edit2: Dafür verursacht es jetzt dauerhaft 100% CPU-Auslastung.
Schuld war ein Postfix, der wohl vorinstalliert in dem LXC daher kam. Da ich in Docker als Netzwerk "Host" verwendet hatte, wurde mir die Portüberschneidung nicht angezeigt. Jetzt, wo Postfix weg ist, läuft es sauber. :-)
Das gilt alles nur für den unprivilegierten LXC, der privilegierte LXC macht von Anfang an Probleme bei mir, aber wenn ich den eh nicht brauche, auch egal.
 
Zuletzt bearbeitet:

Energiesparmodi...
Hallo ihr beiden :wink:

Ich kann endlich finales Feedback geben, was der schuldige war - nämlich nicht Proxmox und nur bedingt die Netzwerkhardware (bzw doch, aber anders): Ich hatte aus den Standard-Einstellungen heraus das IPMI sowohl auf der Management-NIC als auch auf dem ersten normalen Netzwerkadapter gebunden, auf dem zeitgleich Proxmox lief. Offenbar lag hier der Fehler. Seit das IPMI sauber getrennt ist, kommt im LAN wie auch im Internet das volle GBit Bandbreite an.
Mir ist immer noch nicht ganz klar, warum das Problem nur nach Außen bestand und im LAN problemlos lief, aber seis drum.

Danke auch jedenfalls für die Hilfe!
 
Hi

Habe ein nested Proxmox auf dem ESXi auf ein neues Netzwerk Interface umgezogen. Hatte dazu

/etc/network/interfaces
/etc/hosts

angepasst.

Proxmox ist nun erreichbar. Nun habe ich ein openindiana aufgesetzt. Aber bei dem steht, dass Netzwerk getrennt sei. Hat da wer eine Idee, an was das liegen könnte?


Screenshot 2025-03-12 194541.jpg



Screenshot 2025-03-12 194631.jpg



Proxmox liegt auf einem VLAN auf dem ESXi:

Screenshot 2025-03-12 195442.jpg


Aber dort läuft der DHCP in dem betreffendem VLAN 29. Denke, es ist ein Problem mit dem Proxmox. Netzwerkinterface vom OpenIndiana habe ich schon entfernt und neu hinzugefügt. Auch wenn ich openindiana eine fixe IP gebe, kann ich nicht mal den Gateway pingen.
 
Zuletzt bearbeitet:
Ich bin der Meinung, du musst unter ESXI unter "Security Policy" alles auf "Yes" haben, da über das Proxmox Interface durch die nested VMs ja mehrere MAC-Adressen ankommen.
 
Ahja, genau das wars. Danke. Und zwar auf der entsprechenden Portgruppe. Bin ich schon mal darauf rein gefallen, hätte ich wissen müssen.
 
Zuletzt bearbeitet:
Hallo,

SSD für Datencenter oder Rechenzentrum sind ja OEM! Wenn man die als Endkunde bei Onlinehändler (z.B. Jaco#) kauft. Wie sieht das mit der Garantie aus?

Habe was gefunden zu einer SSD bei einer Preissuchmaschine. OEM-Produkt. Kein Support und Herstellergarantie für Endkunden!
Heißt das ich da keine Garantie drauf habe, auch nicht mal die 2 Jahre Standard.
Könnt ihr mir da weiter helfen?

Oder wo kauft ihr eure Datencenter SSD z.B. von Samsung?
 
Bitte nicht gesetzliche Gewährleistung und Herstellergarantie verwechseln.

Als Endkunde hast Du immer gesetzliche Gewährleistung ggü. Deinem Händler gemäß BGB. D.h. 2 Jahre bei Neuware, im ersten Jahr muss der Verkäufer nachweisen das die Ware einwandfrei war, im zweiten Jahr der Käufer dass die Ware Mängel hatte. Als Gewerbetreibender sieht das anders aus, da gelten andere Regeln.
Herstellergarantie ist eine freiwillige Leistung vom Hersteller nach seinen AGB.

PS: Dies ist keine Rechtsberatung.

Meine DC SSDs hab ich über Jacob gekauft.
 
Preisfrage: Ich habe hier noch eine defekte u2 SSD Samsung pm9a3 in 2 TB, Modell MZ-QL21T90 , Herstelldatum lt Aufdruck 2022-04.
Rechnung habe ich nicht, bzw nicht mehr auffindbar. Gibt es eine Chance, die irgendwie zu reklamieren?
 
Dann werde ich mir wohl einen Controller zulegen müssen. Gibt es da Empfehlungen? Pci e 4x idealerweise und mindestens 4x sata?

ich hab proxmox und sata onboard controller passthrough zum laufen bekommen - smart funktioniert auch und spindown auch

1. IOMMU im Bios aktivieren
2. nano /etc/default/grub
3. dort dann amd_iommu=on hinzufügen (bei intel intel_iommu=on) beispiel GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt"
4. update-grub
5. proxmox neustarten
6. folgende befehle eingeben

echo "vfio" >> /etc/modules
echo "vfio_iommu_type1" >> /etc/modules
echo "vfio_pci" >> /etc/modules
echo "vfio_virqfd" >> /etc/modules

7. proxmox neustarten
8. lspci -nn | grep SATA

5aAJDuz.png


9. die id notieren in meinem fall 76:00.0 und 1022:43f6
10. befehle eingeben (muss man anpassen mit der id)

echo "options vfio-pci ids=1022:43f6" > /etc/modprobe.d/vfio.conf
echo "blacklist ahci" >> /etc/modprobe.d/blacklist.conf
update-initramfs -u

11. proxmox neustarten
12. in die gui von proxmox gehen
13. datacenter -> resource mapping > dort dann die id von vorher suchen und mappen

ROrsUrj.png


13. vm erstellen (nicht starten)
14. hardware -> add -> pcie device -> gemapptes device auswählen

i79GaUJ.png


:)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh