[Sammelthread] Proxmox Stammtisch

Muss nochmal Fragen: Gibt es jemanden der ein Backup seiner VMs und LXC auf dem Proxmox macht mit rollierenden USB-Platten? Derzeit schiebe ich alles auf einen PBS, aber ich möchte was Offsite in nen Schrank legen und das einmal im Monat wechseln...
Wenn es darum geht innerhalb des Proxmox Universums zu bleiben dann wäre die Lösung Proxmox Backup Server (PBS), idealerweise auf einem weiteren physischen Host und dort jeweils als Storage eingebunden die jeweilige USB-Platte. Die Backup-Jobs kannst du dann manuell starten. Wenn du keine weitere Hardware opfern möchtest gibt es auch die Möglichkeit PBS als LXC / VM innerhalb des Proxmox Servers zu installieren. Was da die Vorteile gegenüber einem direkt gemounteten USB-Storage sind weiß ich nicht. Schön wäre in der Tat eine eingebaute "USB-Backup" Lösung für manuelle Backups, ähnlich wie es bei den kommerziellen NAS-Anbietern der Fall ist. Vermutlich ist das aber einfach kein Use-Case der (zahlenden) Proxmox Nutzer.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi
ich bräuchte mal einen Tipp was ich an Storage verbauen soll...ich habe hier stehen ... ein Dell Optiplex 7090, i5-10505, 64GB Ram, 10G NIC. Nun bin ich mir mit den SSDs unschlüssig. Hier liegen habe ich:

- Sabrent 2TB NVME
- Sandisk 1TB NVME
- 2 x 512GB 850 Pro
- Samsung PM981 256 GB NVME

Alles kein Enterprise und ich weiß auch nicht, ob ich mir damit einen Gefallen tue, wenn ich das so verbaue - vorher bei esxi hat mich das alles nicht so gejuckt. Das läuft auf dem PVE, kommen denke ich aber noch 10 Container dazu.

asdfs.JPG


Effektiv Speicherplatz benötige ich vermutlich nicht mehr wie 2TB.

Danke
 
Hi
ich bräuchte mal einen Tipp was ich an Storage verbauen soll...ich habe hier stehen ... ein Dell Optiplex 7090, i5-10505, 64GB Ram, 10G NIC. Nun bin ich mir mit den SSDs unschlüssig. Hier liegen habe ich:

- Sabrent 2TB NVME
- Sandisk 1TB NVME
- 2 x 512GB 850 Pro
- Samsung PM981 256 GB NVME

Alles kein Enterprise und ich weiß auch nicht, ob ich mir damit einen Gefallen tue, wenn ich das so verbaue - vorher bei esxi hat mich das alles nicht so gejuckt. Das läuft auf dem PVE, kommen denke ich aber noch 10 Container dazu.

Anhang anzeigen 804494

Effektiv Speicherplatz benötige ich vermutlich nicht mehr wie 2TB.

Danke
Keine Ahnung, aber wenn du den Kram eh übrig hast nimm halt die größte SSD?
 
Mal ehrlich: ich nutze seit 8 Jahren consumer SSDs (EVO) im zfs, sogar schon als noch kein trim unterstützt wurde. Die liefen 24/7. Keine SSD ist bisher gestorben.
 
Die SanDisk und die zwei 850Pro verkaufen, vom Erlös eine zweite 2TB NVME kaufen (mit ungefähr gleichen Werten wie deine Sabrent) —> aus den beiden dann einen ZFS Mirror, schon hast du deine 2TB. Die 256GB NVME gibt ein prima Bootlaufwerk und ISO Storage.
 
Die SanDisk und die zwei 850Pro verkaufen, vom Erlös eine zweite 2TB NVME kaufen (mit ungefähr gleichen Werten wie deine Sabrent) —> aus den beiden dann einen ZFS Mirror, schon hast du deine 2TB. Die 256GB NVME gibt ein prima Bootlaufwerk und ISO Storage.
macht dann eine 2. 2tb nvme sinn oder lieber alles weg, ne 256er als bootplatte und 2 x 1,92tb enterprise ssds für zfs kaufen?
 
Bei Verwendung im Homelab und im Zusammenspiel mit den restlichen Komponenten sollte eine zweite 2TB völlig ausreichend sein. Nur keine mit QLC Flash sollte es sein.
Die Datacenter / Enterprise SSDs können ihre Vorteile im Homeserver Bereich meist gar nicht richtig nutzen. Die paar Container / VM erzeugen ja keine kontinuierliche Schreiblast.
 
Ich habe zwei 850 EVO als Bootplatte und noch ein paar SSDs für CT und VM. Läuft gut. Und solange man keine VM als Desktop-Ersatz nutzt und nur über's LAN kommuniziert, ist eh die NIC der limitierende Faktor.

Bei mir ist tatsächlich 10G der Flaschenhals.
 
Ich persönlich denke bei Enterprise SSDs nicht umbedingt an konkurrierende Zugriffe (da sind ja normale NVMEs schon echt gut aufgestellt) sondern ich denke da vor allem an EPLP - wenn dir wegen einem Stromausfall Daten verrecken, das Betriebssystem davon aber nichts mitkriegt ist das schon kacke. Ich habe daher "wichtige" VMs auf einer kleinen Enterprise-SSD (zusammen mit dem proxmox) und unwichtiges schnelles auf mehreren NVMEs die Consumer-Ware sind. Fand ich den besten Trade-Off.
 
Ich habe zwei 850 EVO als Bootplatte und noch ein paar SSDs für CT und VM. Läuft gut. Und solange man keine VM als Desktop-Ersatz nutzt und nur über's LAN kommuniziert, ist eh die NIC der limitierende Faktor.

Bei mir ist tatsächlich 10G der Flaschenhals.
Ich habe eine Windows-VM auf der ich von extern eigentlich immer verbunden bin, für Mail und sonstigen Kram.

Bei Enterprise SSDs, die ich als Single Disk betreibe habe ich aber nix von der 10G Karte, die ich verbaut habe, aber gut, wann braucht man das schon.
 
Auf meinem "Eigenbau-Server" (Signatur) läuft derzeit nur TrueNAS Scale - möchte aber auf Proxmox als OS umsteigen und unter anderem TrueNAS als VM betreiben.

Mein "Datenpool" (HDD's+SSD's) hängen an einem HBA (it-mode) => möchte ich dann 1:1 an die TrueNAS-VM durchreichen.


Meine Frage wäre allerdings, wie setzt man das mit den Datenträgern für Proxmox + ISO's + VM's am besten um!?
Da blicke ich irgendwie noch nicht so wirklich durch!?


Folgende Möglichkeiten habe ich "herumliegen":
1x neuwertige Samsung 970 Pro (NVMe)
1x neuwertige Intel DC S3710 400 GB (SATA)
1x neuwertige Intel DC S3700 200 GB (SATA)


Drauf laufen wird dann:
1x TrueNAS als VM
1x Win10 mit KFZ-Ersatzteilkatalogen
1x PlexServer (als VM, oder Dockern - ist noch unklar)
ev. 1x Win11 für Testzwecke

Zugegriffen wird über GbLan von max. 2 Benutzern gleichzeitig.

Sichern würde ich dann auf ein freigegebenes Verzeichnis auf meinem TrueNAS.


Wie "setzt" man das jetzt richtig auf!?


Danke!


LG
 
Ich habe nur zfs striped mirrors aus SSDs im Einsatz. So würde ich es auch immer empfehlen.
 
Ich habe nur zfs striped mirrors aus SSDs im Einsatz. So würde ich es auch immer empfehlen.

Eine kleine Ausfallzeit wäre bei mir eigentlich egal.
Proxmox kann man ja die Konfig. sichern und dann wieder relativ schnell neu aufsetzen - oder?


Schätze mal, dass mein "Server" auch so schon genug Strom zieht - ist ist eine weitere DC-SSD nicht unbedingt hilfreich.
;-)

LG
Beitrag automatisch zusammengeführt:

Stimmt es, dass man bei Proxmox nicht "out of the box" einfach irgendwelche PCIe-Karten durchreichen kann!?
 
Zuletzt bearbeitet:
Also ich hab auf meinem proxmox auch ein TrueNAS laufen. Onboard HBA ist durchgereicht an die TrueNAS VM, ebenso die Hälfte einer Intel NIC 520, die andere Hälfte nutzt das proxmox selber. Ich hab weitere VMs am Laufen mit weiteren / anderen PCIe Karten, die habe ich ohne Probleme durchreichen können - keine Ahnung was hier "out of the Box" heißen soll...
Ich persönlich habe 2 Intel DC SSD, eine für proxmox und eine für "wichtige" VMs, und "unwichtige" VMs mit Speedbedarf hängen auf einer PCIe-M.2-SSD-Karte...


Edit: Aaaa okay das ist gemeint @MisterY - das ist sooo lange her bei mir, ganz vergessen ;)
 
Zuletzt bearbeitet:
Warum hast du nicht virtio genutzt? Für pfsense oder so, okay, aber normale VMs kommen doch mit virtio sehr gut klar
 
Warum "verschwendest" du eine komplette nic an eine VM, wenn du mit Linux Bridges und virtio eine einzige an so viele VMs anbinden kannst, und das in unterschiedlichen VLANs?
 
Weil durchreichen weniger komplex ist und die da nicht verschwendet ist - sie ist genau da wo sie hingehört. In dem System sind 4 Netzwerkanschlüsse und die TrueNAS VM hat einen einzelnen physischen SFP+ Port, weil ich gerne "in Hardware" segmentiere - damit passt sie ganz gut zu dem zweiten NAS auf das ich vom TrueNAS aus backupe - und diesem Backup sollen die anderen VMs im Zweifelsfall nicht dazwischen funken. Klar kann man das anders lösen, aber ich habs halt so gemacht - von verschwenden kann da gar keine Rede sein ;)
 
Dennoch in meinen Augen Verschwendung. Ich habe auch 4 NICs, die aber 30 CTs und VMs in unterschiedliche VLANs bringen. Mein zweiter Proxmox Server hat einfach bis auf die IPs für den Host die identische LAN-Config. Da kann man migrieren wie man lustig ist
 
Aber Verschwendung von... was? Ich hab solche Dinge gerne mit so wenig Komplexität wie möglich, damit ich sie notfalls von Null auf von Hand ohne Backup wieder hochziehen kann. Das erreiche ich so, und was verliere ich bzw. was ist verschwendet? Bandbreite? Flexibilität? Bandbreite braucht nur das NAS, und ich hab genau ein anderen REchner der auch nur ansatzweise in Richtung 10Gbit kommt, und das auch nur wenn ich von NVMe zu NVMe kopiere, was ich eigentlich niemache weil... meine Hauptdaten auf HDDs liegen. Genaugenommen hätte mir GBit völlig gereicht. Wo siehst du genau Verschwendung? Man sollte sich immer genau die Anwendungsfälle anschauen - Technik nur einsetzen um der Technik willen mache ich bei meinem eigenen PC, aber der Server stellt auch meiner Frau Dienste bereit - das MUSS quasi dumm sein :d
 
Verschwendung im Sinne von:
Du hast 2 VMs und 2 NICs durchgereicht.
Nun möchtest du VM3 installieren. Du hast aber keine NIC mehr. Also noch eine NIC eingebaut.
Dann möchtest du VM4 installieren. Du hast aber keine NIC mehr. Also noch eine NIC eingebaut.
Das ist nicht unkompliziert, das ist absolut überflüssig und zu arbeitsintensiv.

Und nun möchtest du CTs installieren. Und nun?
 
Und: bevor du in einem anderen Server nach einer Migration das alles wieder eingerichtet hast, habe ich schon längst die Network config Datei aus einem Backup eingelesen, ein reboot und schon funktioniert alles
 
Erm wovon redest du? Ich hab eine Intel X520, die hat 2 SFP+ ports. Eiern davon ist dediziert der TrueNAS VM zugewiesen via PCIe passthrough. Der zweite Port steht dem proxmox host zur Verfügung, und dieser stellt sie den VMs als virtuelle Netzwerkinterfaces zur Verfügung - und die haben da MASSIV mehr Bandbreite als sie jemals bräuchten. Wo verschwende ich hier irgendwas? Dein Szenario macht keinen Sinn.
 
So wie du es vorher beschrieben hattest, klang es so, als ob du jeder einzelnen VM eine eigene NIC durchreichst
 
Okay, dann hab ich mich da missverständlich ausgedrückt - nur die VM die meine Fileraufgaben übernimmt hat eine eigene physische Verbindung zur Aussenwelt, der Rest geht über die virtuellen Interfaces vom proxmox, die auf der 2ten 10GB Verbindung aufliegen. Sorry.
 
Hallo zusammen,

ich würde mich mal gerne mit Proxmox beschäftigen, habe nun aber gelesen, dass Proxmox Consumer SSDs sehr schnell "abnutzt" (wearout).
Nach ein bisschen Suche habe ich herausgefunden, dass man das eindämmen kann, wenn man einige Einstellungen vornimmt.
Zitat:
Stop and disable rsyslog and journald
Ist das ratsam? Und wenn nicht, welche Möglichkeiten habe ich, für ein experimentelles Lab das Wearout so gut wie möglich zu verhindern?

Hier noch einige Quellen:

Vielen Dank im voraus für alle hilfreichen Antworten.
 
Das einzige, was du deaktivieren solltest, ist pve-ha-lrm und pve-ha-crm. Das wird nur für Cluster benötigt und schreibt regelmäßig.

Syslog und Journald solltest du aktiviert lassen.

Hier ein Link, was du alles machen kennst: https://wiki.chotaire.net/proxmox-various-commands


Ich habe in meinem Server seit über 5 Jahren nur consumer SSDs (EVO 860 und WD Red 500) verbaut. Wearout liegt bei 1-11 %.

Wirst du ein HBA verwenden?
 
Ich habe in meinem Server seit über 5 Jahren nur consumer SSDs (EVO 860 und WD Red 500) verbaut. Wearout liegt bei 1-11 %.
Vielen Dank, das klingt erstmal akzeptabel.

Wirst du ein HBA verwenden?
Wenn du damit einen Host Bus Adapter meinst: Nein.

Folgende Hardware kommt zum Einsatz:
  • Fujitsu D3417-B2
  • Intel Xeon E3 1225v5
  • 2x16GB ECC RAM
  • Samsung 980 Pro 2TB (auf dem Board gibts NVMe, wird auch richtig erkannt)
  • Pico PSU 150W
  • Fractal Define Mini C

Mehr wird es nicht. Sollte sich eignen oder?

Syslog und Journald solltest du aktiviert lassen.
Die Frage klingt jetzt doof, aber warum (wenns nur ein Experimentierschlitten wird)? Nur damit ich es verstehe.

Ich würde auch gern ZFS on Root verwenden - spricht was dagegen bezüglich des Wearouts? Gibts da spezielle Dinge zu beachten?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh