[Sammelthread] Proxmox Stammtisch

was ist besser: ein Striped Mirror aus 4 SSDs (500 GB 860 EVO) für Proxmox und LXC/VM, oder eine einzelne 250 GB 860 Evo nur für Proxmox und den Striped Mirror nur für LXC/VM? Backups werden zwar regelmäßig erstellt, aber kann man nach einer Neuinstallation von Proxmox die LXC/VM auch direkt weiternutzen, wenn man /etc/pve von der alten auf die neue Installation kopiert?

Ich habe ein wenig Sorge, dass die logs von Proxmox die SSDs totschreiben könnten. Da tausche ich lieber eine einzelne 250 GB SSD aus als gleich einen ganzen Satz.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich halte Proxmox und VMs am liebsten getrennt,

deshalb würde ich vorschlagen:

1 SSD OS Proxmox
die anderen SSDs für VMS/Container

bezüglich der logs musst du dir keine Sorgen machen die killen eine SSD nicht einfach so ;)
 
Ich hab das auch bei meinem DELL T30 so gemacht das auf der M.2 SSD Proxmox läuft und auf meinen beiden SSD (Raid 1) die VM´s. Dann hab ich ncoh zwei WD RED mit 3TB im Raid als Storage.
 
ich halte Proxmox und VMs am liebsten getrennt,

deshalb würde ich vorschlagen:

1 SSD OS Proxmox
die anderen SSDs für VMS/Container

bezüglich der logs musst du dir keine Sorgen machen die killen eine SSD nicht einfach so ;)
Das ist so nicht ganz korrekt. Ein Standard Proxmox auf ZFS schreibt laut den SMART Statistiken auf einer Consumer SSD wie der Evo Mindestens 60 GB am Tag.
Das hat irgendwas mit den Blockgrößen bei den SSDs zu tun und das machen viele Consumer SSDs nicht lange mit.

Hetzner hat bei mir etliche SSDs innerhalb der ersten 6 Monate getauscht, da die nach etwa 200 Terrabyte schlapp gemacht haben.
 
Man kann RRDcached entsprechend modifizieren oder bei Single Nodes den HA Service deaktivieren. Gedanken würde ich mir da nur bei kleinen Desktop SSD´s machen, die haben oft nur einen TBW Wert von 50-100Tb. Bei einer aktuellen Evo 860 mit 500gb braucht man schon eine Weile um 300Tb voll zu kriegen.
 
Ich betreibe mein Proxmox seit ziemlich genau 2 Jahren auf 2x 860 Pro 512GB und die haben laut SMART ungefähr 40TBW. Ich hab die Dienste pve-ha-crm und pve-ha-lrm deaktivert, dafür laufen ungefähr 15 LXC Container auf dem Pool. Nach 2 Jahren hab ich also 9% Wear auf den SSDs, das find ich vollkommend okay.
 
Ich betreibe mein Proxmox seit ziemlich genau 2 Jahren auf 2x 860 Pro 512GB und die haben laut SMART ungefähr 40TBW. Ich hab die Dienste pve-ha-crm und pve-ha-lrm deaktivert, dafür laufen ungefähr 15 LXC Container auf dem Pool. Nach 2 Jahren hab ich also 9% Wear auf den SSDs, das find ich vollkommend okay.
Da hast du aber kein ZFS laufen?!?
 
Doch, habe ich (Der Pool wurde April 2018 auf einer einzelnen 850 Evo 128GB erstellt und ungefähr 3 Monate später auf die beiden SSDs umgezogen):

Code:
History for 'rpool':
2018-04-24.20:52:12 zpool create -f -o cachefile=none -o ashift=12 rpool /dev/sda2

root@server:~# zpool status rpool
  pool: rpool
state: ONLINE
  scan: scrub repaired 0B in 0 days 00:09:46 with 0 errors on Sun Aug  9 00:33:52 2020
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdh2    ONLINE       0     0     0
            sdi2    ONLINE       0     0     0

errors: No known data errors


root@server:~# hdparm -I /dev/sdi | grep Model
        Model Number:       Samsung SSD 860 PRO 512GB
root@server:~# hdparm -I /dev/sdh | grep Model
        Model Number:       Samsung SSD 860 PRO 512GB

2020-08-12 11_24_27-Window.png
 
Interessant.
Ich bin mir dann gerade nicht ganz sicher woran das liegt.
Ich hab hier einen Server mit 2 Samsung 840 pro und da sieht es ebenfalls ok aus.
Die von Hetzner mit Micron oder Toshiba Consumer SSDs (auf oder unter Samsung Evo Niveau,) haben hingegen grauenvolle Werte.
Schreiben die intern andere Blockgrößen?
 
Das kann gut sein, ich weiß noch das bei meiner Evo das Wearlevel auch ganz schnell schwindelerregende Werte erreicht hat.
Ich habs damals auf 5 Jahre Dauerbetrieb mit einem normalen Ext4 unter Debian + eh schon geringe TBW (die 120er hat nur 72TB max.) geschoben.
 
Naja, wenn du z.B. einen 2 Jahre alten Server bekommst haben die Platten ggf schon 50% hinter sich.
 
Hi,
ich habe in einer VM einen Proxmox-Backup-Server laufen. Mein Server besitzt 3 NICs und ich habe dieser VM zwei davon zugewiesen (nicht durchgereicht). ich würde gerne ein Netzwerk-Bond mit Last-Verteilung erstellen auf zwei Subnetzen (VLAN1 und VLAN10). Ich möchte dem PBS zwei IPs zuweisen: 192.168.10.11 und 192.168.10.1. Da der Proxmox-Backup-Server nicht per default eine vmbr erstellt, bin ich da ein wenig ratlos, wie ich das am besten machen sollte. Hat da jemand eine Idee?

Ich habe bislang VLANs immer so konfiguriert: "vmbr1 = eth1.10".

Alternativ könnte ich es auch so machen: auf meinem Proxmox-Server (physich anderer Server) zwei Shares anlegen, einmal auf der IP xx.10.11 und einmal auf xx.1.11, sodass ich zeitgleich beide NICs befeuern kann. Wäre das sinnvoller?
 
Ich bin sehr begeistert von Proxmox und habe auch auf meinem PC damit ein wenig experimentiert. Nun möchte ich gerne einen festen Server installieren. Selbst zusammenbauen ist mir aktuell etwas mühsam. Daher würde ich lieber zu was fertigem übergehen. Aktuell nutze ich eine DS220+ noch als NAS, vielleicht würde ich die dann auch mit der Zeit verkaufen.

Welches fertige System empfehlt ihr für Virtualsisierung? 3-4 VM's sollten gut laufen könne und ansonsten paar Container.

Habe mir den
HPE ProLiant MicroServer Gen10, Opteron X3421, 16GB RAM (870210-421),
HPE ProLiant MicroServer Gen10 Plus, Xeon E-2224, 16GB RAM (P16006-421),
und
Dell EMC PowerEdge T40 (Prozessorwahl noch unschlüssig)

Bin mir da unsicher, was die beste Leistung bietet bzw. womit Virtualisierung mit Proxmox am Besten läuft.

Habt ihr da einen Tipp, was ihr empfehlt?
 
Läuft bei mir auf dem alten G8 wunderbar ;)

Die Frage ist, was deine VMs/Container brauchen. Eher RAM, eher CPU?
 
Ich denke her CPU. Mehr als 32GB RAM brauche ich auch langfristig sicherlich nicht. 16GB würden mir auch erstmal reichen.
 
Je nachdem was die "3-4 VMs" im Detail an Leistung benötigen. Der alte G10 hat die CPU verlötet und keinerlei Remote Management. Von daher eher der neue G10+ oder die Dell Büchse.
 
Storage Performance nicht vergessen. Sobald da auch nur annähernd fordernde VMs oder gar Windows Systeme drauf sind, solltest über SSDs nachdenken.
Moderne Windows Versionen sind auf HDD storage nahezu unbenutzbar.
 
Ja sollte schon Windows aushalten :-) Und Linux als Desktop z.B.

Danke für die Tipps. SSD halte ich auch für sinnvoll.
 
Hallo zusammen,

ich müsste eine iso als cd einbinden damit ich eine VM davon booten kann.
Leider finde ich den passenden befehl nicht, über die proxmox gui zeigt er mir komischerweise das storage nicht an..

Ich hab mich schon durch die qm man page gewühlt aber bin nicht fündig geworden :<
Habs hiermit probiert was zumindest mal beim einhänger eine cloud-init iso funktionierte, mit der ubuntu-server iso bekomm ich aber eine Fehlermeldung.

Code:
qm set 300 --cdrom local:ubuntu-server.iso
unable to parse directory volume name 'ubuntu-server.iso'

Habs auch mit --ide2 statt --cdrom versucht, selbe Fehlemeldung.

Steh da gerade etwas auf dem schlauch glaub ich, vielleicht hat ja wer den passenden befehl parat :)

Grüße und besten dank

Edit: erste suche nach dem abschicken des posts und ich hab die richtige syntax gefunden..

Code:
qm set 300 --cdrom local:iso/ubuntu-server.iso
 
Hast du das storage auch als iso storage konfiguriert?

Hi, problem ist ja mittlerweile behoben.
Dennoch, ja das Storage ist auch für ISOs eingerichtet:
Code:
dir: local
        path /var/lib/vz
        content iso,vztmpl

Mittlerweile wird mir das Storage auch wieder in der Proxmox oberfläche beim einbinden einer ISO angezeigt.
Warum das gestern nicht funkionierte weiß ich nicht..
 
Proxmox Ryzen 5900x Boost funktioniert nicht. :(

Hat wer schon den Boost der neuen Ryzens mit Proxmox hinbekommen?
Meiner bleibt bei statischen 3,7ghz. Was ne deutliche Minderung seiner normalen Leistung ist (Vergleich Win10 nativ vorher war 8300 Punkte).

Was ich versucht habe bisher:

  • Govenor ondemand
  • host cpu
  • grub einträge mit iommu
  • Bios settings auf Enabled, soweit möglich
  • linux-cpupower installiert
Durch die Änderungen zieht er nun sogar mehr Strom im Idle (100 statt 80) als vorher, ist aber nicht schneller geworden... :(

Liegs vielleicht am SeaBios? Hatte noch nicht via UEFI installieren können, afaik wird das auch schwierig, weil temporäre GPU aktuell das nicht kann...


Edit:
Multicore auf 24 Cpus ergab ~ 7174 Punkte. Hat ja 24 "Kerne". Nur noch 15% Unterschied.
Singlecore war aber miserabel mit ~350 Punkten :(

Edit2:
Multicore nun ~81xx Punkte. Läuft!
Singlecore um 510, ebenfalls richtig, weil "echte" Singlecore mit 2 Threads kaum möglich sind richtig zu testen. 2 "Cpu" sind über 1100 Punkte, er nimmt sich da nicht 1 Kern mit 2 Threads, sondern einfach 2 echte Kerne ohne deren extra Threads... :unsure:

Was hatte ich geändert? BIOS wieder auf Default Einstellungen gestellt und nur minimale änderungen gemacht (gpu ignore, Amd-V Support an), scheint sich besser zu vertragen.
Ram läuft nach wie vor noch nicht richtig im AMP Profil, da ich noch stable Mobo Updates abwarte...
 

Anhänge

  • no-boost.jpg
    no-boost.jpg
    73,3 KB · Aufrufe: 163
Zuletzt bearbeitet:
Hallo zusammen,

ich stehe irgendwie auf dem Schlauch... ich verstehe nicht, wie ich von einem unpriviligierten LXC-Container auf ein in der Config gemountetes Verzeichnis schgreibend zugreifen kann. Mir ist schon klar, wie es aktuell technisch funktioniert, also das zur User- und Gruppen ID 100000 addiert werden, aber mir ist nicht klar, was die Optionen, die ich unter https://pve.proxmox.com/wiki/Unprivileged_LXC_containers gefunden habe genau erwirken.

Meine Config sieht wie folgt aus:

Code:
arch: amd64
cores: 2
hostname: nas
memory: 1024
mp0: /mnt/tank_hdd1/workspace,mp=/mnt/workspace
nameserver: 10.10.10.254
net0: name=eth0,bridge=vmbr0,firewall=1,gw=10.10.10.254,hwaddr=A6:10:39:1B:A9:53,ip=10.10.10.238/24,ip6=dhcp,type=veth
ostype: debian
rootfs: local_SSD_VM:subvol-100-disk-0,size=12G
searchdomain: sash.de
swap: 1024
unprivileged: 1
lxc.idmap = u 0 100000 65536
lxc.idmap = g 0 100000 65536


insbesondere den letzten Teil habe ich eingefügt, weil ich annahm, dass dadurch der user mit der ID 1000 (Gruppe 1000) auf 101000 gemappt wird, welcher im LXC vorhanden ist.

Erreichen möchte ich letztlich nur, dass der User 1000 auf /mnt/workspace schreiben kann, ggf. auch noch User 1001 und 1002 etc.

Wenn ich die Rechte manuell, auf dem Proxmox Host auf User/Guppe 101000 setze funktioniert der Schriebzugriff problemlos.

In /etc/subuid und /etc/subgid steht folgendes:

Code:
sash:100000:65536
root:100000:65536


Wo ist mein Denkfehler?

Im Voraus besten Dank!
sash
 
Moin.
Ich habe gerade Proxmox installiert und bin mit der Hardware ein wenig unzufrieden, hätte das gerne auf einer anderen Hardware getestet ohne es neu installieren zu müssen. Kann ich die Platten einfach umbauen und dann booten, oder geht das definitiv schief?
Ich habe es auf einer alten Fortinet Fortianalyzer 1000D, Xeon E3-1225 V2, 4 kleine 240er SSDs mit ZFS-Z1 und 12 GB RAM, zieht im Leerlauf schon 45 Watt. Habe noch einen Dell T20 mit Xeon E3-1225 V3, der soll deutlich schlauer mit Strom umgehen... ist aber ein ganz anderer Chipsatz usw...
 
@bogi32b Das kannst du einfach umstecken. Linux initialisiert die Hardware bei jedem Boot komplett neu. Solange das kein uefi system ist und du das Boot medium richtig setzt klappt das.
 
Da hängen die Boot informationen (glaube ich) im Mainboard NVRam und bei einem Umzug der Platten weiß der dann erst Mal nix von deinem Betriebssystem und bootet nicht. Das ist aber bestimmt irgendwie lösbar...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh