[Sammelthread] Proxmox Stammtisch

@P0stbote Kann man den Wearout irgendwie reduzieren, sodass dieser nicht so schnell erreicht wird? Ich hatte bei einem anderen Thread irgendwie gelesen, dass Proxmox wohl sehr gerne viele und große Logs schreibt. Wenn man dies deaktiviert, so würden die Platten nicht so voll werden.
Du kannst bei einem Standalone Host die Dienste pve-ha-crm und pve-ha-lrm deaktivieren, das soll bisschen was einsparen. Hab ich bei mir auch gemacht.
Das Wearout ist aber auch angestiegen, früher hatte ich nicht so viel auf dem Pool laufen. Im August 2020 hatte ich nur 40TBW: https://www.hardwareluxx.de/community/threads/proxmox-stammtisch.1039627/page-55#post-27619041
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe eine 2,5 Jahre alte 960GB Intel DC S4500 mit kanpp 180TB NAND Writes (SMART: 5847007 NAND_Writes_32MiB).
Die SSD einen Wearout von 3% laut SMART, aber auch 1.86PB TBW was ca 1 DWPD entspricht.
Habe im Schnitt 110 Write IOPS bei 1,6MB/s. Kommt mir gerade echt viel vor... mit 135GB am Tag. Was habt ihr denn so für Werte?


Laut dem Intel Toolkit Endurance Analyzer hat die Disk "nur noch" 78.78 Jahre vor sich.

Vorher lief ca 1 Jahr eine 500GB MX500 mit weniger Last und in der Implementierungphase. Die hat in der Zeit immerhin 35% Wearout erreicht, aber auch nur 180TBW.
Das ganze Sysloging der Container und Openhab -> Mysql Logging fressen halt gut Writes.

Also gute SSD mit TBW im PB Bereich ist echt gut. Ein paar 100 TBW mag für ein paar Jahre reichen, aber Komfortabel ist das nicht.
 
Zuletzt bearbeitet:
Bei consumer SSD könnte man noch großzügiges over-provisioning machen (zB 20%) - oder halt gleich (gebrauchte) enterprise SSD kaufen.

Eine 100GB Intel S3700 gab's teils für ca 20€, die hält länger als ihr lebt für logs etc ... (Rechnerisch, vorher brennt da vermutlich auch der PLP Kondensator durch)
 
Ja, die Preise sind leider stark gestiegen :-(

Was wäre sinnvoller? Erst SSDs kaufen, Proxmox installieren und später ein CPU Upgrade machen oder CPU-Upgrade, Proxmox installieren und später SSDs? Oder wäre es sinnvoller erst CPU-Upgrade, SSDs und dann Proxmox installieren?

Aktuell habe ich leider nur ein CPU mit 2 C/ 2 T und eine Sandisk SSD, welche dafür ungeeignet wäre.
 
Was wäre sinnvoller? Erst SSDs kaufen, Proxmox installieren und später ein CPU Upgrade machen oder CPU-Upgrade, Proxmox installieren und später SSDs? Oder wäre es sinnvoller erst CPU-Upgrade, SSDs und dann Proxmox installieren?
Die Frage ist denke ich zuerst, was du am Ende machen willst! Ggf. reichen die 2C/2T ja auch aus!
 
Die Frage ist denke ich zuerst, was du am Ende machen willst! Ggf. reichen die 2C/2T ja auch aus!
Adguard, Home Assistant, RaspberryMatic, Ubiquiti Unifi und eine Windows VM. Ich denke aber, dass ein CPU-Wechsel wohl einfacher wäre als SSDs oder? ;-)

Fühle mich aber momentan doch mit gebrauchten Datacenter SSDs wohler, da sie doch für den selben Preis zu haben sind (im Vergleich zu neuen normalen SSDs). Bin nur hin und her gerissen, ob erst eine SSD oder gleich 2 SSDs im Raid. Tendiere eher zu Raid (2 SSDs). Das nächste Thema ist der Speicherplatz. Momentan schwanke ich zwischen folgende:

- Intel DC S4500 960 GB für 129 Euro
- Intel DC S4510 480 GB für 79 Euro

Gibt es eigentlich eine Liste von den verschiedenen Intel SSDs mit den Unterschieden und welche empfohlen werden? Ich finde hier z.B DC S3500, DC S3510 (Nachfolger?), DC S3700, DC S4500, DC S4510 (Nachfolger?), DC S4600, DC S4610, usw. Wie viel Platz wird eigentlich Proxmox nehmen? Auf der SSDs werden natürlich die VMs gespeichert.
 
Für die SSDs würde ich die SPECs auf ark.intel.com vergleichen. Zumindest die großen Unterschiede nach Datenblatt kann man da sehen.

Für Proxmox sind 10GB fürs OS mehr als ausreichend. Dazu kommt noch SWAP. Und dann ist die Frage wo du ISOs und Container Images hinwerfen willst.
 
@Sannyboy111985 Danke für den Tipp! Ich dachte, dass ark.intel.com nur auf CPUs geht. Ich schau es mir dann mal an. ISOs und Container Images bleiben auch auf der SSD. Dann würde ich wohl eher zur S4500 greifen, wenn die SSDs keine großen Unterschiede haben.
 
Lass dir zuvor ja die SMART-Werte zeigen.
Für eine komplett aufgearbeitete SSD sind 79 oder 129 Euro immer noch viel Geld! ;)

Danke :-) Leider werden bei einigen SSDs keine Smart-Werte angezeigt. Speichermäßig habe ich mich jetzt auf 960 GB festgelegt. Entweder die S4500 960 GB für ca. 100 Euro vom Händler (gebraucht mit Garantie und Smart > 95% - mehr weiß ich nicht) oder S4600 960 GB für 130 / 140 Euro (gebraucht, privat mit Smart-Werten).

Die S4600 hat eine TBW von 5,25 PBW. Die S4500 hat "nur" eine TBW von 1,86 PBW. Mal schauen, was die 2 Anbieter mir antworten werden.
 
Ich stelle mir einen neuen Proxmox-Host zusammen und habe eine Frage zum Durchreichen der GPUs. (Ist die Frage eventuell eher im Mainboardforum besser aufgehoben?)
https://geizhals.de/?cat=WL-2289686 (Noch lange nicht final)
Die iGPU würde ich an die geplante Win11-VM durchreichen wollen und die kleine Quadro an einen Ubuntu-Container mit Emby/TVheadend. Sieht da jemand ein grundsätzliches Problem bei der CPU/MB/GPU-Kombo?
 
Also habe ich der VM entsprechend das Iphone als USB Gerät durchgereicht
Ich hänge mich hier mal mit dem gleichen Problem an, auch für iMazing. Allerdings stürzt die VM bei mir einfach ab, sobald ich das iPhone verbinde. Durchgereicht habe ich den kompletten USB Port. Ist das iPhone angeschlossen fährt die VM nicht einmal hoch und bricht nach ein paar Sekunden einfach ab. Ohne iPhone fährt die VM hoch, ich schließe das iPhone an -> VM aus. Hat hier jemand ne Idee zu? Ich hatte das gleiche Verhalten schon mit nem Galaxy als USB Modem für OPNsense, das hat sich aber dann dank DSL selbst erledigt.
 
@KurantRubys
Da es bei jemanden auf einem öffentlichen Discord direkt geklappt hat, nach dem er meine Idee nach machen wollte..habe ich den verdacht, dass es entweder HW abhängig ist, oder was ggf einfacher zu lösen ist die VM Hardwareversion etc.

Ich hab wie erwähnt meine Win VM dann am PC in vmware player erstellt, iphone eingebunden und dann konvertiert..und ab auf pve damit.
 
Kurze Frage, wenn:
Bash:
root@pve:~# ethtool enp2s0
Settings for enp2s0:
        Supported ports: [ FIBRE ]
        Supported link modes:   1000baseX/Full
                                10000baseCR/Full
                                10000baseSR/Full
        Supported pause frame use: Symmetric Receive-only
        Supports auto-negotiation: No
        Supported FEC modes: Not reported
        Advertised link modes:  1000baseX/Full
                                10000baseCR/Full
                                10000baseSR/Full
        Advertised pause frame use: Symmetric
        Advertised auto-negotiation: No
        Advertised FEC modes: Not reported
        Speed: 10000Mb/s
        Duplex: Full
        Auto-negotiation: off
        Port: Direct Attach Copper
        PHYAD: 0
        Transceiver: internal
        Supports Wake-on: d
        Wake-on: d
        Current message level: 0x00000014 (20)
                               link ifdown
        Link detected: yes
root@pve:~# ethtool vmbr0
Settings for vmbr0:
        Supported ports: [  ]
        Supported link modes:   Not reported
        Supported pause frame use: No
        Supports auto-negotiation: No
        Supported FEC modes: Not reported
        Advertised link modes:  Not reported
        Advertised pause frame use: No
        Advertised auto-negotiation: No
        Advertised FEC modes: Not reported
        Speed: 10000Mb/s
        Duplex: Unknown! (255)
        Auto-negotiation: off
        Port: Other
        PHYAD: 0
        Transceiver: internal
        Link detected: yes

anzeigen, müsste doch zumindest alles auf dem host fertig sein für 10G, oder? weil die vm die eine vmxnet3 oder den virtio netzwerkkarte bekommt, nur 1000 MBit anzeigt. :(
 
Wenn die Bridge einen der Adapter benutzt, dann ja.
Mal getestet ob das vielleicht nur ein Anzeigefehler ist? Mit virtio geht auf jeden Fall 10 Gbps und das sollte eigentlich auch so angezeigt werden, selbst wenn an der Bridge nur eine 1G NIC hängt:
1659334314946.png


Die Kommunikation zwischen VM <-> VM kann ja schneller geschehen, da der Traffic ja Hostintern bleibt.

Welche Version von Proxmox und welche virtio Drivers (Ich geh einfach mal von Windows VMs aus) nutzt du?
 
hihi, ja natürlich ist es kein windows. es ist ein testsetup mit dem redpill-loader für xpenology.
 
Ich würde erstmal (zumindest mit virtio) von einem Anzeigefehler ausgehen, ich hab das mal mit einer Linux VM getestet.
Der Linkspeed wird von ethtool nicht erkannt, ein iperf3 Test zum Hostsystem offenbart aber fast 30GBit/s Durchsatz:

Code:
[root@TORARC01DEL ~]# ethtool eth0
Settings for eth0:
        Supported ports: [  ]
        Supported link modes:   Not reported
        Supported pause frame use: No
        Supports auto-negotiation: No
        Supported FEC modes: Not reported
        Advertised link modes:  Not reported
        Advertised pause frame use: No
        Advertised auto-negotiation: No
        Advertised FEC modes: Not reported
        Speed: Unknown!
        Duplex: Unknown! (255)
        Auto-negotiation: off
        Port: Other
        PHYAD: 0
        Transceiver: internal
        Link detected: yes
        
[root@TORARC01DEL ~]# iperf3 -c 10.0.99.10
Connecting to host 10.0.99.10, port 5201
[  5] local 10.0.99.111 port 47320 connected to 10.0.99.10 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  3.22 GBytes  27.6 Gbits/sec    0   3.14 MBytes
[  5]   1.00-2.00   sec  3.43 GBytes  29.4 Gbits/sec    0   3.14 MBytes
[  5]   2.00-3.00   sec  3.30 GBytes  28.4 Gbits/sec    0   3.14 MBytes
[  5]   3.00-4.00   sec  3.37 GBytes  28.9 Gbits/sec    0   3.14 MBytes
[  5]   4.00-5.00   sec  3.28 GBytes  28.2 Gbits/sec    0   3.14 MBytes
[  5]   5.00-6.00   sec  3.09 GBytes  26.5 Gbits/sec    0   3.14 MBytes
[  5]   6.00-7.00   sec  3.36 GBytes  28.9 Gbits/sec    0   3.14 MBytes
[  5]   7.00-8.00   sec  3.21 GBytes  27.6 Gbits/sec    0   3.14 MBytes
[  5]   8.00-9.00   sec  3.32 GBytes  28.5 Gbits/sec    0   3.14 MBytes
[  5]   9.00-10.00  sec  3.37 GBytes  28.9 Gbits/sec    0   3.14 MBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec  32.9 GBytes  28.3 Gbits/sec    0             sender
[  5]   0.00-10.00  sec  32.9 GBytes  28.3 Gbits/sec                  receiver

iperf Done.
 
ohh mann. war es wirklich so einfach? ich teste noch mit anderen clients, aber zum host hab ich auch 30 GBits...

EDIT: Es war so einfach. iperf3 auf allen clients 10 Gbit.... Danke :) *schäm*
 
Zuletzt bearbeitet:
Habe die Tage mal angefangen mich ein wenig mit Proxmox zu beschäftigen und hab eine grundsätzliche Frage:
Es gibt ja VMs und LXCs, je nach Einsatzzweck (und ggf. auch Leistungsfähigkeit des Hosts) nehme ich das eine oder andere. Für Profis kein ding, für mich als Laien noch nicht ganz nachvollziehbar. Ich würde alle meine 3 ersten Beispiele (Plex, OMV oder FreeNAS und PiHole mit DHCP und DNS) in einen LXC stecken da sie ja gewisse Sachen vom Host (Kernel, etc.) mitnutzen können....oder kommt sowas in eine VM?
 
Ich habe, abgesehen von Windows und CheckMK (da funktioniert das mit dem Mailversand nicht richtig..oder ich war zu blöd..) alles in LXC (11) - inkl meinem Pihole02.
Filer ist eine dedizierte Maschine bei mir.
 
Zuletzt bearbeitet:
Ich kenne Plex zwar nicht, würde es aber in LXC packen.
PIHOLE auf jeden Fall in lxc, lauft ohne Probleme.
FreeNAS ist mein ich ein BSD und muss in eine VM. OMV auch, da der sonst keine Platten findet.
 
Danke für die Antworten, hat wunderbar geklappt und meine erste Proxmox Umgebung läuft super (y)
 
Muss nochmal Fragen: Gibt es jemanden der ein Backup seiner VMs und LXC auf dem Proxmox macht mit rollierenden USB-Platten? Derzeit schiebe ich alles auf einen PBS, aber ich möchte was Offsite in nen Schrank legen und das einmal im Monat wechseln...
 
IMHO nein... Aber: Du könntest am PBS oder am Proxmox Server selbst eine USB Platte anstöpseln und mounten so das sie als Backup Ziel dienen kann.
 
Ich habe das hier gefunden. Das müsste nach meinem Verständnis garnicht so schwierig sein anzupassen. Aber es übersteigt deutlich _meine_ Kompetenzen in Linux.


1. Hab ich meinen tank pool ohne datasets am laufen (ob das ne gute idee ist frag ich michg erade selbst)
2. hab ich ja rotierende festplatten. also mind 2 oder 3 auf die jeweils einmal im monat was drauf soll.
 
gehen tut das, aber es fehlen dir natürlich Features, die erst beim Dataset bzw. Volume gesetzt / geändert werden können
z.B. Kompression (vorzugsweise LZ4), sync, Accesstime (atime), ACL Inherit, ASL Mode, Quta etc.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh