[Sammelthread] Proxmox Stammtisch

Eins noch: wie schon erwähnt, werden bei Änderungen der Hardware zusammensetzung auf dem PCIe Bus die Gerätenamen neu vergeben.
Mh, willst du damit sagen, was ich denke?
Hab grad in meiner Test-VM für den 9400er TriMode gesehen, dass die Liste wohl "verrutscht" ist und nun ne M.2 an dessen Stelle war.
Kann das sein, oder war ich das selbst in Umnachtung?
Kann man das irgendwie fixieren?
ein mate meinte aber das proxmox in allem für mich die bessere wah list
Wahrscheinlich nicht.

Die großen ZFS Gurken sind mit einem ganz anderen Zweck entwickelt.
Das ist nicht so Heimanwenderfreundlich, das ist Datacenterkram.

Mit einem Proxmox/TrueNAS Setup kannst froh sein, wenn du PCIe mäßig mit einer Desktop-Plattform überhaupt irgendwie hinkommst.
Ryzen 5 7700 (nicht die beste wahl aber kann ECC und war günstig)
Noctua NH-L9a-AM5
ASROCK B650M PG Lightning
Asrock B850 Livemixer wäre ein brauchbares Brett.
Imho ist das alles bissl unglücklich.
Ob das B650M ECC kann müsstest du probieren.

Vielleicht solltest nen eigenen Thread machen. So wirklich Proxmox related ist das ja nur bedingt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mir ging es ja quasi eigentlich nur um das setup im proxmox , und ob das überhaupt sinn macht.

ich hab von proxmox keinerlei plan , wenn ihr sagt "nutz lieber unraid" das ist für deine zwecke besser dann glaub ich euch das und brauch auch keinen extra thread aufmachen.

wenn es aber doch in proxmox sinn macht würde ich jetzt einfach noch mal nen thread dazu aufmachen ...

und danke für die infos bisher !
 
Mal zu den Preisen von ECC DDR5...
560 Tacken für Vollausbau.
Viel Spaß.
Der Micron aus der Tabelle oben steht in der MSL von AsRock.
DDR5Micron4800480032GBMTC20C2085S1EC48BRMicron-ADS22.08
ECC sollte also fluppen.
Allerdings NUR UDIMMs!

Dei "günstigen" RDIMMs gehen weiterhin nur in Server-Boards.

Ob ein flull blown Proxmox Sinn macht, kommt auf deine VMs an, die du haben willst.
Wenn du nur Docker machen willst, reicht auch Unraid.

Selbst ich versuche derzeit, meine ganzen VMs in Proxmox auf Docker zu migrieren, weils halt einfacher zu orchestrieren ist.
Von ProxMox komme ich persönlich aber nicht weg, weil ich noch ein paar Windoofs-VMs hab, von denen ich nicht loskomme(n möchte).
 
Mal zu den Preisen von ECC DDR5...
560 Tacken für Vollausbau.
Viel Spaß.

mir ist bewusst das es teuer ist , ABER man muss für das was ich vorhabe ja nicht direkt voll bestücken , 32gb reichen für das was ich vor habe dicke, aber ich hab die möglichkeit upzugraden.
ich hab für board cpu , cpu fan <400euro gezahlt , für gute server hardware mit gleicher leistung zahlt man das doppelte wenn es überhaupt reicht. (selbst bei älteren systemen mit am4 usw.)

und zeig mir mal in dem preisbereich von 100 euro ein serverboard was :

ecc
3x nvme
bifurcation
2.5gbit hat

hat ...

Ob ein flull blown Proxmox Sinn macht, kommt auf deine VMs an, die du haben willst.
Wenn du nur Docker machen willst, reicht auch Unraid.

ich hab vielleicht so 10-20 docker und 2-3 vm geplant - mehr isses nicht
 
Ok, haben kein m.2 oder 2.5 GBit.
Aber das rüstet der Luxxer eh immer nach.
Ne dual ConnectX3 kostet nicht mehr als 40 €
 
Zuletzt bearbeitet:
Ich lese hier immer wieder von RAID 1 für proxmox. Kann man das nachträglich einrichten?
Oder wie gehe ich da am besten vor?

Aktuell hab ich eine 500gb ssd mit proxmox und auf der gleichen ssd nen lxc, home assistant vm und truenas vm. Auf einer separaten 4tb ssd umbrel.
Die 500gb in RAID 1 gespiegelt wäre natürlich ne richtig feine Sache.
 
Ok, der war böse, aber ich selbst hab für meinen kompletten SuperServer 6028U-TR4T+ nicht mehr als 500 € gezahlt.
Da rein kannst gleich mehrere m.2-Karten stecken, hast 4x 10 GBit und mehr als genug Reserven... =)
Aber: L.A.U.T.
Beitrag automatisch zusammengeführt:

Ich lese hier immer wieder von RAID 1 für proxmox. Kann man das nachträglich einrichten?
Oder wie gehe ich da am besten vor?
Es scheint da sowas wie ne Live-Migration zu geben, ist aber höchstgradig undokumentiert und wird nicht empfohlen.
War glaube ich sogar hier im Forum irgendwo.
Empfehlung von mir:
Backup und korrekt neu aufsetzen.
 
meine ganzen VMs in Proxmox auf Docker zu migrieren, weils halt einfacher zu orchestrieren ist.
Ich nutze das, was mir jeweils am Besten passt. Dabei ist Proxmox der Host mit LXCs und VMs und in letzteren läuft auch mal Docker. Meine "allgemeine" Docker-VM ist noch recht übersichtlich. Aber das ändert sich schnell. 😉
Screenshot 2025-02-10 210332.png
Gestern Nextcloud-AIO als Docker aufgesetzt, aber das bekommt ne eigene VM, auch wegen Sicherheitsbedenken.
 
Hmm, ich spiele mit dem Gedanken, die Nextcloud-VM in nen Docker umzuwandeln.
Was für Sicherheitsbedenekn?
(Der Kram geht bei mir komplett über HAProxy in der OPNsense.)
Direkten Zugriff auf die VM (oder den Docker) gibts also nicht.

//Edith:
Docker momentan:
1739218563109.png
1739218793689.png

Und halt ne extra VM mit MailCOW dockerized, aber die bleibt, wie sie ist.
Am Mailserver wird nicht rumgespielt... :fresse:
Und auf nem Raspi läuft noch ein fast-dls vGPU Lizenz-Server (aber *psssst* =) )
 
Zuletzt bearbeitet:
Nachtrag:
Weisst du, im Nachbarthread redest du noch so groß. Es hat schon nen Grund, warum son einfach Syno/QNAP als benutzerfreundlich gilt.
Ich mag dich hier auch ned blöd anmachen, dir nur erklären, dass es nen Grund hat, warum es so Produkte gibt.

Du wirst schon noch merken, dass es mit einer finalen Inbetriebnahme im Jahr 2025 eng werden könnte bei deinem MJ11 Projekt.

ich habe kein MJ11 projekt mehr , MJ11 ist nett für eine Firewall oder ein Test System & auch für ein kleines NAS aber Overall gesehen ist es pfusch sobald man mit den 1337 verschiedenen adaptern anfängt ... (2 von 3 meiner MJ11 systeme sind bereits verkauft)

sry für die offtopic (ich hab den nachtrag jetzt erst gesehen) > @pwnbert wenn da noch fragen zu bestehen bitte pm
 
Zuletzt bearbeitet:
Alles gut.
Ich sehe keinen Grund drin Proxmox vom Proxmox VM Drive zu trennen.

Ich hab das auf meiner Spielinstallation zusammengeworfen auf ner 840evo und meine, dass das eigenltich okay ist.
1739219536297.png
2x 250gb SSD - Proxmox > im raid1 > zfs
2x 1tb SSD - Proxmox VMs > im raid1 > zfs + Proxmox Installation (60-70 gig)
2x 1tb SSD - Docker / Cache für TrueNAS > im raid1 > zfs nimm erstmal deine sn850x, die performance brauchst nicht, aber zum testen.
1x 2tb SSD > ISO Dateien (iventoy) > zfs => Kenn ich nicht, was ist das?
2x 8tb HDD > NAS > im raid1 > zfs - okay, ist die Frage, wie du die der TrueNAS VM gibst, Passthrough vom Controller mit JMB ist meh, AMS1166 könnte man probieren oder halt nen LSI HBA, der aber mehr Strom braucht.
So kannst du mit den Sachen starten die du hast ohne was kaufen zu müssen.

SVDEV kann man später hinzufügen. SLOG/L2ARC vergiss einfach.
Mirror fürs App-Drive geht auch später.

Nachtrag:
Braucht iventoy ein eigenes Drive?
 
Zuletzt bearbeitet:
Mh, willst du damit sagen, was ich denke?
Hab grad in meiner Test-VM für den 9400er TriMode gesehen, dass die Liste wohl "verrutscht" ist und nun ne M.2 an dessen Stelle war.
Kann das sein, oder war ich das selbst in Umnachtung?


Kann man das irgendwie fixieren?
Das ist ja genau das was ich meinte.... bei der Installation geht das OS her, und nummeriert die PCIe Geräte durch: Netzwerk, SSDs, Controller und was es sonst noch so findet. Dann hat die Netzwerkkarte je nach Typ so Namen wie "enp35s0" "enp45s0f0" etc. Ändert sich nun die "Zusammensetzung", ändern sich die Gerätenamen - aber nicht in der bereits exisitierenden /etc/network/interfaces konfig Datei.

Änderungen an der Zusammensetzung ergeben sich u.a. durch zuätzliche oder entfernte PCIe Geräte, sprich SSD dazugesteckt, Ccntroller entfernt, Netzwerkkarte durch ein Modell erstezt, das mehr Ports hat. Eine solche Änderung muss nicht zwingend durch den User erfolgen, das kann auch durch einen Hardwaredefekt auftauchen: stirbt z.B. eine SSD -> geänderte PCIe Geräte Liste -> geändertes Netzwerk Namen -> Namen passen nicht mehr zur Interfaces config -> kein Zugrriff mehr per LAN, oder zumindest nicht mit den bekannten Parameterrn.

Bei einem Setup wo Du primär per Remote auf den PVE arbeitest, hast Du dann den Fall, das der Host zwar rebootet, aber weder das GUI erreichbar ist, noch die Services laufen. Dann stellst Du fest, das die Kiste möglicherweise noch bootet, aber Du trotzdem keinen Zugriff hast. Und dann steigt der Puls...

Deshalb gehe *ich* nach einer PVE Installation immer her, und verpasse allen Interfaces statische Namen um solchen Effekten vorzubeugen. Spart hinten heraus jede Menge Zeit und Nerven. Das kann, darf und soll aber jeder machen wie mag.


Und weil es so schön ist, hier nochmal die Lösung dafür:


Dateien anlegen - für jedes Interface eine eigene Datei


Pfad: /etc/systemd/network

# Datei Parameter
NAME.lnk
zb: 10-en_lan2.link
maske 644
encoding uft-8 ohne BOM

### wichtig: keine Namen mit eth... verwenden, die namen sind reserviert!!
### Name muss mit "en" beginnen!

PVE wiki:
It is recommended to assign a name starting with en or eth so that Proxmox VE recognizes the interface as a physical network device which can then be configured via the GUI.

Any user-supplied .link must have a lexically earlier file name than the default config 99-default.link in order to be considered at all.
For example, name the file 10-ethusb0.link and not ethusb0.link.

<--- Filename 10-en_lan0.link ---->
Code:
[Match]
MACAddress=02:00:aa:11:22:33

[Link]
Name=en_lan0
 
Alles gut.
Ich sehe keinen Grund drin Proxmox vom Proxmox VM Drive zu trennen.

Ich hab das auf meiner Spielinstallation zusammengeworfen auf ner 840evo und meine, dass das eigenltich okay ist.
Anhang anzeigen 1074973

So kannst du mit den Sachen starten die du hast ohne was kaufen zu müssen.

SVDEV kann man später hinzufügen. SLOG/L2ARC vergiss einfach.
Mirror fürs App-Drive geht auch später.

Nachtrag:
Braucht iventoy ein eigenes Drive?

iventoy brauch soweit ich weis kein eigenes drive , aber ich finds besser sowas extra zu machen, iso dateien in einem raid find ich auch overkill / festplattenverschwendung
 
idk, aber für paar popelige ISOs ein M.2 opfern?
Dann lieber größere HDDs kaufen, 2x 20tb haben ja ein gute €/TB.

Fürn Testbetrieb kannst dein iventoy ja sonst irgendwo hin machen.
 
ich möchte ein silent system, mein server steht zwar im büro, das ist aber gleichzeitig auch das gästezimmer , daher auch soviele m2/sata ssd's wie möglich + caching
nicht ohne grund hab ich mich für ein ASROCK B650M PG Lightning mit 3x m2 und bifurcation entschieden

add:
dazu kommt das es dann 7x m² wären und das ungerade wär und somit sowieso eine m² ohne raid wär (was ich sowieso nicht machen würde) , also wieso nicht die eine m² nicht für isos nutzen ?
add2:
ich hab die 2tb m² auch nicht extra gekauft , diese kommt aus meinem gaming pc (und ist übrig)
add3
ssd's/m² ssd's verbrauchen auch deutlich weniger strom
 
Zuletzt bearbeitet:
ASROCK B650M PG Lightning
Und das kann ECC? Müsste man probieren. Laut Geizhals und laut Anleitung nicht. Die B850 könnes es laut Geizhals und Anleitung.

Ich denke, du solltest es einfach mal ausprobieren (ohne große Käufe zu tätigen), bevor du da groß investierst.
Ich hab nämlich das Gefühl, dass dir Unraid vielleicht besser passen könnte für deinen Zweck.
 
https://pg.asrock.com/mb/AMD/B650M PG Lightning/index.de.asp#Specification

ZS4d0ys.png


die ki bestätigt das auch noch mal:

Ja, das ASRock B650M PG Lightning unterstützt ECC-Speicher (Error-Correcting Code).
Dies ist in den offiziellen Spezifikationen auf der ASRock-Website eindeutig angegeben.

LeVMhqt.png


das macht das board so attraktiv , und das alles für ~100euro ...
das einzige negative am setup ist der erhöhte stromverbrauch durch den ryzen 7 7700 , das ist jetzt nicht wirklich nen stromsparwunder im idle - aber da werd ich mal schauen was mit pbo geht und mit 45watt




sry für die offtopic
 
Zuletzt bearbeitet:
In der Anleitung stehts nicht (gerade nochmal gelesen), kann sein, dass das einfach nur nie erwähnt wurde früher (weils wohl nicht als relevant angesehen wurde?).
1739272268275.png

Also wie gesagt, ich tät an deiner Stelle mal eine Testinstallation machen mit Kram, der rumliegt.
 
ecc wird bei amd durch die agesa aktiviert laut ki & foren. sogut wie jedes board mit b650m könnte technisch gesehen wohl ecc erhalten insofern es durch die agesa freigeschaltet wurde, also denke ich mal das sie die produktseite verändert haben aber das manual noch das gleiche ist wie am anfang. das würde auch erklären wieso auf geizhals und co kein ecc steht.

aber egal , ich werds einfach mal testen.
 
Naja, braucht schon auch die Leitungen für die Check bits auch, wennst die am Sockel leer lässt, is nix ( https://www.gadget-manual.com/pinout-ddr/pinout-ddr4/ ).
Nachdem Asrock da aber bei AM4 recht sauber gearbeitet hat, is schon möglich, dass es nur nicht erwähnt wurde bzw. sich was per Update getan hat.

Ich mein aber gar nicht die ECC Sache, das ist für den Test eigentlich egal.

Du sollst dir mal ne Proxmox und TrueNAS Testinstallation machen, um zu sehen, ob das für dich überhaupt ne Alternative zu Unraid ist und obs für dich überhaupt besser ist.
Dafür ist stinkegal obs ne 2tb SSD oder ne 250gb HDD ist.


Schau, das läuft nicht wie beim Gaming-PC, dass du dir die Hardware sauber und penibel aussuchst und dann mal schnell die Software draufklatscht.
Die Hardware ist ziemliches Nebenthema, gerade bei TrueNAS on Proxmox verschwindest du bei Sonderwünschen (welche du wohl hast) relativ schnell ziemlich tief im Loch und verbringst mal die nächsten Monate Nächte vorm PC.
 
hab ich schon , proxmox ist nicht das richtige denke ich - für die 2-3vm's brauch man kein proxmox , da reicht auch unraid (was ja auch vm kann) dann spar ich mir auch das extra truenas und die 2 240gb platten für proxmox (weil unraid ja vom usb stick läuft)
 
Zuletzt bearbeitet:
@pwnbert:
Ich hab doch oben schon geschrieben, dass der ECC-Micron in der offiziellen MCL des Boards steht (ab BIOS 2.08).
Wahrscheinlich ist einfach die Anleitung (mal wieder) nicht auf Stand.
Aber ja, probieren geht über studieren.
 
Also ich habe mich entschieden proxmox und VMs auf RAID 1 zu setzen. Wie würdet ihr da nun vorgehen?
Erstmal welche 2 SSDs? Der Server läuft 24/7. Home assistant, lxc (pihole und paar andere docker), truenas (mit 3x18tb in RAID z1) und umbrel OS (auf einer separaten ssd).
Dann alles per Backup sichern? Truenas sichern bedeutet dass er 49tb sichern möchte (obwohl auf dem RAID z1 nur ca 3tb an Daten sind).?
Dann proxmox neu installieren, die dump Dateien der Backups laden und dann läufts?

Da ich noch ein mc12 le0 besitze könnte ich natürlich auch einfach eine zweite Instanz aufbauen mit günstigen am4 Prozessor und dann migrieren?
 
Hö?
Wieso will ProxMox die TrueNAS VM mit 49 TB sichern?
Hast du die Platten nicht durchgereicht? 😱
Meine TrueNAS-VM ist ca. 16 GB klein, weil er zwei virtuelle Platten des Bootmediums sichern muss.

Wenn deiner 49TB(!) sichern will, hast du gehörig was nicht richtig gemacht.

Ansonsten, jep, alles sichern, neu insten und bei der Installation ZFS anwählen und gleich den Mirror erstellen.

SSDs sollten dann relativ egal sein, ich halte es bei mir einfach:
Bootlaufwerke sind Samsung Pros, mit maximal TLC.
VM-Laufwerke sind WDs, je nach Last entweder Reds oder Blues.

Datengräber sind momentan refurbished Seagate Exos mit je 18 TB, vorher hatte ich 8 TB WD Reds.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh