[Sammelthread] Proxmox Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin wohl grad zu blöd.

ich komm ja aus der windows welt.
Bei windows server ist das sogenannte "mgmt interface" durchaus wichtig und sollte nicht mit dem VM traffic kollidieren.

Man schmeißt also ein Interface mit IP hin um den eigentlichen "host" zu erreichen.

Bei proxmox vermutlich die vmbr0

Beim WinServer kann ich jetzt allerdings einfach einen VMSwitch anlegen und dem so viele physische interfaces zuweisen wie ich lustig bin.
Ich muss dem keine IP geben.

Den kann ich dann per dynamic loadbalancing über beliebige ports an einen switch anbinden.

Knackpunkt ist jedoch, ich vergebe ips erst wieder direkt an die VMs

Der vmswitch leitet dann auch alle VLANs stumpf weiter wenn ich die ports am switch dementsprechend trunke.

Das wird dann erst wieder bei der VM configuration abgefangen indem man der Nic eine VLAN ID zuweist.



Lange Rede gar kein sinn.

möchte eigentlich für den host nur eine IP verbraten. die eigentliche mgmt ip vom host.

kann ich sozusagen neben vmbr1 noch eine weitere vmbr2 anlegen ohne IP und da hänge ich dann die VMs ran?

Oder mach ich einfach einen bond und hänge da die VMs ran und der kommuniziert nach außen?

Oder muss ich zwingend eine 2te IP verheizen um ein 2tes bein nach außen zu haben? (mgmtlan/ GeräteLan/ SmartHomelan/GuestLan/ DMZlan)

bitte um hilfe :-)
 
Ich bin wohl grad zu blöd.

ich komm ja aus der windows welt.
Bei windows server ist das sogenannte "mgmt interface" durchaus wichtig und sollte nicht mit dem VM traffic kollidieren.

Man schmeißt also ein Interface mit IP hin um den eigentlichen "host" zu erreichen.

Bei proxmox vermutlich die vmbr0

Beim WinServer kann ich jetzt allerdings einfach einen VMSwitch anlegen und dem so viele physische interfaces zuweisen wie ich lustig bin.
Ich muss dem keine IP geben.

Den kann ich dann per dynamic loadbalancing über beliebige ports an einen switch anbinden.

Knackpunkt ist jedoch, ich vergebe ips erst wieder direkt an die VMs

Der vmswitch leitet dann auch alle VLANs stumpf weiter wenn ich die ports am switch dementsprechend trunke.

Das wird dann erst wieder bei der VM configuration abgefangen indem man der Nic eine VLAN ID zuweist.



Lange Rede gar kein sinn.

möchte eigentlich für den host nur eine IP verbraten. die eigentliche mgmt ip vom host.

kann ich sozusagen neben vmbr1 noch eine weitere vmbr2 anlegen ohne IP und da hänge ich dann die VMs ran?

Oder mach ich einfach einen bond und hänge da die VMs ran und der kommuniziert nach außen?

Oder muss ich zwingend eine 2te IP verheizen um ein 2tes bein nach außen zu haben? (mgmtlan/ GeräteLan/ SmartHomelan/GuestLan/ DMZlan)

bitte um hilfe :-)
Du solltest eigentlich eine logische Verbindung erstellen und dieser die Physikalischen hinzufügen können.
1681479201037.png

In den Bridge ports kannst du mit Leerzeichen alle Ports hinzufügen und dieser Bridge nur 1 IP zuweisen.
Man sollte sogar virtuelle Ports hinzufügen können. Im Prinzip ist das am Ende ähnlich wie ein Switch.
 
Naja ich wollte ein Team als mgmt über 2 Kupferleitungen
und ich wollte ein Team als VM Traffic über 4 glasfaser leitungen

brauch ich für jedes vlan noch eine bridge oder ähnliches?
Oder kann ich dann eine Bridge vlan aware machen und die Vlans an den VMs konfigurieren?
 
Ok ich habs.

2 kupferinterfaces > bond0 > vmbr1 / IP Gateway dns usw
4FC interfaces > bond1 > vmbr2 / keine weitere config außer vlan aware

dann wie gewohnt vlanid bei vm config setzten und alles tutti
 
TL;DR: Ja das geht ;)

Versuch es mal mit der CLI statt der WebGUI. Ich habe meinen HBA und zwei NICs zum FreeNAS durchgereicht. Beide sind via PCI-E angeschlossen:

Habe es versucht und die Antwort ist Jein ;)
Druchreichen per GUI geht. Allerdings fällt dann das Netzwerk mit aus. Auch über die CLI mit angepasster Konfig bleibt das Problem.
Aber ich kann die SATA-Ports von der CPU Durchreichen und den ASM1062 für Proxmox nehmen :d

Ziel erreicht, wenn auch etwas anders.
 
Hi, ich habe vor mit einen HP Elitedesk 800 G5 einen Proxmox System mit unterscheidlichen VMs aufzusetzen und hätte da erstmal eine Frage zum der bzw. den Festplatten. Im Netz findet man ja sehr viele Anleitungen und Erkärungen aber ich konnte nicht genau rausfinden ob es nun wichtig ist Proxmox und die VMs auf unterscheidliche Platten zu packen.
In dem Gerät kann ich eine normale Sata SSD (Hier hätte ich eine Intel D3-S4510 480GB übrig) und zwei NVMe (Die verbaute NVMe soll getauscht werden) verbauen. Was würde hier am meisten Sinn machen, Proxmox auf die normale SSD und die VMs auf eine ZFS-Raid oder einfach beides auf den ZFS-Raid oder macht der ZFS-Raid ohne ECC-Ram Möglichkeit überhaupt Sinn?
 
Ob ECC wichtig ist, hängt davon ab wie wichtig dir deine Daten sind. Aber ZFS ohne ECC ist in meinen Augen besser als ext4 mit ECC.

Wo du die VMs installierst ist eigentlich wumpe. Solange du Backups hast.

Du solltest nur eine große Datenbank mit vielen Zugriffen vielleicht nicht auf die OS Platte packen.

Und schaue dir lxc an. Das kann vieles besser als VM und ist resourcen schonender.

Noch ein Tipp: Versuche docker unter allen Umständen zu meiden. Nicht nur ist es eine Qual es zu installieren, auch benötigt es selbst um Leerlauf locker so 1% CPU, was oftmals Stromsparmechanismen nicht nutzbar macht
 
Ich verstehe nicht wieso die Leute immer unbedingt ein ZFS-System haben wollen.
Was spricht gegen BTRFs?
Ich würde Proxmox selbst auf einem einfachen Hardware RAID 1 (SATA) reicht aus installieren und den Rest der Datenträger über Software managen.
Zu bequemeren Verwaltung gerne TrueNAS oder FreeNAS als VM laufen lassen.
Die Datenträger dann an Proxmox weitergeben/durchreichen/Anbinden.
 
Also ich habe auf dem Board nur ein Sata und zwei NVMe Anschlüsse. Es wird von allem ein Backup auf einem separatem NAS geben daher bin ich mir auch nicht so ganz sicher ob ich überhaupt einen Raid brauche. Auf dem Server sollen auf langer Sicht folgende Dinge laufen, VPN Server, PiHole oder AdGuard, Unifi Controller, SQL Datenbank, Jellyfin, eine SmartHome Software (noch nicht entschieden was) und ich bin am überlegen ob ich da noch eine Firewall brauche.
 
BTRFS hat zwar auch seine Berechtigung, aber ZFS wird nunmal nativ unterstützt. Dann funktionieren wahrscheinlich snapshots und Backups (auch mit dem PBS) nicht mehr
 
Proxmox kann ZFS eh out-of-box; als Pool für VM-Disks, Container, ISOs genau wie direkt booten davon. Sprich RootOnZFS.
Also nen ZFS-Mirror als Bootsystem nutzen wo Proxmox drauf installiert ist und gut is.
> Fake-Raid von Boards zu nutzen und drauf dann ein anderes Filesystem; > Überflüssig. Abgesehen davon, dass unixoide System diese Chipsatz-Fakeraids oft gar nicht als Raids erkennen.
> Völlig unabhängig davon, wie man dann weitere Storage managed.
 
Also einfach die zwei NVMe Slots zu einem ZFS Mirror und da alles drauf? Dann könnte ich die SATA SSD als eine von mehreren Backupmöglichkeuten nutzen.
 
Zum Beispiel, yup.

Wobei ich VMs immer auf einen getrennten Pool legen würde, nicht auf den wo Proxmox selber ist. Auf den pack ich normal nur benötigte ISOs.
Sprich ich nutze 3-4 SSDs (Mirror oder ggf. nur eine für Proxmox, getrennter Mirror für VMs).

Durch die Trennung ist man flexibler; kann auch die VM-SSDs notfalls einfach in einen anderen Rechner packen und dort den Pool wieder importieren. Schwupps hat man wieder Zugriff auf alle VM-Volumes.
Eine Wiederherstellung im Desasterfall erfordert dann nur die Configdateien für Proxmox für eine Neuinstallation, die VM-Inhalte selber bleiben völlig unangetastet. > Wartungsfreundlicher, datensicherer.

Nimm übrigens bitte keine Billo-SSDs.
 
blöde frage wo grade von ssd geredet wird, ich plane die tage meinen tr1950 in eine proxmox ve umzuwandeln und suche dafür noch passende m.2 ssd ....
samsung pm9a3 wäre gut geeignet, oder ? :unsure:
 
blöde frage wo grade von ssd geredet wird, ich plane die tage meinen tr1950 in eine proxmox ve umzuwandeln und suche dafür noch passende m.2 ssd ....
samsung pm9a3 wäre gut geeignet, oder ? :unsure:
Kommt drauf an was du ausgeben möchtest. Natürlich ist auch entscheiden ob du ausreichend U2 Slots hast.
 
Kommt drauf an was du ausgeben möchtest. Natürlich ist auch entscheiden ob du ausreichend U2 Slots hast.
soweit ich das sehe habe ich 0x U2 stecker auf mit dem board, könnte sein das ich die an meine raid karte hängen kann ... war aber nicht geplant :fresse:

habe aktuell eine intel p3600 (pcie) mit 800gb in nutzung auf meinem aktuellen xeon - müsste nen e3-1230 v3 sein - aber wegen ram (32gb max) und so wird der durch meinen alten threadripper ersetzt und dann würd ich gerne den speicher erweitern um 1 bis 2 tb 😅
 
Zuletzt bearbeitet:
ok, dann muss ich mich wohl doch noch mit u.2 auseinandersetzen .... 😅
kannte die schnittstelle schon, aber eher von supermicro und vom stöbern ......... persönlich aber noch überhaupt keine erfahrung damit gesammelt :banana:
 
Delock 90077 kann auch interessant sein, wenn der Rechner PCIe-Bifurcation kann, Alle pcie gen4 tauglichen Kabel sind da dann auch dabei.
Dat Ding ist nicht billig, aber dafür ist alles drin und auch definitiv PCIe4-tauglich. Gerade letzteres hatte mir mit Billiglösungen einiges an Flüchen entlockt vorher.

Meine U.2 PM9A3's hab ich damit im X570D4U (hat nen 5950X, am Anfang wars dein 5600X) , Bifurcation ist eingestellt entsprechend auf x4x4x4x4.

Und ja: die PM9A3 ist ne gute und recht preisgünstige (nicht billige! ) Wahl, wenn man nicht übermässige Schreibvolumen hat. Vereinfacht gesagt ist sie eine Art Enterprise-Version einer 980pro.
Nachteil für Privatkunden: es gibt sie nur als OEM und den damit verbundenen Limitierungen (Herstellergarantie, Firmwaresupport z.B.)
 
Zuletzt bearbeitet:
ok, dann muss ich mich wohl doch noch mit u.2 auseinandersetzen .... 😅
kannte die schnittstelle schon, aber eher von supermicro und vom stöbern ......... persönlich aber noch überhaupt keine erfahrung damit gesammelt :banana:
Ja du musst nur aufpassen auf PCIE Version der Adapterkarten.
Ich meine für bis 2 TB bietet sich auch eine klassische m.2 Erweiterung und dort dann M.2 SSDs anschließen.

Wenn ich ganz ehrlich zu dir seien darf... verkauf das Teil und hol dir sowas:
https://geizhals.de/asus-pro-ws-x570-ace-90mb11m0-m0eay0-a2079101.html, Der 5900X ist schon schneller als der TR, ECC kompatibel das Board auch mit 3200er CL22 bis 128GB.
U.2 Slot ist dabei und bis 3x PCIE4.0 8x je nach Belegung.
 
Yup, der TR erste Generation hat zwar I/O-Lanes und Ram-Addressraum, aber die IPC und der Takt ist halt einfach nicht mehr gut. Noch mehr, wenn man noch den Bezug auf die Leistungsaufnahme (also Effizienz) dazunimmt. Im Heimbereich sind halt doch oft Prozesse da, wo Takt und IPC mehr helfen als Kerne.

Wollte zuerst auch auf 1920X mit X399D8U gehen, aber der wurde mit Erscheinen der 5000er Ryzens und dem X570D4U deswegen ausgemustert, bevor er richtig zum Einsatz kam (sollte einen Skylake 1240v5 auf X11SSH-CTF ersetzen).
 
Delock 90077 kann auch interessant sein, wenn der Rechner PCIe-Bifurcation kann, Alle pcie gen4 tauglichen Kabel sind da dann auch dabei.
Dat Ding ist nicht billig, aber dafür ist alles drin und auch definitiv PCIe4-tauglich. Gerade letzteres hatte mir mit Billiglösungen einiges an Flüchen entlockt vorher.
Ob Gen4 damit fehlerfrei läuft, ist allerdings auch Glückssache und abhängig von vielen weiteren Einflussfaktoren. Wie die Chancen allgemein so stehen, weiß ich nicht, aber nicht ohne Grund hat Supermicro das vergleichbare Teil beim Schritt von Gen3 auf Gen4 deutlich aufgebohrt und Retimer verbaut.
 
Zum Beispiel, yup.

Wobei ich VMs immer auf einen getrennten Pool legen würde, nicht auf den wo Proxmox selber ist. Auf den pack ich normal nur benötigte ISOs.
Sprich ich nutze 3-4 SSDs (Mirror oder ggf. nur eine für Proxmox, getrennter Mirror für VMs).

Durch die Trennung ist man flexibler; kann auch die VM-SSDs notfalls einfach in einen anderen Rechner packen und dort den Pool wieder importieren. Schwupps hat man wieder Zugriff auf alle VM-Volumes.
Eine Wiederherstellung im Desasterfall erfordert dann nur die Configdateien für Proxmox für eine Neuinstallation, die VM-Inhalte selber bleiben völlig unangetastet. > Wartungsfreundlicher, datensicherer.

Nimm übrigens bitte keine Billo-SSDs.
Hier ist es irgendwie das geiche, wie in den unterschiedlichen Guides, eine Seite sagt trenn das OS von den anderen Sachen (Was bei beinem maximal 3 internen Anschlüßen dazu führt das ein Teil nicht im Raid laufen kann) eine andere Seite sagt pack es zusammen auf einen Raid. Kann ich also davon ausgehen, dass das eher eine Glaubensfrage ist?

Sollte ich mich für die Variante Proxmox auf SSD und VMs/LXC auf NVMe Raid reicht die Intel D3-S4510 480GB dafür und welche 1TB NVMe wäre zu empfehlen (Board hat meine ich "nur" PCIe 3.0)?
 
Kann ich also davon ausgehen, dass das eher eine Glaubensfrage ist?
Ich würde eher sagen, dass man abzuwägen hat. Wie so oft geht es um Zuverlässigkeit vs. Kosten. Viel hängt auch davon ab, wie man den Rest sowohl in Hardware als auch in Software gestaltet. Ich plane bei dem System was ich gerade aufziehe mit 2x 480GB SATA SSD mit PLP im ZFS Mirror als Proxmox Boot Device und gleichzeitig als Speicher für VMs/Container. Dazu kommen 2x NVMe mit PLP per Passthrough an eine TrueNAS-VM durchgereicht und dort zu einem ZFS Mirror zusammengefasst. Mein Fokus liegt halt auf einem schnellen NAS mit 25GbE Anbindung. Ich sehe für mich keine Szenarien in denen eine Trennung von Boot-Pool und VM-Pool Vorteile für mich hätte. Ich kenne nicht viele zusätzliche Gefahren, ausgelöst durch die Kombination mit dem Boot-Pool, die für mich zu einem Verlust des VM-Pool führen könnten. Die Wiederherstellung beinhaltet auch bei mir das Einspielen von Backups. Andere hier fahren aus vernünftigen Gründen andere Varianten. Vielleicht kann ja jemand Argumente für die "Gegenseite" beisteuern.
 
Servus,

Ich nochmal.
Nochmal Thema GPU.

Es gibt ja wenn ich das richtig verstanden habe 2 Ansätze.

Der eine ist über eine vGPU Lösung wo entsprechende enterprise Treiber direkt auf den proxmox host installiert werden.
Danach wird per vGPU bestimmt wie diese in richtung der vms vermittelbar sein soll. Sprich je nach vram splittung zu logischen Einheiten mit gleichen Teilen.

Vorteil hier ist soweit ich sehen kann das wohl der volle Befehlssatz und auch alle Features voll von der vm genutzt werden kann. Stichwort nvenc und andere Scherze.

Die zweite Variante sorgt einfach dafür das proxmox in keinster Weise mit der gpu interagieren kann und diese wird dann über PCI id an die vm durchgegeben. Sprich 1 zu 1 GPU passthrough. Dafür ist weniger Aufwand innerhalb des proxmox host nötig.
Was mir hier jedoch noch fehlt ist die Info, ob dann die vm ebenfalls vollständig auf die GPU zugreifen kann. Alle befehlssätze verfügbar sind und somit das volle Potenzial abrufbar wäre.

Klare downside ist natürlich nur diese eine vm kann die gpu nutzen.
Was aber erstmal nicht schlimm wäre.

Wie sieht es also aus bei methode 2. Geht da alles oder ist der weg über vGPU am Ende der deutlich bessere da performanter ?
 
Servus,

Ich nochmal.
Nochmal Thema GPU.

Es gibt ja wenn ich das richtig verstanden habe 2 Ansätze.

Der eine ist über eine vGPU Lösung wo entsprechende enterprise Treiber direkt auf den proxmox host installiert werden.
Danach wird per vGPU bestimmt wie diese in richtung der vms vermittelbar sein soll. Sprich je nach vram splittung zu logischen Einheiten mit gleichen Teilen.

Vorteil hier ist soweit ich sehen kann das wohl der volle Befehlssatz und auch alle Features voll von der vm genutzt werden kann. Stichwort nvenc und andere Scherze.

Die zweite Variante sorgt einfach dafür das proxmox in keinster Weise mit der gpu interagieren kann und diese wird dann über PCI id an die vm durchgegeben. Sprich 1 zu 1 GPU passthrough. Dafür ist weniger Aufwand innerhalb des proxmox host nötig.
Was mir hier jedoch noch fehlt ist die Info, ob dann die vm ebenfalls vollständig auf die GPU zugreifen kann. Alle befehlssätze verfügbar sind und somit das volle Potenzial abrufbar wäre.

Klare downside ist natürlich nur diese eine vm kann die gpu nutzen.
Was aber erstmal nicht schlimm wäre.

Wie sieht es also aus bei methode 2. Geht da alles oder ist der weg über vGPU am Ende der deutlich bessere da performanter ?
Methode 2 ist quasi Nativ.
Methode 1 ist das gleich was du mit der CPU machst (Ressourcen aufteilen die eine Schnittstelle verwaltet/freigibt).

Natürlich ist Methode 2 die beste, das kannst du auch mit einem Datenträger machen. Diesen physikalisch quasi nur für eine VM Mounten.
Du kannst auch eine physische Installation in eine VM laden, da wird es aber etwas komplexer.

Die Variante über Virtualisierungslösung also als vGPU ist in so fern eleganter das du halt mehrere VMs mit voller Hardware Beschleunigung betreiben kannst.

Auf einer VM zocken auf der anderen was dekodieren etc. Du kannst auch alles auf einer Maschine machen, dass ist aber alles sehr unperformant wenn du alles auf einem system parallel machst. (Es ist leichter jedem ein Glas Wasser zu geben, als das sich zwei eine Flasche teilen).
 
Zuletzt bearbeitet:
Ist diese NVMe eine gute Idee oder doch lieber etwas anderes für einen reinen Hausgebrauch?
 
Ist diese NVMe eine gute Idee oder doch lieber etwas anderes für einen reinen Hausgebrauch?
Ziemlich Stark für den Preis, ist gut für Datenbanken/Datacenter Aufgaben mit 750k in 4k liegt so bei über dem Zehnfachen von typische Conusmer SSDs.
Scheint geeignet für Erweiterung in einer Playstation.
Allerdings brauch die SSD wohl auch wirklich x4 PCIE4 Lanes für die volle Performance.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh