Geht super einfach. Folge einfach der AnleitungHat hier jemand eine GPU an eine Windows VM durchgeschoben?
Ist das grob aufwändig?
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Geht super einfach. Folge einfach der AnleitungHat hier jemand eine GPU an eine Windows VM durchgeschoben?
Ist das grob aufwändig?
Du solltest eigentlich eine logische Verbindung erstellen und dieser die Physikalischen hinzufügen können.Ich bin wohl grad zu blöd.
ich komm ja aus der windows welt.
Bei windows server ist das sogenannte "mgmt interface" durchaus wichtig und sollte nicht mit dem VM traffic kollidieren.
Man schmeißt also ein Interface mit IP hin um den eigentlichen "host" zu erreichen.
Bei proxmox vermutlich die vmbr0
Beim WinServer kann ich jetzt allerdings einfach einen VMSwitch anlegen und dem so viele physische interfaces zuweisen wie ich lustig bin.
Ich muss dem keine IP geben.
Den kann ich dann per dynamic loadbalancing über beliebige ports an einen switch anbinden.
Knackpunkt ist jedoch, ich vergebe ips erst wieder direkt an die VMs
Der vmswitch leitet dann auch alle VLANs stumpf weiter wenn ich die ports am switch dementsprechend trunke.
Das wird dann erst wieder bei der VM configuration abgefangen indem man der Nic eine VLAN ID zuweist.
Lange Rede gar kein sinn.
möchte eigentlich für den host nur eine IP verbraten. die eigentliche mgmt ip vom host.
kann ich sozusagen neben vmbr1 noch eine weitere vmbr2 anlegen ohne IP und da hänge ich dann die VMs ran?
Oder mach ich einfach einen bond und hänge da die VMs ran und der kommuniziert nach außen?
Oder muss ich zwingend eine 2te IP verheizen um ein 2tes bein nach außen zu haben? (mgmtlan/ GeräteLan/ SmartHomelan/GuestLan/ DMZlan)
bitte um hilfe
TL;DR: Ja das geht
Versuch es mal mit der CLI statt der WebGUI. Ich habe meinen HBA und zwei NICs zum FreeNAS durchgereicht. Beide sind via PCI-E angeschlossen:
Kommt drauf an was du ausgeben möchtest. Natürlich ist auch entscheiden ob du ausreichend U2 Slots hast.blöde frage wo grade von ssd geredet wird, ich plane die tage meinen tr1950 in eine proxmox ve umzuwandeln und suche dafür noch passende m.2 ssd ....
samsung pm9a3 wäre gut geeignet, oder ?
Kommt drauf an was du ausgeben möchtest. Natürlich ist auch entscheiden ob du ausreichend U2 Slots hast.
soweit ich das sehe habe ich 0x U2 kompatible stecker auf mit dem board
Ja du musst nur aufpassen auf PCIE Version der Adapterkarten.ok, dann muss ich mich wohl doch noch mit u.2 auseinandersetzen .... 😅
kannte die schnittstelle schon, aber eher von supermicro und vom stöbern ......... persönlich aber noch überhaupt keine erfahrung damit gesammelt
Ob Gen4 damit fehlerfrei läuft, ist allerdings auch Glückssache und abhängig von vielen weiteren Einflussfaktoren. Wie die Chancen allgemein so stehen, weiß ich nicht, aber nicht ohne Grund hat Supermicro das vergleichbare Teil beim Schritt von Gen3 auf Gen4 deutlich aufgebohrt und Retimer verbaut.Delock 90077 kann auch interessant sein, wenn der Rechner PCIe-Bifurcation kann, Alle pcie gen4 tauglichen Kabel sind da dann auch dabei.
Dat Ding ist nicht billig, aber dafür ist alles drin und auch definitiv PCIe4-tauglich. Gerade letzteres hatte mir mit Billiglösungen einiges an Flüchen entlockt vorher.
Hier ist es irgendwie das geiche, wie in den unterschiedlichen Guides, eine Seite sagt trenn das OS von den anderen Sachen (Was bei beinem maximal 3 internen Anschlüßen dazu führt das ein Teil nicht im Raid laufen kann) eine andere Seite sagt pack es zusammen auf einen Raid. Kann ich also davon ausgehen, dass das eher eine Glaubensfrage ist?Zum Beispiel, yup.
Wobei ich VMs immer auf einen getrennten Pool legen würde, nicht auf den wo Proxmox selber ist. Auf den pack ich normal nur benötigte ISOs.
Sprich ich nutze 3-4 SSDs (Mirror oder ggf. nur eine für Proxmox, getrennter Mirror für VMs).
Durch die Trennung ist man flexibler; kann auch die VM-SSDs notfalls einfach in einen anderen Rechner packen und dort den Pool wieder importieren. Schwupps hat man wieder Zugriff auf alle VM-Volumes.
Eine Wiederherstellung im Desasterfall erfordert dann nur die Configdateien für Proxmox für eine Neuinstallation, die VM-Inhalte selber bleiben völlig unangetastet. > Wartungsfreundlicher, datensicherer.
Nimm übrigens bitte keine Billo-SSDs.
Ich würde eher sagen, dass man abzuwägen hat. Wie so oft geht es um Zuverlässigkeit vs. Kosten. Viel hängt auch davon ab, wie man den Rest sowohl in Hardware als auch in Software gestaltet. Ich plane bei dem System was ich gerade aufziehe mit 2x 480GB SATA SSD mit PLP im ZFS Mirror als Proxmox Boot Device und gleichzeitig als Speicher für VMs/Container. Dazu kommen 2x NVMe mit PLP per Passthrough an eine TrueNAS-VM durchgereicht und dort zu einem ZFS Mirror zusammengefasst. Mein Fokus liegt halt auf einem schnellen NAS mit 25GbE Anbindung. Ich sehe für mich keine Szenarien in denen eine Trennung von Boot-Pool und VM-Pool Vorteile für mich hätte. Ich kenne nicht viele zusätzliche Gefahren, ausgelöst durch die Kombination mit dem Boot-Pool, die für mich zu einem Verlust des VM-Pool führen könnten. Die Wiederherstellung beinhaltet auch bei mir das Einspielen von Backups. Andere hier fahren aus vernünftigen Gründen andere Varianten. Vielleicht kann ja jemand Argumente für die "Gegenseite" beisteuern.Kann ich also davon ausgehen, dass das eher eine Glaubensfrage ist?
Methode 2 ist quasi Nativ.Servus,
Ich nochmal.
Nochmal Thema GPU.
Es gibt ja wenn ich das richtig verstanden habe 2 Ansätze.
Der eine ist über eine vGPU Lösung wo entsprechende enterprise Treiber direkt auf den proxmox host installiert werden.
Danach wird per vGPU bestimmt wie diese in richtung der vms vermittelbar sein soll. Sprich je nach vram splittung zu logischen Einheiten mit gleichen Teilen.
Vorteil hier ist soweit ich sehen kann das wohl der volle Befehlssatz und auch alle Features voll von der vm genutzt werden kann. Stichwort nvenc und andere Scherze.
Die zweite Variante sorgt einfach dafür das proxmox in keinster Weise mit der gpu interagieren kann und diese wird dann über PCI id an die vm durchgegeben. Sprich 1 zu 1 GPU passthrough. Dafür ist weniger Aufwand innerhalb des proxmox host nötig.
Was mir hier jedoch noch fehlt ist die Info, ob dann die vm ebenfalls vollständig auf die GPU zugreifen kann. Alle befehlssätze verfügbar sind und somit das volle Potenzial abrufbar wäre.
Klare downside ist natürlich nur diese eine vm kann die gpu nutzen.
Was aber erstmal nicht schlimm wäre.
Wie sieht es also aus bei methode 2. Geht da alles oder ist der weg über vGPU am Ende der deutlich bessere da performanter ?
Ziemlich Stark für den Preis, ist gut für Datenbanken/Datacenter Aufgaben mit 750k in 4k liegt so bei über dem Zehnfachen von typische Conusmer SSDs.Ist diese NVMe eine gute Idee oder doch lieber etwas anderes für einen reinen Hausgebrauch?
TeamGroup T-Force Cardea Zero Z440 1TB | Preisvergleich Geizhals Deutschland
✔ Preisvergleich für TeamGroup T-Force Cardea Zero Z440 1TB ✔ Produktinfo ⇒ Kapazität: 1TB (entspricht ca. 931.32GiB bzw. 0.91TiB, weiterführende Informationen hierzu ) • Bauform: S… ✔ Solid State Drives (SSD) ✔ Testberichte ✔ Günstig kaufengeizhals.de