[Sammelthread] Proxmox Stammtisch

Wenn’s nur Samba ist geht das mit nem LXC schon, hab ich grade auch. Aber wehe du willst dann NFS, den Aufwand hab ich mir noch nicht angetan das entsprechend umzubauen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielen Dank für euren Input!

Habe auch noch lang und weit gesucht.

Ich werde daher OMV nutzen und das einfach auf ext4 speicher lassen

ZFS auf ZFS ist schlecht, daher keine Option.
Über die ganzen Samba geschichten bin ich auch gestolpert.
Aber ich möchte am Ende nicht die simplizität einer VM verlieren.
Macht erstnfall oder migration bestehender services einfach um vieles einfacher.
 
Was für ein nimmt ihr, Ubuntu oder Debian oder noch was anderes?
Wenn ich was nutzen würde, würde ich es erstmal mit dem tteck-Script probieren. Die Scripts funktionieren normalerweise zuverlässig, ich nutze aber nur ein paar von den Post-Install Scripten und das für Docker / Debian.


Einach mal nach "OpenMediaVault" suchen, das ist dann ein Shell-Befehl, den aber NICHT via SSH, sondern in der Web-Console ausführen:

Bash:
bash -c "$(wget -qLO - https://github.com/tteck/Proxmox/raw/main/ct/omv.sh)"

Denk aber dran, dass du anschließend den Storage durchmappen und das ShareRootFS Plugin verwenden musst:

Code:
root@pve:~# cat /etc/pve/lxc/200.conf
# ...
# so mapped man lokale verzeichnise in den LXC Container
mp1: /rpool/data/mapped,mp=/mnt/

# so mapped man benutzerrechte
# bei mir wird der proxmox-benutzer mit der id 1000 gemapped und alle anderen nicht
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101001 64535
lxc.idmap: g 1001 101001 64535

Dann musst du noch die
Code:
/etc/subuid
und die
Code:
/etc/subgid
entsprechend anpassen.


Siehe hier: https://kcore.org/2022/02/05/lxc-subuid-subgid/
 
Zuletzt bearbeitet:
Wenn die Nodes verteilt sind, müsstest Du z.B. per Wireguard VPN für eine Verbindung sorgen.
Hast Du einen Tipp für mich? Ich habe versucht, ein Multisite-to-Multisite VPN aufzubauen, also meine 3 Hosts alle miteinander zu verbinden, über wg0. Aber es funktioniert nur für einen Host...
Beitrag automatisch zusammengeführt:

Glaub ich hab das Problem selbst gefunden.
 
Zuletzt bearbeitet:
Wenn ich Dich richtig verstanden habe, willst Du ja keinen Cluster im eigentlichen Sinne (HA, Maigration) bauen, sondern nur alle Nodes unter einem Dach (bzw in einem Datacenter) haben. Dafür braucht es meiner Meinung nach kein dreieck VPN, sondern es wäre völlig ausreichend, wenn Du am Hauptknoten einen WG Server laufen hast, und die anderen als Client.

Das würde ich auch nicht nativ auf dem Proxmox installieren, sondern entweder einen kleinen GL.intet Router, oder Open WRT auf irgendeinem ausrangierten altten Router verwenden. Das macht das debugging / Status etc leichter.
 
Das würde ich auch nicht nativ auf dem Proxmox installieren
Zu spät. WireGuard läuft jetzt im Dreieck und direkt auf den Hosts/Nodes. Ich muss mal schauen, ob ich den ersten Cluster-Versuch noch zurückgesetzt bekomme bzw. dessen IP-Adresse nachträglich ändern kann.
Beitrag automatisch zusammengeführt:

Geht anscheinend nicht, das WireuGuard Interface wird nicht für den Cluster angezeigt. Aber wie macht man das sonst mittels WireGuard konkret in Proxmox? @Supaman
 
Zuletzt bearbeitet:
auch bei mir kümmert sich Proxmox um die 2 NVMe ZFS Mirror drives und die 4 Sata gehen an eine VM

läuft entspannend unspetakulär seit langer Zeit
 
Geht anscheinend nicht, das WireuGuard Interface wird nicht für den Cluster angezeigt. Aber wie macht man das sonst mittels WireGuard konkret in Proxmox?
Hab es doch noch alleine hinbekommen. 8-)
Capture.PNG
 
Bin noch am testen von mein System und jetzt läuft es auf ein alte HDD. Später soll es auf SSD laufen.
Meine frage an euch, wie hab ihr euer System aufgeteilt und auf gebaut habt? Oder wie sind eure Platten zugeordnet

1: 1 Platte Boot und VM/LXC
2: 2 Platten Raid 1 Boot und VM/LXC
3: 1 Platte Boot und 1 Platte VM/LXC
4: 1 Platte Boot und 2 Platten Raid 1 VM/LXC
5: 2 Platten Raid 1 Boot und 2 Platten Raid 1 VM/LXC

Update: wie große sind eure Platten?

Würde mich freuen auf eure Antwort! :-)

Gruß Enrico
 
Zuletzt bearbeitet:
/offtopic .. schön zu sehen wie nun viele zu Proxmox finden die vorher in VMWare oder MSServer steckten :)
 
Jetzt muss ich zum Cluster noch was fragen: Als IP wird mir dort immer die des Gateways genannt, obwohl ich ein separates Cluster Netzwerk via WireGuard habe und dieses auch als Link eingegeben hatte. Ist das jetzt nur ein kosmetisches Problem oder wie soll man damit umgehen?
Edit: Kann man wohl verschieden mit umgehen, ich hab mich dazu entschlossen jene WireGuard IP zu nutzen, indem ich sie nach localhost in die hosts-Datei geschrieben habe.
 
Zuletzt bearbeitet:
Puh, it was a bumpy ride, aber der Cluster ohne alles (HA etc.) steht jetzt. 😅
clusterfck.PNG

Am Ende hat mich der nicht mehr existierende lokale Storage überrascht, sodass ich einen Node frisch installieren musste, nur um festzustellen, dass besagter Storage wieder nicht da war. Aber einige Forensuchen später war auch das zu lösen.

Also ich kann es zwar niemandem empfehlen, aber gut unterhalten war ich dennoch. Jetzt nehme ich mir aber eine Proxmox-Pause.
 
Hallo zusammen,

ich möchte meine ganzen Raspberry Projekte auf Proxmox migrieren. Vor allem wichig: Pihole mit dnscrypt-proxy (wobei das erstmal auf dem Nano laufe kann, Nextcloud mit relativ vielen Usern, OMV zu Truenas-Scale, Homeassistant, wireguard, ggf. weiteres

Jetzt habe ich mich von euch schon durch andere Fäden gut beraten lassen, Hardware steht, jetzt geht es an die Software.

Ich habe 2x2TB NVME 970 EVO Plus als ZFS Mirror im Proxmox angelegt, und stelle mir nun die Frage, wie ich am besten vorgehe. Die LXC Container Scripte von https://tteck.github.io/Proxmox/ habe ich heute erst durch euch im Faden entdeckt, bisher bin ich den Anleitungen von https://goneuland.de gefolgt und habe eine Debian 12 VM mit treafik proxy und crowdsec aufgesetzt, auch eine Nextcloud als frische instanz läuft jetzt als docker img auf dem Debian 12 (noch kein Migration durchgeführt, mir graut es davor, welcher Anleitung folge ich da am besten??).

Eigentlich wollte ich hier Fragen wie ich jetzt mit der Anleitung von goneuland.de das Data Folder möglichst elegant in die Debian 12 VM einbinde als weiteres Laufwerk (die Debian VM hat eigentlich nur 32GB) und für ein möglichst sinniges Backup der Daten usw. sorge.
Ich Frage also nach dem Best Practice wenn es das gibt.
Die Daten möchte ich auf dem NVME Mirror liegen haben. Wie ich auf Datacenter Ebene weitere Directorys einbinde die auf /tank/ (NVME) nextcloud_data/ (als beispiel) liegen, weiß ich.

Auf dem Proxmox läuft auch schon Truenas-Scale welches ein ZFS 3x16TB Mediengrab/Storage pool/Backup mit 2xMirror special vdev hat.

wäre es Sinniger nochmalb ei 0 anzufangen und ggf. mit den Scripten von TTeck auszukommen?
 
Eigentlich wollte ich hier Fragen wie ich jetzt mit der Anleitung von goneuland.de das Data Folder möglichst elegant in die Debian 12 VM einbinde als weiteres Laufwerk (die Debian VM hat eigentlich nur 32GB) und für ein möglichst sinniges Backup der Daten usw. sorge.
Also eigentlich hast du hier mehrere Optionen, sofern du nicht zwingend eine VM nutzen willst.

Für die VM benötigtst du einen Netzwerk-Share. Hier kannst du dich zwischen verschiedenen Protokollen entscheiden. Gängig wären SMB, NFS oder vielleicht auch noch SSHFS. SSHFS hätte den Vorteil, dass du auf dem Host nichts groß einrichten müsstest.


Ich würde es allerdings eher so machen, dass du einen LXC für Docker verwendest. Dort installierst du dann Portainer als Docker-UI und mappst die Host-Verzeichnisse einfach durch. Beispiel:
  • Mappe vom host /rpool/data/docker nach LXC /mnt/
  • Dann legst du dir /mnt/.docker-data/nextcloud/html/ und /mnt/.docker-data/nextcloude/database/ an
  • In das .docker-data kommen alle Container oder Stack spezifischen Daten (configs, caches, db, etc.)
  • Und im Portainer machst du dann einen Bind-Mount (/mnt/.docker-data/html => /var/www/html und /mnt/.docker-data/db => /var/lib/mysql)
Vorteile:
  • Du bist nicht auf die 32GB von der VM begrenzt
  • Du brauchst KEINEN share
  • Du kannst die Daten sehr leicht woanders hin migrieren
  • Backup ist supereasy
  • Du kannst vom Host und anderen LXC-Containern sehr leicht auf die Daten zugreifen

Mehr dazu hier: https://www.hardwareluxx.de/community/threads/proxmox-stammtisch.1039627/post-30317255
 
...


Ich würde es allerdings eher so machen, dass du einen LXC für Docker verwendest. Dort installierst du dann Portainer als Docker-UI und mappst die Host-Verzeichnisse einfach durch. Beispiel:
  • Mappe vom host /rpool/data/docker nach LXC /mnt/
  • Dann legst du dir /mnt/.docker-data/nextcloud/html/ und /mnt/.docker-data/nextcloude/database/ an
  • In das .docker-data kommen alle Container oder Stack spezifischen Daten (configs, caches, db, etc.)
  • Und im Portainer machst du dann einen Bind-Mount (/mnt/.docker-data/html => /var/www/html und /mnt/.docker-data/db => /var/lib/mysql)
...

Mehr dazu hier: https://www.hardwareluxx.de/community/threads/proxmox-stammtisch.1039627/post-30317255

per docker lxc kann ich doch auch die treafik proxy und crowdsec scripte von goneuland nutzen oder? dann spricht für mich nichts gegen die nutzung einer LXC.

Fragen:
  • kannst du mir sagen, wofür beim /mnt/ im LXC der /mnt/.docker-data (also das dot .) steht? ich kenne es natürlich beim angeben im terminal um zu ordnern zu navigieren bzw. im relativen ordernpfad bspw. ordner anzugeben die ich erstellen möchte.
  • kann ich dann auf dem einen LXC jede docker anwendung installieren die ich nutzen will? also nextcloud, traefik proxy, wireguard, pihole dnscrypt, oder sollte ich für backup logiken je anwendung einen LXC aufsetzen? die scripte von tteck setzen ja darauf, einen lxc pro anwendung,
  • welchen reverse proxy verwendet ihr vorwiegend? ich frag emich ob ich mit traefik nicht übertreibe und nginx nicht vielleicht viel einfacher ist. ich hab z.b. noch nicht kapiert, wie ich bei traefik dann anwendungen einbinde, die nicht per docker laufen bzw. wenn ich bspw. einen lxc wireguard von tteck nutzen will hab ich die verheiratung gestern auch nicht hinbekommen (ich hab noch viel zu lernen).
 
per docker lxc kann ich doch auch die treafik proxy und crowdsec scripte von goneuland nutzen oder? dann spricht für mich nichts gegen die nutzung einer LXC.
Es ist ein vollwertiger Docker-Host in einem LXC... du kannst das nutzen wie einen normalen Docker. Ich habe mir unter Proxmox einen Alias erstellt:

Bash:
alias dock='lxc-attach 200'

Du kannst aber auch für den LXC einfach ssh aktivieren. Das tteck-Script für den Docker-LXC fragt dich danach.

kannst du mir sagen, wofür beim /mnt/ im LXC der /mnt/.docker-data (also das dot .) steht? ich kenne es natürlich beim angeben im terminal um zu ordnern zu navigieren bzw. im relativen ordernpfad bspw. ordner anzugeben die ich erstellen möchte.
Das ist einfach ein Verzeichnis, welches ich so genannt habe. Du kannst das auch "docker-daten" oder "susanne" nennen, ich fand .docker-data nur passend. Der Punkt steht unter Linux für ein verstecktes Verzeichnis. Das bietet den Vorteil, das ls das nicht anzeigt (weil man da normalerweise nichts drin macht, sondern docker das selbst verwaltet) und das es, sollte man es doch anzeigen wollen, zumindest weit oben steht.

kann ich dann auf dem einen LXC jede docker anwendung installieren die ich nutzen will? also nextcloud, traefik proxy, wireguard, pihole dnscrypt, oder sollte ich für backup logiken je anwendung einen LXC aufsetzen? die scripte von tteck setzen ja darauf, einen lxc pro anwendung,
Ja, es geht jede Docker-Anwendung. Genau das war der Punkt, warum ich mich dagegen entschieden habe, für alles einen extra LXC aufzusetzen. Die Scripte von tteck sind echt super, aber man muss sich halt drauf verlassen, dass er die auch weiter pflegt. ABER: Fast in jedem self-hosted Projekt gibt es docker-compose files, die man viel einfacher nutzen kann, als die LXCs einzeln oder per Script zu verwalten. Der Aufwand ist also mit dem Docker meiner Ansicht nach deutlich geringer - es bringt aber auch Nachteile (security, single point of failure, etc.). Die Nachteile sollten aber in einem Homelab zu vernachlässigen sein.


welchen reverse proxy verwendet ihr vorwiegend? ich frag emich ob ich mit traefik nicht übertreibe und nginx nicht vielleicht viel einfacher ist. ich hab z.b. noch nicht kapiert, wie ich bei traefik dann anwendungen einbinde, die nicht per docker laufen bzw. wenn ich bspw. einen lxc wireguard von tteck nutzen will hab ich die verheiratung gestern auch nicht hinbekommen (ich hab noch viel zu lernen).
Ich nutze nginx-proxy-manager als Docker-Container mit duckdns.org und let's encrypt Zertifikaten. Ich habe zusätzlich meinen OpenWRT Router DNS so umgebogen, dass die Standard-Domain auf meinedomain.duckdns.org zeigt, so kann ich lokale DNS requests auch mit https aufrufen. Dazu hat Wolfgang mal ein gutes Video gemacht:
 
Es ist ein vollwertiger Docker-Host in einem LXC... du kannst das nutzen wie einen normalen Docker. Ich habe mir unter Proxmox einen Alias erstellt:

Bash:
alias dock='lxc-attach 200'

Du kannst aber auch für den LXC einfach ssh aktivieren. Das tteck-Script für den Docker-LXC fragt dich danach.


Das ist einfach ein Verzeichnis, welches ich so genannt habe. Du kannst das auch "docker-daten" oder "susanne" nennen, ich fand .docker-data nur passend. Der Punkt steht unter Linux für ein verstecktes Verzeichnis. Das bietet den Vorteil, das ls das nicht anzeigt (weil man da normalerweise nichts drin macht, sondern docker das selbst verwaltet) und das es, sollte man es doch anzeigen wollen, zumindest weit oben steht.


Ja, es geht jede Docker-Anwendung. Genau das war der Punkt, warum ich mich dagegen entschieden habe, für alles einen extra LXC aufzusetzen. Die Scripte von tteck sind echt super, aber man muss sich halt drauf verlassen, dass er die auch weiter pflegt. ABER: Fast in jedem self-hosted Projekt gibt es docker-compose files, die man viel einfacher nutzen kann, als die LXCs einzeln oder per Script zu verwalten. Der Aufwand ist also mit dem Docker meiner Ansicht nach deutlich geringer - es bringt aber auch Nachteile (security, single point of failure, etc.). Die Nachteile sollten aber in einem Homelab zu vernachlässigen sein.



Ich nutze nginx-proxy-manager als Docker-Container mit duckdns.org und let's encrypt Zertifikaten. Ich habe zusätzlich meinen OpenWRT Router DNS so umgebogen, dass die Standard-Domain auf meinedomain.duckdns.org zeigt, so kann ich lokale DNS requests auch mit https aufrufen. Dazu hat Wolfgang mal ein gutes Video gemacht:
danke für die fixe antwort

wofür der alias ? hab kurz gegoogled aber nix zu proxmox lxc alias gefunden :d

./ danke verstanden, ind einem beispiel host /rpool/data/docker ist rpool ein directory was du aus einem zfs mirror liegen hast, oder ist das ein nicht empfehlenswertes vorgehen? wie gesagt ,ich hab sozusagen en einen /rpool aber nicht als filesystem eingebunden sondern erstmal nur als zfs mirror, dann darin order /iso-img/ ... und die dann auf dem höchsten proxmox level als directory eingebunden. dachte das ist ganz elegant um die 2TB dynamisch zu nutzen.

alles klar, genau ein LXC Container und darin alle Docker-Anwendungen, aber ist das dann wirklich noch ein Vorteil zum Aufsetzen einer VM mit Debian und daruaf dann docker? der LXC Container ist "schmaler" richtig? hab gerade mal hier gelesen: https://earthly.dev/blog/lxc-vs-docker/, plus eben das thema share für die Datenlaufwerke und das backup?

ich hab bisher auch nur duckdns.org domain genutzt und per port forward auf openwrt router die anfragen auf die verschidenen raspberry umgeleitet (nextcloud, HA, wireguard). mit traefik geht das nicht weil traefik für das dashboard eine eigene domain verlangt, zumindest hab ich es nicht hinbekommen. hab noch bei hetzner eine de domain und könnte die nutzen, gibt auch ein hetzner ddns docker um die domains zu aktualisieren. damit funktioniert dann traefik als subdomain + nextcloud usw. danke erstmal für die tipps. und natürlich wolfgang :)
 
Aktuell mache ich das DNS für meine im Internet verteilten Hosts/Nodes jeweils via einer (pfSense-)VM, da ich splitDNS auch für den Host/Node nutzen möchte, wegen der E-Mail Benachrichtigungen. Die sollen nicht übers Internet gehen. Nun hätte ich aber ggf. Probleme, wenn besagte VMs mal ausfallen oder migriert werden sollten, z.B. wenn der PBS bei tuxis angesprochen werden muss. Wie handhabt ihr das?
Edit: Werde wohl mit der hosts-Datei arbeiten müssen.
Beitrag automatisch zusammengeführt:

Habe auch mal "zum Spaß" die clusterweite Firewallregel rausgenommen, die es den Nodes erlaubt, per WireGuard zu kommunizieren. Das Ergebnis war, dass nachdem ich einen Node neugestartet habe, dieser nicht mehr verbunden war. Meine Versuche, auf diesem Node die entsprechende Firewallregel wieder zu aktivieren, wurden mit Fehlermeldungen quittiert. Ich musste erst den Node via Console in den Locale Mode bringen und konnte dann eine entsprechende Regel erstellen. Dann habe ich erneut neugestartet und er hat sich wieder verbunden. Und dabei meine eben erstellte Regel sogleich gelöscht. Im Cluster hatte ich aber die entsprechende Regel zuvor wieder aktiviert, sodass diese auch synchronisiert wurde und nun ist wieder alles grün. 😅
 
Zuletzt bearbeitet:
wofür der alias ? hab kurz gegoogled aber nix zu proxmox lxc alias gefunden :d
Code:
lxc-attach 200
öffnet eine Shell für den LXC-container, wenn ich also was auf dem Docker-Host LXC machen will, tippe ich bei mir

Bash:
# auf proxmox einloggen
ssh pve

# shell für docker host öffnen
dock
ist das ein nicht empfehlenswertes vorgehen?
Keine Ahnung. Mich interessieren die Empfehlungen auch nur peripher, wenn dann nur um was zu lernen. Mein Homelab würde NIEMALS jemand GENAU SO bauen oder empfehlen. Es ist auf geringen Stromverbrauch, leisen Betrieb und einfache Wartung ausgerichtet - nicht auf Verfügbarkeit, Performance und kurze Ausfallzeiten.
alles klar, genau ein LXC Container und darin alle Docker-Anwendungen, aber ist das dann wirklich noch ein Vorteil zum Aufsetzen einer VM mit Debian und daruaf dann docker?
EIN Vorteil ist etwas eingeschränkt formuliert. Es gibt wie gesagt Vorteile und Nachteile. Die zwei Vorteile, die mich aber überzeugt haben, ist erstens das einfache Mappen von Host-Speicher (das geht für VMs nur via shares, siehe meine vorigen Beiträge) und zweitens das Einsparen von Ressourcen (ein LXC ist wesentlich leichtgewichtiger und weniger RAM-hungrig als ne VM).

  1. Entweder du musst samba auf dem Proxmox-Host installieren und einrichten (machbar, aber für mich ein Security No-Go, ich finde außerdem das sichere und performante Einrichten von shares wie SMB, NFS, SSHFS immer lästig...)
  2. eine VM mit TrueNAS / OpenMediaVault mit festgelegter Speichergröße einrichten (wo du den Speicher nicht ganz so einfach dynamisch vergrößern oder verkleinern kannst)
  3. oder nen LXC mit Shares einrichten, der einen vom Host durchgemappten Storage per NFS, SMB oder SSHFS frei gibt (was quasi genau der Lösung entspricht, die ich genannt habe, nur das man einen LXC für die Shares UND eine VM für docker benötigt und den Netzwerk-Overhead tragen muss - selbst wenn man VirtIO verwendet)
Zu beachten ist außerdem, dass TrueNAS und OpenMediaVault nur bedingt für LXC Container geeignet sind (man kann die teilweise gar nicht im LXC installieren, inzwischen geht es offenbar mit OMV, aber als ich angefangen habe, gings noch nicht) und man für den Share-LXC-Container dann manuell einen Samba / NFS / SSHFS konfigurieren muss... nerviger Zusatzaufwand verglichen mit der Mapping-Lösung.
 
Hallo zusammen,

ich baue momentan an meinem Homeserver. Dieser soll Proxmox als Hypervisor nutzen. Nun möchte ich ein NAS auch auf diesem Server hosten und dabei bin ich auf TrueNas gestoßen. Jetzt habe ich von verschiedenen Quellen gehört, dass ich meine HDDs nicht ans Board, sondern an ein PCIe Karte via SATA anschließen soll. Was für Vorteile bekomme ich davon und welche Karte ist zu empfehlen, wenn ich 4 HDDs anschließen möchte?
Kann mir damit jemand hier weiterhelfen oder bin ich hier Falschen?

Vielen Dank im Voraus.
 
Moin, der Ansatz ist grundsätzlich nicht verkehrt für das Setup. Ich denke, die Idee dahinter war, dass man den Controller einfacher an die TrueNAS-VM weiterreichen kann. Man koppelt ihn sozusagen vom Proxmox komplett ab und überlässt der TrueNAS-VM die Verwaltung und Nutzung. Oft ist es einfacher, solche zusätzlichen Controller weiterzureichen als die Anschlüsse, die direkt auf dem Mainboard sind. Ich denke, der "Goldstandard" sind die HBAs mit LSI/Avago/Broadcom 3008 Chipsatz. Die gibt es günstig von verschiedenen Herstellern auf dem Gebrauchtmarkt.

Ich würde aber erstmal mit Proxmox ohne zusätzlichem Controller beginnen und schauen wie weit man damit kommt. Spart Geld und man hat ggf. einen Steckplatz mehr frei für andere Spielereien.
 
Der Grund, einen HBA an eine NAS-VM durchzureichen ist eher der, dass ZFS in der VM die Platten und vor allem deren S.M.A.R.T. *DIREKT* ansprechen kann, was weniger Probleme erzeugt, als virtuelle Platten anzulegen oder die aus dem Hypervisor durchzureichen.

//Edith:
Je nachdem, wie und wo du den Hypervisor installieren willst, solltest du den Onboard-SATA-Controller an die NAS-VM durchreichen können.
Dann ist das auch ok und du brauchst keinen extra HBA.
Wichtig ist, dass der CONTROLLER durchgereicht wird, damit man in der VM die Platten direkt sieht.
Ich hab ProxMox auf ner PCIe-SSD installiert und deshalb eigentlich alle SATAs auf dem Board zum durchreichen zur Verfügung.
Weil ich aber ne Backplane für die Platten hab, ist ein HBA mit einem SFF-8087-Kabel sinniger. =)

Wenn du nen Controller suchst, IT-Mode ist das, was du bei ebay suchst. =)
Z.B. Dell H310 (IT-Mode preflashed) oder die gängigen LSI 9300er, wenn IT-Mode dabei steht.
Es gibt auch SFF-8087-Breakout-Kabel, die dir dann pro Kabel vier SATA-Anschlüsse auf der einen Seite bereit stellen.
 
Zuletzt bearbeitet:
Nun, in der Regel sitzt der SATA Controller nicht in einer eigenen IOMMU Gruppe, damit wird das durchreichen dann fast unmöglich (außer man braucht die restlichen Devices der IOMMU Gruppe nicht auf dem Host).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh