[Sammelthread] Proxmox Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hallo,

ich bin gerade dabei auf meinen hp dl 380p gen 8 proxmox zu installieren.

Diese 2 Anleitungen habe ich dazu benutzt:

https://tobs.tips/_doc_/ProxMoxDoc/02proxprep/

Proxmox PVE 6 Server Installation mit Debian 10 (Buster) Unterbau - 4noobs

Soweit alles gut nur dann bin ich an dem Punkt an dem ich mein Netzwerk einrichten will oder muss.

apt-get remove
network-manager

Netzwerk-Konfiguration

Als erstes müssen wir den Network-Manager entfernen. Wir verwalten die Netzwerke mit proxmox.
Gleichzeitig können wir auch den Debian-Kernel und den OS-Prober (Grub-Komponente) entfernen.
DL

apt-get remove
network-manager
linux-image-3.16.0
os-prober

Wie bereits erwähnt hat der Rechner 2 Schnittstellen.

Bis auf weiteres ist nur die externe 'eth0' angeschlossen! Die interne 'eth1' bleibt bis auf weiteres inaktiv.

Nach der Installation der Proxmox-Dienste lässt sich die Domain nicht mehr ändern, die IP-Adresse aber schon. Deshalb nutzen wir im Moment auf der externen Karte die interne domain "intern.comasys.ch". Der Host wird auf keiner der physikalischen Netzwerk-Adressen erreicbar sein sondern nur auf der internen "192.168.99.248" und über die Firewall mit der Aussenwelt in Kontakt treten.

Die interne IP-Adresse des Systems muss unbedingt statisch sein, ansonsten wird die folgende resolv.conf durch den dhcp-Client überschrieben. Im folgenden gehe ich davon aus, dass der aktuelle Router die IP 62.2.169.40 hat, und dass die .248 frei ist.
/etc/network/interfaces
DL

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet static
address 62.2.169.248
netmask 255.255.255.240
gateway 62.2.169.40

auto eth1
iface eth1 inet manual

/etc/resolv.conf

Als Name-Server setzte ich für den Moment den öffentlichen von Google ein.

Die Domain muss gültig sein. Die hier als Beispiel verwendete 'local.comasys.ch' muss ZWINGEND durch eine gültige Domain ersetzt werden!

Weder die Domain noch der Host-Name lassen sich nach der Installation von Proxmox ändern - zumindest nicht mit vernünftigem Aufwand. Wer also bei der Installation des Debian-Systems nicht die gültige Domain oder den passenden Host-Namen eingetragen hat, hat jetzt die letzte Möglichkeit zur Korrektur!
DL

domain intern.comasys.ch
nameserver 8.8.8.8

/etc/hosts
DL

127.0.0.1 localhost
62.2.169.248 proxmox1.intern.comasys.ch proxmox1
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

/etc/hostname
DL

proxmox1





Meine fritz.box 192.168.178.1
ILO-Server 192.168.178.9
SERVER DL380p 192.168.178.10

Ich habe folgende Netzwerkanschlüsse im Server:

1 Ilo-Netzwerk
4 1-G-bit Lan
2 10-G-bit Lan

Das hier habe ich eingetragen:


/etc/network/interfaces

auto lo
iface lo inet loopback

auto eth1
iface eth1 inet static
address 192.168.178.10
netmask 255.255.255.0
gateway 192.168.178.1



/etc/resolv.conf

nameserver 192.168.178.1
search fritz.box




/etc/hosts
127.0.0.1 localhost pvelocalhost
192.168.178.200 server. IhrHostname pvelocalhost (gibt es nicht Server ist komplett als Localhost und nicht bei einem HOSTER )

# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters



Problem ist nun ich komme mit dem Server nicht mehr ins Internet.
Vm's habe ich noch keine eingerichtet.
 
Zuletzt bearbeitet:
Genau das ist es. Bei mir sind die HDDs nicht unter storage eingebunden. Lediglich die m2 ist sichtbar wo sich alles abspielt.

Wie schädlich sind für die m2 diese ständige Zugriffe? Wo finde ich diese Datenbank bzw. Logs und wie groß sind die?

Edit: Das würde bedeuten das mit der Proxmox ISO alle HDDs in storage eingebunden sind und deshalb sie nicht in den standby gehen. Man das jemand bestätigen?

Ich hab hier einen TEstcluster mit 3 Nodes der seit 5 Jahren 24/7 mit 2x Evo 840 Pro läuft. Wearout ist noch unter 30%, von daher würde ich sagen man kann es ignorieren.

- - - Updated - - -

hallo,

ich bin gerade dabei auf meinen hp dl 380p gen 8 proxmox zu installieren.

Gibt es einen Grund warum du den Umweg über Ubuntu oder Debian gehst?
 
@loaded: was hast du da alles gemacht?? Ich habe bisher immer die ISO installiert, beim installer wurde alles automatisch erkannt. Und dann war es das? später noch netzwerkkarten hinzugefügt und das wars. Warum du da so einen riesen Aufwand gemacht hast, verstehe ich jetzt nicht..
 
@loaded: was hast du da alles gemacht?? Ich habe bisher immer die ISO installiert, beim installer wurde alles automatisch erkannt. Und dann war es das? später noch netzwerkkarten hinzugefügt und das wars. Warum du da so einen riesen Aufwand gemacht hast, verstehe ich jetzt nicht..

hatte auch erst die iso benutzt aber da kommte ich die platten nicht verschlüsseln und ich wollte eine grafikoberfläche haben.

geht das mit der iso auch ? habe immer nur gelesen das es so mehr möglichkeiten gibt als wenn nur die iso genommen wird.

platten sind alle an einem controller also kein software raid.
 
Verschlüsseln: Es sollte ja jetzt mit ZFS encrypt gehen.
Wofür eine Grafikoberfläche? Naja es ist halt Debian, da kannst du alles installieren, was du willst.
Alternativ: Installier dir eine kleine Grafikkarte, reiche die an eine VM durch und schon hast du eine Grafikoberfläche.
 
Ok sorry, doofe Handy Tastatur.
Nochmal meine Frage lesbar [emoji4]

Wäre es nicht sinnvoll, den sata Controller in einem Xpenology oder openmediavault vm durchzureichen? Dabei denke ich an die Smart Werte, Temperatur, Power und akustik Management Möglichkeiten [emoji4]
 
Wenn an deinem SATA Controller sonst keine Platten hängen die du anderswo brauchst und wenn dein SATA Controller in einer eigenen IOMMU Gruppe Steckt oder du damit leben kannst, dass alle weiteren Geräte der IOMMU Gruppe auch an die VM durchgereicht werden - dann spricht nix dagegen.
 
wenn dein SATA Controller in einer eigenen IOMMU Gruppe Steckt oder du damit leben kannst, dass alle weiteren Geräte der IOMMU Gruppe auch an die VM durchgereicht werden - dann spricht nix dagegen.

Was heißt das genau? Bin auch gerade am Überlegen mein System mal wieder mit Proxmox aufzusetzen. Ich habe zwei Devices, die ich durchreichen möchte:

1. SAS/SATA Controller
2. DVB-Karte

Was muss ich beachten, wenn ich beide Devices an eine VM (KVM) durchreichen möchte bzw. beide Devices an unterschiedliche VMs?

Viele Grüße Hoppel
 
Hallo zusammen,

ich bin nun auch mal auf den Proxmox Zug aufgesprungen.
Installation soweit alles gut, nur mit den LXC Containern habe ich echte Bauchschmerzen. Der Start dauert ganze 4-5 Minuten. Irgendwie kommt mir das etwas komisch vor.
Ich habe schon unterschiedliches ausprobiert, konnte aber bisher keine Lösung finden.

Hier mein letzter Versuch auf ext4, anstatt auf zfs:

# pveperf
CPU BOGOMIPS: 54396.40
REGEX/SECOND: 3784941
HD SIZE: 54.63 GB (/dev/mapper/pve-root)
BUFFERED READS: 463.47 MB/sec
AVERAGE SEEK TIME: 0.11 ms
FSYNCS/SECOND: 640.38
DNS EXT: 36.29 ms
DNS INT: 0.67 ms (XXX.XXX)

Beim NIC habe ich neben der Linux Bridge auch schon OVS Bridge ausprobiert gehabt.

Irgendwelche Tips?

P.S.: Hardware ist ein ein SuperMicro X10SL7-F mit Intel Xeon E3-1231 v3, 32GB DDR3 ECC (4x8GB), Sandisk 3D Ultra SSDs (2x 500GB, 2x 1TB) und Intel I350-T4 NIC.
 
Zuletzt bearbeitet:
Normalerweise dauert der Start eines LXC Containers nicht länger als ein paar Sekunden, das Grundsystem läuft ja schon.
Verbinde Dich mal der Proxmox Console (WebGUI) auf den startenden LXC und schau, wo er so lange braucht.
Mit allen LXCs so?
Ein nacktes Debian ist bei mir nach Installation in 3s hochgefahren.
 
Ich habe es nun herausgefunden. Der böse DHCP ist schuld...
Muss ich mir mal genauer anschauen. IPv4 kann ich statisch vergeben, bei IPv6 möchte ich gerne meine delegierten öffentlichen IPs verwenden, da brauche ich DHCP.
 
Ein weiteres nerviges Problem ist, dass wenn ich über die UI die ZPools anlege, irgendetwas beim Reboot passiert. Nun sind mir schon zweimal die Pools um die Ohren geflogen, die ich angelegt hatte. Der Unterschied ist, dass diese an den Path (sdx) angebunden sind und nicht an die DeviceID.

Alte Konfiguration mit Path Konfiguration:
zpool status
NAME STATE READ WRITE CKSUM
bigpool DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
sda ONLINE 0 0 0
sdb ONLINE 0 0 0
sdc ONLINE 0 0 0
9209825474142492535 UNAVAIL 0 0 0 was /dev/sdd1

NAME STATE READ WRITE CKSUM
datapool DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
2108774227030209579 FAULTED 0 0 0 was /dev/sde1
sdf ONLINE 0 0 0


zdb
bigpool:
version: 5000
name: 'bigpool'
state: 0
txg: 42
pool_guid: 15640513322965840326
errata: 0
hostid: 457344981
hostname: 'pve01'
com.delphix:has_per_vdev_zaps
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 15640513322965840326
create_txg: 4
children[0]:
type: 'raidz'
id: 0
guid: 10462015208541825050
nparity: 1
metaslab_array: 65
metaslab_shift: 34
ashift: 12
asize: 40003264577536
is_log: 0
create_txg: 4
com.delphix:vdev_zap_top: 129
children[0]:
type: 'disk'
id: 0
guid: 3051058596815846735
path: '/dev/sda1'
devid: 'ata-WDC_WD100EFAX-68LHPN0_7JHPYMNC-part1'
phys_path: 'pci-0000:02:00.0-sas-phy2-lun-0'
whole_disk: 1
create_txg: 4
com.delphix:vdev_zap_leaf: 130
children[1]:
type: 'disk'
id: 1
guid: 12047339730880332220
path: '/dev/sdb1'
devid: 'ata-WDC_WD100EFAX-68LHPN0_2TJWHX4D-part1'
phys_path: 'pci-0000:02:00.0-sas-phy0-lun-0'
whole_disk: 1
create_txg: 4
com.delphix:vdev_zap_leaf: 131
children[2]:
type: 'disk'
id: 2
guid: 6771060289420891358
path: '/dev/sdc1'
devid: 'ata-WDC_WD100EFAX-68LHPN0_2TJK6N1D-part1'
phys_path: 'pci-0000:02:00.0-sas-phy1-lun-0'
whole_disk: 1
create_txg: 4
com.delphix:vdev_zap_leaf: 132
children[3]:
type: 'disk'
id: 3
guid: 9209825474142492535
path: '/dev/sdd1'
devid: 'ata-WDC_WD100EFAX-68LHPN0_2TJVZ0TD-part1'
phys_path: 'pci-0000:02:00.0-sas-phy3-lun-0'
whole_disk: 1
not_present: 1
DTL: 11
create_txg: 4
com.delphix:vdev_zap_leaf: 133
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data


datapool:
version: 5000
name: 'datapool'
state: 0
txg: 13
pool_guid: 14579474921188870134
errata: 0
hostid: 457344981
hostname: 'pve01'
com.delphix:has_per_vdev_zaps
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 14579474921188870134
create_txg: 4
children[0]:
type: 'mirror'
id: 0
guid: 14867321198587482272
metaslab_array: 65
metaslab_shift: 33
ashift: 12
asize: 1000189984768
is_log: 0
create_txg: 4
com.delphix:vdev_zap_top: 129
children[0]:
type: 'disk'
id: 0
guid: 2108774227030209579
path: '/dev/sde1'
devid: 'ata-SanDisk_SDSSDH31000G_181290801759-part1'
phys_path: 'pci-0000:02:00.0-sas-phy4-lun-0'
whole_disk: 1
not_present: 1
DTL: 11
create_txg: 4
com.delphix:vdev_zap_leaf: 130
children[1]:
type: 'disk'
id: 1
guid: 14216593457577326574
path: '/dev/sdf1'
devid: 'ata-SanDisk_SDSSDH3_1T00_191619802251-part1'
phys_path: 'pci-0000:02:00.0-sas-phy5-lun-0'
whole_disk: 1
create_txg: 4
com.delphix:vdev_zap_leaf: 131
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data




Neue Konfiguration mit device-by-id Konfiguration:
zpool status
NAME STATE READ WRITE CKSUM
datapool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-SanDisk_SDSSDH31000G_181290801759 ONLINE 0 0 0
ata-SanDisk_SDSSDH3_1T00_191619802251 ONLINE 0 0 0

zdb
datapool:
version: 5000
name: 'datapool'
state: 0
txg: 4
pool_guid: 17896543159519783185
errata: 0
hostid: 457344981
hostname: 'pve01'
com.delphix:has_per_vdev_zaps
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 17896543159519783185
create_txg: 4
children[0]:
type: 'mirror'
id: 0
guid: 15521094508607296834
metaslab_array: 256
metaslab_shift: 33
ashift: 9
asize: 1000189984768
is_log: 0
create_txg: 4
com.delphix:vdev_zap_top: 129
children[0]:
type: 'disk'
id: 0
guid: 16241706633728070580
path: '/dev/disk/by-id/ata-SanDisk_SDSSDH31000G_181290801759-part1'
devid: 'ata-SanDisk_SDSSDH31000G_181290801759-part1'
phys_path: 'pci-0000:02:00.0-sas-phy4-lun-0'
whole_disk: 1
create_txg: 4
com.delphix:vdev_zap_leaf: 130
children[1]:
type: 'disk'
id: 1
guid: 6229528404067884096
path: '/dev/disk/by-id/ata-SanDisk_SDSSDH3_1T00_191619802251-part1'
devid: 'ata-SanDisk_SDSSDH3_1T00_191619802251-part1'
phys_path: 'pci-0000:02:00.0-sas-phy5-lun-0'
whole_disk: 1
create_txg: 4
com.delphix:vdev_zap_leaf: 131
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data

P.S.: Ich benutze das seit vorgestern zum ersten Mal, vielleicht ist das auch bekannt.
 
Zuletzt bearbeitet:
moin,
ich habe debian buster auf meinem home-server installiert und ein update auf Proxmox gemacht.

Diese beiden Anleitungen habe ich dazu genutzt:
https://tobs.tips/_doc_/ProxMoxDoc/
Proxmox PVE 6 Server Installation mit Debian 10 (Buster) Unterbau - 4noobs

Soweit läuft auch alles, nur hänge ich an dem Punkt wo ich ZFS nachträglich installiere.
Anleitung ist hier:
Debian · zfsonlinux/zfs Wiki · GitHub


da ist ein fehler
Typ »Package:« in Zeile 22 der Quellliste /etc/apt/sources.list ist unbekannt.


/etc/apt/sources.list

# vi /etc/apt/preferences.d/90_zfs
#Package: libnvpair1linux libuutil1linux libzfs2linux libzpool2linux spl-dkms zfs-dkms zfs-test zfsutils-linux zfs-utils-linux-dev zfs-sed
#Pin: release n=buster-backports
#Pin-Priority: 990


meine etc/apt/sources.list



# deb cdrom:[Debian GNU/Linux 10.0.0 _Buster_ - Official amd64 DVD Binary-1 20190706-10:24]/ buster contrib main

# deb cdrom:[Debian GNU/Linux 10.0.0 _Buster_ - Official amd64 DVD Binary-1 20190706-10:24]/ buster main contrib

deb Index of /debian-security buster/updates main contrib non-free
deb-src Index of /debian-security buster/updates contrib main non-free

deb Index of /debian buster main contrib non-free
deb-src Index of /debian buster main contrib non-free

deb Index of /debian buster-updates main contrib non-free
deb-src Index of /debian buster-updates main contrib non-free

deb Index of /debian/pve/ buster pve-no-subscription

# vi /ect/apt/sources.list.d/buster-backports.list
deb Index of /debian buster-backports main contrib
deb-src Index of /debian buster-backports main contrib

# vi /etc/apt/preferences.d/90_zfs
Package: libnvpair1linux libuutil1linux libzfs2linux libzpool2linux spl-dkms zfs-dkms zfs-test zfsutils-linux zfs-utils-linux-dev zfs-sed
Pin: release n=buster-backports
Pin-Priority: 990


wo liegt mein Fehler ?

Wenn die Zeilen sind weg sind und wenn ich das mache


root@Server:~# apt install --yes dpkg-dev linux-headers-$(uname -r) linux-image-amd64
Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut.
Statusinformationen werden eingelesen.... Fertig
E: Paket linux-headers-5.0.15-1-pve kann nicht gefunden werden.
E: Mittels des Musters »linux-headers-5.0.15-1-pve« konnte kein Paket gefunden werden.
E: Mittels regulärem Ausdruck »linux-headers-5.0.15-1-pve« konnte kein Paket gefunden werden.
root@Server:~#


und nun ;-)

liegt das jetzt daran das ich in proxmox über die weboberfläche arbeite oder muss das direkt an der konsole sein ?
 
hat hier jemand unter proxmox so was in der art am laufen?

- vm pfsense / opnsense
- 2 windows server vm (dc/ex)
- 1 windows vm
- plex docker mit intel igpu passthrough
- nextcloud
- paar kleine webserver

ich hab aktuell nen i7-7700 mit unraid und hab das obige nun drauf laufen, aber wirklich gut ist anders. wenn die windows vm über vpn was lädt mit sagen wir 3mb/s, hat die vm der opnsense schon 80% last. alles in allem läuft aktuell die kiste keine ahnung dauernd mind. bei 30-40% last. zudem hab ich rudimentär ausfälle, dass ich keine files auf network shares kopieren kann, dann muss ich den ganzen kasten rebooten. dann hab ich nach nem reboot eines windows servers auf einmal das phänomen, dass eine nic nicht mehr erkannt wurde und er installiert die "neu erkannte" karte beim start neu und siehe da -> neue adresse, dc nicht erreichbar...alles prima...das problem was ich habe ich habe 6 x 10tb hdds verbaut zusammen mit 1tb nvme, sowas unter proxmox wird selbst mit 64gb problematisch oder? für das was ich den kasten nutze, zieht er mir auch zu viel strom, mit den 30-40% last, bin ich schon bei gut 70w die der kasten zieht. evtl. hat jemand nen tipp, was ich tun kann, damit ich wieder mal zufrieden bin, so traue ich weder dem storage noch der hardware...
 
Zuletzt bearbeitet:
Die Faustregel 1GB RAM pro 1TB Storage ist bei ZFS überholt. Ich hab schon 20TB mit 6GB Ram betrieben :fresse:
Standardmäßig weist sich ZoL 50% des RAMs als ARC zu, gibt diesen aber bei Bedarf auch dynamisch wieder frei. Ansonsten kann man das auch über Modprobe steuern.

Ich betreibe unter Proxmox selber ein 6x10TB ZFS Mirror (30TB netto) mit bis vor kurzem 16gb RAM, jetzt 32GB. Restliche Hardware:
  • Intel Xeon E3-1230 v6
  • 32GB DDR4 ECC RAM
  • Supermicro X11SSM-F
  • Seasonic SS-400L2U 400W
  • 2* Samsung 860 Pro 512GB SSD
  • 6* WD RED 10TB @ ZFS RAID10
  • Dell H310 (IT-Mode)
  • Fujitsu D2755-A11 2x SPF+


Läuft wunderbar, dazu auch ein paar VMs und Container (MariaDB, Seafile, Home Assistant, Deluge, Tvheadend, Oxidized, Icinga2, LANCache, 2 virtuelle Freifunk Router, 2 Windows DCs):
2019-07-30 14_34_56-Remote Desktop Manager [Quick connect - fwvirt120.biocrafting.net_64501].png


Das Teil schluckt wahrscheinlich auch so um die 70-80W (APC SmartUPS 750 sagt ca 15% Last), das liegt aber größtenteils an den Platten, der 10G NIC und den HBA.
 
Die Faustregel 1GB RAM pro 1TB Storage ist bei ZFS überholt. Ich hab schon 20TB mit 6GB Ram betrieben :fresse:
Standardmäßig weist sich ZoL 50% des RAMs als ARC zu, gibt diesen aber bei Bedarf auch dynamisch wieder frei. Ansonsten kann man das auch über Modprobe steuern.

Ich betreibe unter Proxmox selber ein 6x10TB ZFS Mirror (30TB netto) mit bis vor kurzem 16gb RAM, jetzt 32GB. Restliche Hardware:
  • Intel Xeon E3-1230 v6
  • 32GB DDR4 ECC RAM
  • Supermicro X11SSM-F
  • Seasonic SS-400L2U 400W
  • 2* Samsung 860 Pro 512GB SSD
  • 6* WD RED 10TB @ ZFS RAID10
  • Dell H310 (IT-Mode)
  • Fujitsu D2755-A11 2x SPF+


Läuft wunderbar, dazu auch ein paar VMs und Container (MariaDB, Seafile, Home Assistant, Deluge, Tvheadend, Oxidized, Icinga2, LANCache, 2 virtuelle Freifunk Router, 2 Windows DCs):
Anhang anzeigen 472112


Das Teil schluckt wahrscheinlich auch so um die 70-80W (APC SmartUPS 750 sagt ca 15% Last), das liegt aber größtenteils an den Platten, der 10G NIC und den HBA.

okay beruhigt schon einmal, nur die frage ist eben, ob ich mir das jetzt mit meiner hardware "antue", die ich habe oder eben direkt switche auf xeon / ecc, ich will halt net in paar monaten wieder anfangen ...

plex hast du aber nicht laufen oder?
 
If you love your data, take ECC.
 
wieviel tb würde ich denn bei nutzung von zfs verlieren? also bei 6 x 10tb, dann ~ 50 tb nutzbar?
 
na das hat doch nichts mit zfs zu tun sondern deinem gewählten RAID...
STRIPE=60TB, MIRROR=30TB, STRIPED MIRROR=30TB, RAIDZ=50TB, RAIDZ2=40TB, RAIDZ3=30TB usw.
 
okay beruhigt schon einmal, nur die frage ist eben, ob ich mir das jetzt mit meiner hardware "antue", die ich habe oder eben direkt switche auf xeon / ecc, ich will halt net in paar monaten wieder anfangen ...

plex hast du aber nicht laufen oder?

Nein, Plex habe ich nicht am laufen. Ich habe damit mal kurz rumgespielt, aber meine Mediaplayer fressen eigentlich alles "roh". Streaming für unterwegs kann ich eh vergessen, ich habe nur 2 MBit Upload.


Als Alternative zu einem Xeon vll ein X470 Servermainboard (Asrock RACK X470D4U) mit einem Ryzen drauf?
Nimmt sich preislich nicht so viel, aber beim Ryzen kriegst du mehr Kerne/Threads. Ich hab meinen Server leider zu einem Zeitpunkt zusammengebaut, als es noch keine Boards mit IPMI und AM4 gab. Bin aber am überlegen ob ich wechsel, aber derzeit bin ich mit meiner Plattform soweit zufrieden.
 
@postbote:
Hast du den Cache per modprobe angepasst?

Und was ist LANCache?

Das Asrockrack Board ist ganz gut, hat mir aber wohl leider zu wenig PCI e Ports.

Edit: ah ok, hab lancache gegoogelt. Bin auf keiner LAN und docker ist eh ein pain in the ass.
 
Zuletzt bearbeitet:
Nein, Plex habe ich nicht am laufen. Ich habe damit mal kurz rumgespielt, aber meine Mediaplayer fressen eigentlich alles "roh". Streaming für unterwegs kann ich eh vergessen, ich habe nur 2 MBit Upload.

Mit Plex kannst du offline synchronisieren. ;)
Ich habe auch Player die alles nativ können, habe es aber lieben gelernt, dass ich an allen Geräten den gleichen Stand habe und fortsetzen kannst.
 
Was heißt das genau? Bin auch gerade am Überlegen mein System mal wieder mit Proxmox aufzusetzen. Ich habe zwei Devices, die ich durchreichen möchte:

1. SAS/SATA Controller
2. DVB-Karte

Was muss ich beachten, wenn ich beide Devices an eine VM (KVM) durchreichen möchte bzw. beide Devices an unterschiedliche VMs?

Viele Grüße Hoppel

Die Devices müssen in unterschiedlichen IOMMU Gruppen sein - die werden vom Mainboard vorgegeben, wenn das UEFI vom Hersteller scheiße programmiert wurde, steckt alles in der selben IOMMU Gruppe und du kannst den Passthrough quasi vergessen. Denn durchgereicht wird alles was in der IOMMU Gruppe "mit drin steckt". Manchmal hilft auch pcie_acs_override im kernel zu aktivieren (der Proxmox kernel hat diesen patch standardmäßig schon mit drin, muss nur aktiviert werden) - eine Garantie, dass die Devices dann aber seperat durchzureichen sind, ist das aber nicht. Quasi immer sauber implementiert ist es auf den HEDT und Server Platformen. Bei AM4 sind die drei PCIe Slots (8x,8x,4x(M2 - gibts auch Adapter um den als Standardslot zu nutzen)) der CPU immer in seperaten Gruppen. Bei S115* ist der 16x Slot gesplittet in 2x8x immer in der selben Gruppe, da hilft auch kein pcie_acs_override. Alles was hinter dem Chipsatz hängt, ist UEFI-Programmiererabhängig und der pcie_acs_override kann helfen, muss aber nicht. Auf reddit gibts ein paar Threads, wo die Leute ihre IOMMU Gruppen listen - musst aber selber suchen. Im vfio subreddit war das glaub.
 
Ok, spannend! Danke für die Rückmeldung.

Bei mir war es wie folgt:

Mit Proxmox 4 konnte ich den Onboard-SAS-Controller in eine andere VM durchreichen, als meine PCIe-DVB-Karte. Mit Proxmox 5 war das dann plötzlich nicht mehr möglich und ich habe das Thema dann irgendwann ohne Proxmox mit Docker-Containern statt VMs über Openmediavault 4 umgesetzt. Das funktioniert seither astrein. Allerdings vermisse ich meine KVM-/LXC-Testumgebungen. Bin nun am Überlegen, wenn Openmediavault 5 irgendwann raus kommt, Proxmox nochmal eine weitere Chance zu geben.

Mal sehen. Ich kann auch nicht ausschließen, dass es wegen eigener Unwissenheit mit Proxmox 5 nicht funktionierte. ;)

Ich habe ein Server-Mainboard von Supermicro (X11SSH-CTF) im Einsatz: X11SSH-CTF | Motherboards | Products | Super Micro Computer, Inc.

Ist Dir da irgendwas bekannt, ob das mit Supermicro grundsätzlich mit verschiedenen IOMMU Gruppen funktionieren müsste?

Viele Grüße Hoppel
 
Zuletzt bearbeitet:
Warum legst du nicht einfach eine simple Vdisk für dein virtuelles NAS an? Storage macht heute jeder Hypervisor einfach nebenbei mit.
 
Also beim Supermicro geh ich mal davon aus, dass das eine ordentliche Gruppierung hat, eine StorageVM würd ich mit Proxmox6+zfs.0.8.1 keine mehr nehmen.
 
Warum legst du nicht einfach eine simple Vdisk für dein virtuelles NAS an? Storage macht heute jeder Hypervisor einfach nebenbei mit.

Joar, ich möchte meine Festplatten, inkl. Controller, allen Freigaben und Berechtigungen halt gerne in einer Storage-VM (Openmediavault) managen.

Also beim Supermicro geh ich mal davon aus, dass das eine ordentliche Gruppierung hat, eine StorageVM würd ich mit Proxmox6+zfs.0.8.1 keine mehr nehmen.

Ok, wahrscheinlich lag diese Fehlfunktion an meiner Unwissenheit.

Wenn ich den Proxmox6-Kernel in Openmediavault 5 ziehe, habe ich in OMV ja auch zfs.0.8.1. Momentan gibt es allerdings noch kein OMV5. Beides basiert aber auf Debian Buster. Mal sehen, ob und wie das so läuft. Oder gibt es Gründe, die dafür sprechen, dass das mit dem Proxmox6-Kernel nicht mehr funktioniert?

Ich bin aber auf die Verschlüsselung des Zpools auch nicht so heiß, wie andere hier... ;)

Außerdem finde ich OMV toll und möchte das Projekt nicht aufgeben. :)

Gruß Hoppel
 
Es spricht nichts gegen eine OMV VM für die Freigaben usw. Überlasse Proxmox die Platten und leg einfach eine virtuelle Platte für dein Nas an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh