[Sammelthread] Proxmox Stammtisch

Ich hab da im Setup nichts weiter modifiziert:

lvm 931GB (98% der SSD)
--- local (Verzeichnis, 4.87 GiB von 93.99 GiB belegt)
--- local-lvm (LVM-Thin, 118.90 GiB von 794.79 GiB belegt)

Die SSD steckt in einem kryoM.2 auf einer Riserkarte im PCIe, als es das erste Mal passierte, hatte ich einen flexiblen Riser. Dass beide Riser defekt sind, halte ich für unwahrscheinlich. Auf dem Kryo ist keine Technik drauf und es funktionierte ja auch zuvor problemlos. Also am ehesten die SSD selbst.

Da sich das System-Log (nicht aber das Task-log) in Proxmox nach mit jedem Start löscht (Warum?) kann ich nicht sagen, bei welchem Ereignis es genau passiert.
Sicherung habe ich noch gar nicht eingerichtet, so weit war ich noch nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie handhabt ihr die MountPoints mit der Rechtevergabe ? Hab da gerade einen Klemmer...

PVE gibt einen Storage frei als Mountpoint an ein LXC. Der LXC stellt den SambaServer.

Habt ihr den Storage dann komplett auf 777 stehen? Sobald ich die Rechte einwenig einschränke, läuft der SMB nicht mehr bzw. ich kann nicht mehr auf die Freigaben zugreifen, da ich glaube das SMB komplett execute benötigt ???
 
Mein SSD Problem trat wieder auf. Kann es sein, dass Proxmox die SSD in einen Dornröschenschlaf schickt, aus dem sie nicht mehr erwacht?
Ich habe jetzt mal die PCIe Energiesparmodi im Bios deaktiviert....

Edit: Scheint tatsächlich mit dem Powermanagement zu tun zu haben. Ich fand hier diesen Beitrag, der auf einen Bug im Linux Kernel hinweist. Tritt wohl besonders gerne mit der Kingston A2000 auf: https://tekbyte.net/2020/fixing-nvme-ssd-problems-on-linux/ Ich habe den fix in Grub eingetragen und werde es testen.
 
Zuletzt bearbeitet:
Hallo zusammen,
nach etwas längerer Abstinzenz möchte ich mich wieder mehr mit HomeServern und Gaming-PC's beschäftigen. Ich weiß, normaler Weise zwei komplett unterschiedliche Themen.

Was ich möchte:
- HomeServer: Promox-Installation mit folgende VE's bzw. Containern: NAS, NextCloud, ggf. Webserver, UbiquitController, ggf. Homeatic-Server, Windows-Test-System (Windows 10 Pro), 1 Ubuntu Testsystem, 1 Gentoo Testsystem, 1 Debian Testsystem
- Game-PC: Windows 10 Pro, Office-Paket, teils "ältere Online Games (wie HDRO und ElderScrolls Online), teils akutelle Titel (Shooter und so)

Auf einem von beiden Kisten sollen Foto- und Videobearbeitung laufen.
Ich würde auch mit dem Gedanken spielen, die Games auf einer VM laufen zu lassen, glaube allerdings nicht, dass das mit bester Auflösung und ruckelfrei einfach so durch "Schleifen" funktioniert. Gerne lasse ich mich eines Besseren belehren.

Akutell habe ich noch folgende Hardware rumfliegen:

- Xeon E3 1241 V3 CPU (1150 S)
- HP Prodesk 400 G1 MicroTower (I3 4130 / 1150 S, 2 Ram-Bänke, leider ohne ECC),
1 4TB Seagate IronWolf, 1 4TB WD Red, 1 256 GB Samsung 840 oder 850 Pro SATA SSD, diverse 4 GB Ram-Module (non ECC), diverse externe Platten

- Gigabyte Mainboard (GA-EX58 UD5 /1366 S) mit Xeon X5660, 12 GB DDR 3 Ram, ASUS SATA3 und USB 3 Card, Nvidia 1070 GTX, Samsung 860 EVO SSD-Sata mit 1TB, diverse SATA 3 Platten

Überlegt habe ich:

Varriante 1 (Xeon E3 Server): - Kauf eines 1150 Mainboards mit ECC, Kauf von 16-64 GB ECC RAM oder - Kauf eines 1150 Mainboard mit mehr als 2 Ram-Bänke
Neukauf Gaming-PC (Intel mit 1200er Gigabyte W480M VISION W mit NVME Raid und sowohl ECC- als auch NONECC RAM) und Verkauf des Gigabyte-Mainboards und des X5660

Varriante 2 (Xeon E3 als Gamer): - Aufbau/Kauf eines neuen Servers (möglichst Stromsparend) - vielleicht auch mit dem Gigabyte W480M VISION W und ECCRAM?? -

Ich bin kein INTEL Fanatiker - aber soweit ich es verstanden habe, sind die AMD's einfach strom-fressender und an Übertakten habe ich kein Interesse.

Ich möchte einfach nur sauber laufende, möglichst strom-sparende Systeme am Laufen haben, die mich aber nicht gleich tausende von Euronen kosten. Ein Homeserver, der meinetwegen 70 EURO an Strom frisst, macht keinen Sinn. Dann kann ich gleich bei Hetzner einen Server nehmen. Das Zocken frisst extra-Strom, das ist mir klar.

Now I need help. ;-)
 
@Badrig Danke für den Hinweis, ich hab im Moment genau dasselbe Problem mit einer Kingston A2000. Bei mir hängt sich der Host tendenziell eher auf, wenn eine VM viele Schreib/Lesezugriffe macht.
Werde den Workaround auch mal testen.
 
Ich hatte seit Samstag auch keine Probleme mehr, sonst hat das System meist nur ein paar Stunden durchgehalten.
Sieht also gut aus.
 
Habt ihr Erfahrungen mit USB Netzwerkkarten für 2,5 (Realtek) oder 5GBase-T (Aquantia) an einem Server mit Proxmox?
 
Top, das klärt eigentlich alles, was ich wissen wollte.
Jetzt ist nur die Frage, ob ein AliExpress 2.5G Modell für die Hälfte des Preises auch taugt.
 
Wie kann ich nochmal eine SMB-Freigabe in einem priviligiertem LXC einbinden?
 
Ich hab ein etwas seltsames Netzwerkproblem:
Ich habe zwei getrennte Netzwerke. Ein priviligierter Container soll über das eine ins Internet und über das andere auf eine Samba Freigabe zugreifen können.
Bisher lief beides problemlos über ein und das selbe Netzwerk. Über das neue/zweite Netzwerk erreicht er jedoch nur den Host (ping). Der Host selbst hat aber ganz normal Zugriff auf das gesamte zweite Netzwerk (ping, CIFS, Backups etc).
Die Netzwerkkarte schließe ich daher aus. Da es über das alte Netzwerk ging, dürfte auch Container und Firewall nichts ausmachen. Ideen?

Konfig:
i219 -> Bridge -> Container
Realtek 8156 -> Bridge -> Container
 
Was sagen denn die Routen im Container bzw. deines Netzwerkes als solches?


Habe auch ein Frage, setzt ihr Container oder VMs in der DMZ ein? Konkrekt geht es um einen Nginx mit PHP für z.B. Nextcloud.
 
Hallo Zusammen,

mal ne Frage in die Runde.
Habe beim Hauskauf ein PC mit Biostar J1900NH3 gefunden. Zum üben und basteln installierte ich eine HDD und Proxmox. Mittlerweile laufen vier lx container mit intern je 4-6 docker. Dabei ist die lxc mit pihole und der lxc mit octoprint wohl der wichtigste. Beides lief eigtl immer auf meinem Raspi der mittlerweile aber zur SetTop Box wurde (Recalbox).

Nun wie dem auch sei - Das system läuft und ich würde gerne die Backup HDDs aus meinem Desktop PC outsourcen. Leider hat das Biostar nur 2x Sata3.. Lohnt es sich noch eine SATA Controller zu holen? Oder bekomme ich gebraucht bessere Hardware für den selben schmalen Taler (60€).
Ich hätte auch noch nen Raspi4 - da ist mir aber der SD Slot kaputt gegangen und ich muss nen neuen dranlöten... und ich hab das selbe Problem

Bisher habe ich immer die Win10 interne sicherung genutzt. Was gibt es da an besseren Alternativen um folgendes zu sichern: 2 Surface7, 1 Vaio Laptop, 1 Desktop PC, [2 Android]? Lohnt sich die Installation einer Nextcloud-VM oder ähnlichen für die Synchronisierung der Geräte?



EDIT: Ich bin kompletter Anfänger in dem Thema. Lerne seit rund zwei oder drei Wochen allerlei zum Thema Hypervisor, VM, Container und co. Macht gut Laune !
 
Zuletzt bearbeitet:
Was sagen denn die Routen im Container bzw. deines Netzwerkes als solches?
Die waren nicht vorhanden o_O
Was mich zur nächsten Frage führt: Warum funktioniert in den Container und auch in den VMs hinter dieser Bridge das DHCP nicht?

Im andern Netzwerk funktioniert es. Alles ist meines Wissens nach identisch konfiguriert. Gibt es irgendwelche Firewallregeln für nachträglich angelegte Netzwerkgeräte, die ich noch hinzufügen muss?
 
Ich wollte nur mal anmerken das man Samba-Shares auch an unprivilegierte Container durchreichen kann.
Dazu mit dem Proxmox-Host mounten und die IDs mappen.
Ist meiner Meinung nach sicherer als priv Conatiner mit Internet-Zugang auch wenn es einen zusätzlichen Layer bedeutet.

Samba Share im Proxmox mounten:
mount -t cifs -o rw,vers=3,username=xxx,uid=1001,gid=1001,dir_mode=0770,file_mode=0660,nodev //server/freigabe /mnt/point

und die Container Conf in /etc/pve/lxc/ anpassen:
mp0: /mnt/point,mp=/share
unprivileged: 1
lxc.idmap: u 0 100000 1001
lxc.idmap: g 0 100000 1001
lxc.idmap: u 1001 1001 1
lxc.idmap: g 1001 1001 1
lxc.idmap: u 1002 101002 64530
lxc.idmap: g 1002 101002 64530

So kann user 1001 (Apache/Nginx) im Container auf /share und damit //server/freigabe schreiben, aber nirgends im restlichen System von Proxmox.
Vielleicht nicht die eleganteste Lösung, aber sie funktioniert.
 
Das löst das eigentliche Problem aber nicht. Spätestens bei den VMs brauche ich vollen Zugang ohne Umwege.
 
Was mich zur nächsten Frage führt: Warum funktioniert in den Container und auch in den VMs hinter dieser Bridge das DHCP nicht?

Hast du einen eigenen DHCP Server in dem Subnetz oder setzt du einen DHCP Proxy ein? Wie ist dessen Config(Proxy bzw DHCP Server)?
DHCP ist nur auf Layer 2 möglich und ohne Proxy nicht Subnetzübergreifend.
 
Ein Netz 192.168.179.0/24, eigener DHCP Server verteilt im Bereich .102 bis .254, hat selbst die .44 (Der PC bekommt die IP ganz normal zugewiesen, der läuft also)
Komplett vom andern Netzwerk getrennt, anderes Subnetz, dazu noch portbasiertes VLAN am Switch. Im anderen Netz gibts einen eigenen DHCP Server.
proxmox hat eine feste IP (.101) (natürlich auf einer Bridge zum Gerät, nicht dem Gerät selbst), Route stimmt auch, es funktioniert wie es soll, Backup über diese Verbindung auf eine CIFS Freigabe läuft problemlos.
Im Container klappt der Zugriff auf das Netzwerk weder mit fester IP, noch bekommt es eine per DHCP zugewiesen. Analog zum anderen Netzwerk habe ich hier die Bridge hinzugefügt, alles (jetzt) auf dhcp. Würde ich die Route manuell eintragen und die IP fest setzen, würde es vielleicht funktionieren, aber das kann doch nicht sein!?
Ich hab schlicht keine Lust bei allen Containern und VMs manuell feste IPs und sogar die Routen einzutragen.
 
Hallo zusammen,

ich wuerde gerne auf einer Windows10 VM auf meinem Proxmox host WSL2 nutzen. Das heisst ich brauch nested virtualization.
Bin das hier durchgegangen: https://pve.proxmox.com/wiki/Nested_Virtualization

Leider klappt es noch nicht so recht in meiner VM. Sowohl beim starten von WSL2 als auch beim Versuch mit Virtualbox bekomm ich noch Fehlermeldungen. Beide haengen nach etwas recherche wohl mit fehlenden BIOS Flags zusammen, bin mir jedoch nicht im klaren wie ich das jetzt genau setzen kann?

WSL2 steigt mit dem Fehler aus folgendem Artikel aus: https://blog.johannfenech.com/fix-wslregisterdistribution-failed-with-error-0x80370102/
The problem was that I had Limit CPUID Max enabled in the BIOS. This NEEDS TO BE DISABLED for the WSL 2 to work correctly, apparently.
Es wird aber auch ueber das Feature "Intel Virtualization" geschrieben welches wohl auch oft eine Fehlerquelle ist.. da glaube ich das es eher dran scheitert bei mir. In der System Information unter Windows10 finde ich noch folgenden Hinweis:
"A hypervisor has been detected. Features required for Hyper-V will not be displayed."

Die config fuer die Win10 VM sieht so aus:
args: -cpu 'host'
balloon: 0
bios: ovmf
boot: cdn
bootdisk: scsi0
cores: 4
cpu: host,flags=+pcid;+hv-evmcs;+aes
hostpci0: 02:00,pcie=1,romfile=rx580.bin
hostpci1: 01:00.0
ide0: none,media=cdrom
machine: q35
memory: 8192
name: win10
net0: virtio=B6:BC:0F:59:20:F1,bridge=vmbr0
numa: 0
onboot: 1
ostype: win10
scsi0: /dev/disk/by-id/nvme-INTEL_SSDPEKKW128G7_BTPY736508SC128A-part1,cache=unsafe,size=122095M
scsihw: virtio-scsi-pci
smbios1: uuid=ba26156c-df67-4f71-90a2-c86a9a6f6cc8
sockets: 1
tablet: 0
vga: none
vmgenid: 238bb39a-dc67-4543-a550-11d378d73b37

Nested Virtualization ist auf dem Host auch aktiv:
Code:
cat /sys/module/kvm_intel/parameters/nested
Y

Wo muss ich noch hand anlegen damit Nested Virtualization unter Windows10 klappt?
Ich hab das mal auf einer Linux VM getestet.. der Befehl "egrep '(vmx|svm)' --color=always /proc/cpuinfo" zeigt mit das die Flags aktiv sind, dort scheint es also zu klappen.

Danke fuer jede Hilfe, gruss :)
 
Doofe Frage: wäre es nicht viel einfacher einen Container auf Proxmox zu starten und sich von der Windows VM aus dahin zu verbinden? Wozu willst du das in der Windows VM machen?
 
Kann ich natuerlich auch machen.
Moechte aber schaeun wie es sich heutzutage unter Windows so arbeiten laesst, hier will ich dann natuerlich auch WSL testen.
Eine extra VM die dann nur ueber SSH bedient wird verhaelt sich halt wieder anders denke ich mal.
WSL kann da glaube ich schon mehr.

Und die VM ist halt schon da und ich dachte mit "hey aktivierst du halt eben mal kurz WSL und testest das" :d
 
Ich hab mal ne Frage zu meinem geplanten Setup:
-proxmox mit ZFS-pool für Daten und einer SSD für VMs
-plex-VM
-trueNAS/OMV VM
-weitere HDD für Backups im Wechselrahmen
Ich hätte gern das sich plex und NAS den Storage jeweils vom proxmox via NFS und/oder mountpoint holen. So kann ich proxmox die volle Kontrolle über die Daten lassen und für Backups/Spiegelung sorgen lassen.
Blöde Idee? Gute Idee? Wenn blöd, wie sonst?
 
Proxmox kann ja nativ ZFS. Ob du da noch unbedingt eine ZFS-Storage-Instanz dazwischen brauchst?
 
Ja, genau das ist die Frage: ich will das nicht, sondern prixmox die Platten halten lassen und dann Plex und NAS zur Verfügung stellen...
 
Mit NAS meinst du eine Storage-VM?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh