[Sammelthread] Proxmox Stammtisch

huhu,

nutzt jemand eine schöne gui um die temperatur der festplatten zu überwachen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin, mal ne frage in die Runde. Ich versuche mich gerade an einen dedicated Server von Hetzner mit Proxmox Untersatz. Ich hatte mich zuvor auch schon mit dem wiki von hetzner + proxmox auseinander gesetzt. Vielleicht kann jemand meine Frage beantworten. Benötige ich bei proxmox auf einem dedicated server wirklich eine zweite zusätzliche IP um überhaupt anständig eine Linux Bridge aufsetzen zu können?
 
Moin, mal ne frage in die Runde. Ich versuche mich gerade an einen dedicated Server von Hetzner mit Proxmox Untersatz. Ich hatte mich zuvor auch schon mit dem wiki von hetzner + proxmox auseinander gesetzt. Vielleicht kann jemand meine Frage beantworten. Benötige ich bei proxmox auf einem dedicated server wirklich eine zweite zusätzliche IP um überhaupt anständig eine Linux Bridge aufsetzen zu können?
Was heißt denn anständig? Ich hab etliche Server bei Hetzner mit Proxmox und da gibt es diverse Varianten.
Ganz grundsätzlich kannst du die Bridge einfach auf deine Haupt-IP legen. Die Frage ist eben, wie man dann an die VMs dahinter kommt.
Wenn du da kein Subnetz oder weitere Einzel-IPs hast, bleibt dir nur NAT.
 
Was heißt denn anständig? Ich hab etliche Server bei Hetzner mit Proxmox und da gibt es diverse Varianten.
Ganz grundsätzlich kannst du die Bridge einfach auf deine Haupt-IP legen. Die Frage ist eben, wie man dann an die VMs dahinter kommt.
Wenn du da kein Subnetz oder weitere Einzel-IPs hast, bleibt dir nur NAT.
Hättest du zufällig eine Anleitung wie man das mit einer IP per NAT einstellt?
 
Hättest du zufällig eine Anleitung wie man das mit einer IP per NAT einstellt?

Kommt drauf an was du vor hast.
Relativ simpel z.B. eine Bridge in /etc/network/interfaces anlegen:
Code:
auto vmbr2
iface vmbr2 inet static
        address  192.168.100.1
        netmask  255.255.255.0
        bridge_ports none
        bridge_stp off
        bridge_fd 0

        post-up echo 1 > /proc/sys/net/ipv4/ip_forward
        post-up   iptables -t nat -A POSTROUTING -s '192.168.100.0/24' -o vmbr0 -j MASQUERADE
        post-up   iptables -t raw -I PREROUTING  -i fwbr+ -j CT --zone 1

        post-down iptables -t nat -D POSTROUTING -s '192.168.100.0/24' -o vmbr0 -j MASQUERADE
        post-down iptables -t raw -D PREROUTING  -i fwbr+ -j CT --zone 1


Wobei vmbr0 in dem Beispiel ne andere Bridge mit der Haupt-IP ist. Du solltest da wohl den Namen des Netzwerkinterfaces nehmen.

edit: Was für Dienste sollen denn in den VMs laufen? Wenn da was von außen erreichbar sein soll, musst du dann noch die entsprechend Ports auf die jeweilige interne IP der VM weiterleiten.
 
Ich will stinknormale VMs oder LXC Container zum laufen bringen die auch nach außen sprechen und von außen sprechen können, ja. Ich hatte jetzt einige Tutorials gelesen, aber irgendwie funktionieren diese mit meinen nicht. Wenn ich z.B. ein normales Debian, sei es als VM oder LXC erstelle, bekommen diese keine Internet connection nach außen.

Ich poste mal mein interface. Den ersten Teil bis vmbr0 wurde selber von Proxmox / Debian konfiguriert und habe ich so übernommen:

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback

iface lo inet6 loopback

auto enp3s0
iface enp3s0 inet static
address -meineIP-
netmask 27
up route add -net -meinGW-.160 netmask 255.255.255.224 gw -meinGW-.161 dev enp3s0

iface enp3s0 inet6 static
address -ipv6-
netmask 64

auto vmbr0
auto vmbr0 inet static
address -meineIP-
netmask 27
gateway -meinGW-.161
bridge_ports enp3s0
bridge_stp off
bridge_fd 0

auto vmbr0 inet6 static
address -ipv6-
netmask 64
gateway -ipv6-

auto vmbr1
iface vmbr1 inet static
address 192.168.10.101
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.10.0/24' -o vmbr0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '192.168.10.0/24' -o vmbr0 -j MASQUERADE
 
@Crusha
Das sieht erst mal nicht so falsch aus, wobei mir der Sinn der IP bei vmbr1 etwas unklar ist (warum 10.101 statt einfach 10.1 ?).

Wie sind denn IP und Gateway deines LXC Containers konfiguriert? Da muss dann z.B. 192.168.10.200/24 als IP und die IP der vmbr1 bridge als Gateway rein.
 
@Crusha
Das sieht erst mal nicht so falsch aus, wobei mir der Sinn der IP bei vmbr1 etwas unklar ist (warum 10.101 statt einfach 10.1 ?).

Wie sind denn IP und Gateway deines LXC Containers konfiguriert? Da muss dann z.B. 192.168.10.200/24 als IP und die IP der vmbr1 bridge als Gateway rein.

Habe mal deine interface config übernommen.

Dies habe ich in meiner Debian VM hinterlegt:

1607125386494.png
 

Anhänge

  • 1607125337821.png
    1607125337821.png
    5,3 KB · Aufrufe: 87
ZFS ist Basis für einen Fileserver im LAN auf dem man direkt mit Protokollen wie FC/iSCSI, NFS oder SMB arbeiten kann. Es hat Redundanz, Versionierung, Datensicherheit und Verschlüssellung. Einen Clusterbetrieb unterstützt ZFS nicht direkt, man kann einzelne ZFS Filer aber als Cluster Nodes nutzen. Im Internet sollte man die üblichen Fileserver Protokolle wie NFS oder SMB auf gar keinen Fall nutzen. Internet ist ja für direktes Arbeiten auf dem Server wie über SMB eh viel zu langsam (daher Cloud=sync and share).

Amazon S3 kann man zunächst als Sharing Protokoll wie ftps oder https sehen, nur halt ausgelegt auf Internet Objectstorage und Cloud sync and share. Mit minIO kann man damit S3 Cloud Sharing/ Veeam/ Cloud Backup für einen ZFS Filer nachrüsten.

Mit S3 und minIO kann man nicht nur ein ZFS Dateisystem im Internet freigeben sondern auch Cluster aus vielen Servern aufbauen um Redundanz, Performance und ultrahohe Kapazität zu erreichen. Amazon selber arbeitet mit seiner S3 Infrastruktur so aber für sehr viele Anforderungen (außer 99,99999% uptime und Exa/Zettabyte Storage) ist S3 auf einem ZFS single Server perfekt, eventuell ergänzt um ein Dualhead HA Cluster. Zusätzlich kann man so S3 inhouse anbieten und muss nicht eigene Daten auf Amazon Servern irgendwo in der Welt speichern.

Ceph ist ein Cluster Dateisystem das in seinen Features noch über S3 hinausgeht, aber dafür deutlich komplexer und auch langsamer ist als S3 das "nur" die Funktion Cloud/Objekt Storage abdeckt.

S3 mit single node auf ZFS ist dagen das was man als idiotensicher/ dau kompatibel bezeichnen kann wenn man nichts anderes will als einen lokalen Filer auch zusätzlich als sicheren Cloudstorage im Internet zu nutzen.


Hallo Gea,

muss dein Beitrag nochmal rauskamen....wie kann ich denn das minIO als Cloud nutzen bzw. z.B. auf Handys/Apple nutzen?
Oder ist es dafür gar nicht ausgelegt bzw. ich auf einen Holzweg?

Grüße
 
@Crusha

Das verstehe ich nicht richtig. In der VM selber muss keine Bridge laufen. Die Bridge gibt es nur auf dem Host.
In der VM sollte es nur ein Netzwerkinterface (je nach system vermutlich eth0) geben mit einer IP aus dem passenden Bereich (als z.b. 192.168.100.5) und der IP der Bridge auf dem Host als Gateway (z.b. 192.168.100.1).
Wenn das so ist und nicht geht:
Poste Mal die Host und die Gast interfaces Datei komplett.

Und führe Mal testweise:
iptables -t nat -A POSTROUTING -s '192.168.100.0/24' -j MASQUERADE

Auf dem Host aus.
Ändert das was?

Mach auch Mal einen Ping in der VM auf die Bridge IP des Hosts. Geht der durch?
 
Nachdem ich ich dein Beitrag gelesen habe, habe ich mich selber nochmal in der vm probiert und habe es jetzt endlich zum laufen bekommen, danke!

Ich habe jetzt nur das Problem das ich Ports nicht freigeschaltet bekomme. Ich hatte auf dem Debian Proxmox installiert und das ist ein Hetzner Server der auch eine Firewall in der Serversteuerung besitzt. Egal was ich deaktiverte, Firewall im Proxmox, Firewall im Hetzner Tool, iptable einrichte, es werden keine Ports freigeschaltet. In welcher Ebene muss ich in denn in dieser Konstellation die Ports freigeben?
 
Die Hetzner Firewall und die Proxmod Firewall sind standardmäßig deaktiviert. Da musst du also genau gar nichts tun. Ich würde empfehlen die zum testen auch erst Mal inaktiv zu lassen.

Du brauchst dann nur einen Befehl für die Portweiterleitung:

Beispiel für Port 80:

iptables -t nat -A PREROUTING -i vmbr0 -p tcp --dport 80 -j DNAT --to IPDERVM:80

Vmbr0 durch dein Netzwerk Interface mit der Haupt IP ersetzen, wenn du keine Bridge mir der Haupt IP laufen hast.
 
Die Hetzner Firewall und die Proxmod Firewall sind standardmäßig deaktiviert. Da musst du also genau gar nichts tun. Ich würde empfehlen die zum testen auch erst Mal inaktiv zu lassen.

Du brauchst dann nur einen Befehl für die Portweiterleitung:

Beispiel für Port 80:

iptables -t nat -A PREROUTING -i vmbr0 -p tcp --dport 80 -j DNAT --to IPDERVM:80

Vmbr0 durch dein Netzwerk Interface mit der Haupt IP ersetzen, wenn du keine Bridge mir der Haupt IP laufen hast.

Die Firewall waren bei mir noch aktiv. Ich hatte diese dann gestern abend auch erst einmal komplett zum testen ausgeschaltet.

Ich versuche demnach in meiner VM den UDP Port 27016 freizuschalten. IP ist 192.168.100.5 und die bridge vmbr02 hat meine VM als Internet Verbindung. Also demnach: iptables -t nat -A PREROUTING -i vmbr2 -p UDP --dport 27016 -j DNAT --to 192.168.100.5:27016

Wenn ich meine öffentliche IP gegenprüfe habe ich von außen nur den Port 22 und 8006 bei Proxmox offen.
 
-i vmbr2 ist der Fehler.
Du willst als Argument für -i das Netzwerkinterface haben auf dem der externe Traffic eingeht und nicht die interne Bridge.
Also nimmt das Interface das deine Public Hetzner ip hat.
 
-i vmbr2 ist der Fehler.
Du willst als Argument für -i das Netzwerkinterface haben auf dem der externe Traffic eingeht und nicht die interne Bridge.
Also nimmt das Interface das deine Public Hetzner ip hat.

😅 ok alles klar, falsch verstanden. Funktioniert jetzt, vielen dank!
 
Hallo,

Bin grade dabei nach meinem gescheiterten Versuch vor einiegen Jahren, Proxmox zu testen.

Erstmal nur zum rumspielen und testen halt.

Laufen soll das auf einem HP Proliant ML10v2 mit einem E3 1220 v3 mit 28GB Ram

Problem was ich jetzt habe ist das die Platten die an dem B120i hängen nicht erkannt werden. In der Benutzeroberfläche. Die beiden NVMe im PCIe slot werden erkannt. die 500GB Msata in einem billigen PCIe Adapter ebenso (das Laufwerk was da am SATA Port hängt wird auch nicht erkannt). Die beiden Interenen SATA Anschlüsse werden erkannt.

Also hab ich von meinen 10 Laufwerken aktuell nur 3 erkannte. (ist ein Sammelsorium aus alten Platten usw. daher soviele).

In allen anderen Systemen (Windows, Linux Mint, Xpenolgy etc.) wurden bisher alle Laufwerke erkannt und konnten genutzt werden.

Leider habe ich durch googeln keine Möglichkeit gefunden zu testen ob ein Treiber fehlt, und auch keine Anleitung um einen Treiber für den B120i zu installieren.

Kann mir hier jemand helfen?
 
Ich hab den hier auch im Microserver G8 mit dem gleichen Controller, da erkennt Proxmox alle Disks einwandfrei. Ist ja auch nur ein Kernel.

Was sagt denn ein

Code:
fdisk -l

auf der commandline?
 
Interessant bei fdisk -l werden alle Laufwerke angezeigt.

Disk /dev/nvme1n1: 119.2 GiB, 128035676160 bytes, 250069680 sectors
Disk model: TS128GMTE110S
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 1DBB0C4D-2EA5-11EB-BCB6-002655DCE009


Disk /dev/nvme0n1: 119.2 GiB, 128035676160 bytes, 250069680 sectors
Disk model: TS128GMTE110S
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 721F713A-1839-EA4E-8C20-8629934EF572

Device Start End Sectors Size Type
/dev/nvme0n1p1 2048 250052607 250050560 119.2G Solaris /usr & Apple ZFS
/dev/nvme0n1p9 250052608 250068991 16384 8M Solaris reserved 1


Disk /dev/sda: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: WDC WD10EAVS-00D
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x79612249

Device Boot Start End Sectors Size Id Type
/dev/sda1 256 4980735 4980480 2.4G fd Linux raid autodetect
/dev/sda2 4980736 9175039 4194304 2G fd Linux raid autodetect
/dev/sda3 9437184 1953511007 1944073824 927G f W95 Ext'd (LBA)
/dev/sda5 9453280 1953511007 1944057728 927G fd Linux raid autodetect


Disk /dev/sdb: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Disk model: WDC WD5000AAKX-0
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x332692ed

Device Boot Start End Sectors Size Id Type
/dev/sdb1 2048 4982527 4980480 2.4G fd Linux raid autodetect
/dev/sdb2 4982528 9176831 4194304 2G fd Linux raid autodetect
/dev/sdb3 9437184 976759007 967321824 461.3G f W95 Ext'd (LBA)
/dev/sdb5 9453280 976566239 967112960 461.2G fd Linux raid autodetect


Disk /dev/sdc: 149.1 GiB, 160041885696 bytes, 312581808 sectors
Disk model: SAMSUNG HD160JJ
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x50c30d73

Device Boot Start End Sectors Size Id Type
/dev/sdc1 311586816 312575999 989184 483M 27 Hidden NTFS WinRE


Disk /dev/sdd: 74.5 GiB, 80026361856 bytes, 156301488 sectors
Disk model: WDC WD800JD-55MU
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x99529952

Device Boot Start End Sectors Size Id Type
/dev/sdd1 2048 4982527 4980480 2.4G fd Linux raid autodetect
/dev/sdd2 4982528 9176831 4194304 2G fd Linux raid autodetect


Disk /dev/sde: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: WDC WD10EADS-67M
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: A5A7134E-2EA3-11EB-BCB6-002655DCE009


Disk /dev/sdg: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Disk model: Samsung SSD 840
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 1D20E213-FC82-41A2-B5FE-650A6F357950

Die Laufwerke wahren nicht angeschlossen beim installieren. Evtl werden sie deswegen nicht gemountet?
 
Das sieht gut aus, erkannt werden sie ja. Automatisch bindet Proxmox die nicht ein. Sollten aber in dem Disks Tab auf Ebene des Knotens auftauchen. Dort solltest du die auch verwalten können (ZFS, LVM, ...)
 
werden nur die 3 angezeigt. die 2te nvme ist schon als pool zum test angelegt.

Werden also leider nicht angezeigt.

proxmox.JPG
 
Hm. Eventuell weil schon Daten drauf waren/sind?

Führ mal auf einer Disk davon

Code:
sgdisk --zap-all /dev/<device>

aus.
 
Erstmal danke das war der Fehler.

Das kommt davon wenn man alte Platten benutzt und keine Ahnung hat ob da was drauf ist :d

Hab nur einen Fehler gemacht, die Platte wo Proxmox drauf war mitgekillt. Mal gut das noch nichts eingerichtet war. :d

Macht es Sinn Proxmox auf einer SSD zu installieren? Und kann ich einem Pool Cache zuordnen?
 
das Proxmox-Team empfiehlt kleine HDDs für Proxmox selber. man kann aber auch ein paar tweaks anwenden, um die Schreiblast zu minimieren.
 
Hey zusammen,
mein Server war plötzlich nicht mehr erreichbar und in der Konsole sehe ich nur das:
CapturedScreen.jpeg

Irgendwelche Hinweise wo ich anfangen soll zu suchen? Mein Verständnis als Neuling endet bei "irgendwas mit Dateisystem"

Edit: Die SSD ist wohl ausgestiegen, das war schon mal, sie war nicht mal mehr im Bios zu sehen.
Unter Hyper-V ist das nie passiert. Ideen?
 
Zuletzt bearbeitet:
Unter Hyper-V ist das nie passiert. Ideen?

Die SSD gibt einfach langsam den Geist auf. Das hat nicht zwingend etwas mit den Betriebssystem zu tun. Eine Defekte SSD führt unter allen Betriebssystemen zum Ausfall.
Poste Mal die SMART Werte der SSD (Programm smartctl unter Linux).

Allerdings sollten für das Proxmox Betriebssytem generell Datacenter/Enterprise SSDs verwendet werden oder alternativ einfach normale Festplatten.
Proxmox schreibt relativ viele Daten und billig SSDs verkraften das nicht lange.
 
Sonderlich alt ist sie wirklich nicht und der Server läuft noch nicht mal produktiv sondern ist noch in der Einrichtung.
Code:
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.73-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Number:                       KINGSTON SA2000M81000G
Serial Number:                      XXXXXXXXXXXXXXXX
Firmware Version:                   S5Z42105
PCI Vendor/Subsystem ID:            0x2646
IEEE OUI Identifier:                0x0026b7
Controller ID:                      1
Number of Namespaces:               1
Namespace 1 Size/Capacity:          1,000,204,886,016 [1.00 TB]
Namespace 1 Utilization:            211,549,339,648 [211 GB]
Namespace 1 Formatted LBA Size:     512
Namespace 1 IEEE EUI-64:            0026b7 68398b8d85
Local Time is:                      Fri Jan  1 12:56:56 2021 CET
Firmware Updates (0x14):            2 Slots, no Reset required
Optional Admin Commands (0x0017):   Security Format Frmw_DL Self_Test
Optional NVM Commands (0x005f):     Comp Wr_Unc DS_Mngmt Wr_Zero Sav/Sel_Feat Timestmp
Maximum Data Transfer Size:         32 Pages
Warning  Comp. Temp. Threshold:     75 Celsius
Critical Comp. Temp. Threshold:     80 Celsius

Supported Power States
St Op     Max   Active     Idle   RL RT WL WT  Ent_Lat  Ex_Lat
0 +     9.00W       -        -    0  0  0  0        0       0
1 +     4.60W       -        -    1  1  1  1        0       0
2 +     3.80W       -        -    2  2  2  2        0       0
3 -   0.0450W       -        -    3  3  3  3     2000    2000
4 -   0.0040W       -        -    4  4  4  4    15000   15000

Supported LBA Sizes (NSID 0x1)
Id Fmt  Data  Metadt  Rel_Perf
0 +     512       0         0

=== START OF SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

SMART/Health Information (NVMe Log 0x02)
Critical Warning:                   0x00
Temperature:                        29 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    0%
Data Units Read:                    8,937,630 [4.57 TB]
Data Units Written:                 2,706,864 [1.38 TB]
Host Read Commands:                 80,429,559
Host Write Commands:                40,000,052
Controller Busy Time:               1,390
Power Cycles:                       74
Power On Hours:                     586
Unsafe Shutdowns:                   7
Media and Data Integrity Errors:    0
Error Information Log Entries:      0
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0

Error Information (NVMe Log 0x01, max 256 entries)
No Errors Logged
 
@Badrig
Wie ist der storage konfiguriert? Ist das lvm und wenn ja mit wie viel freien Speicher? Ist der Fehler bei irgendwelchen automatisierten Tasks (insbesondere snapshots/backups) aufgetreten?

Hängt die SSD direkt am Board oder ist das Setup irgendwie exotischer (PCIe zu m2 NVMe Card oder so was)?

Edit: Wenn die SSD nicht Mal mehr im BIOS auffindbar war würde ich generell eher von einem Hardware Fehler ausgehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh