huhu,
nutzt jemand eine schöne gui um die temperatur der festplatten zu überwachen?
nutzt jemand eine schöne gui um die temperatur der festplatten zu überwachen?
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Was heißt denn anständig? Ich hab etliche Server bei Hetzner mit Proxmox und da gibt es diverse Varianten.Moin, mal ne frage in die Runde. Ich versuche mich gerade an einen dedicated Server von Hetzner mit Proxmox Untersatz. Ich hatte mich zuvor auch schon mit dem wiki von hetzner + proxmox auseinander gesetzt. Vielleicht kann jemand meine Frage beantworten. Benötige ich bei proxmox auf einem dedicated server wirklich eine zweite zusätzliche IP um überhaupt anständig eine Linux Bridge aufsetzen zu können?
Hättest du zufällig eine Anleitung wie man das mit einer IP per NAT einstellt?Was heißt denn anständig? Ich hab etliche Server bei Hetzner mit Proxmox und da gibt es diverse Varianten.
Ganz grundsätzlich kannst du die Bridge einfach auf deine Haupt-IP legen. Die Frage ist eben, wie man dann an die VMs dahinter kommt.
Wenn du da kein Subnetz oder weitere Einzel-IPs hast, bleibt dir nur NAT.
Hättest du zufällig eine Anleitung wie man das mit einer IP per NAT einstellt?
auto vmbr2
iface vmbr2 inet static
address 192.168.100.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.100.0/24' -o vmbr0 -j MASQUERADE
post-up iptables -t raw -I PREROUTING -i fwbr+ -j CT --zone 1
post-down iptables -t nat -D POSTROUTING -s '192.168.100.0/24' -o vmbr0 -j MASQUERADE
post-down iptables -t raw -D PREROUTING -i fwbr+ -j CT --zone 1
source /etc/network/interfaces.d/*
auto lo
iface lo inet loopback
iface lo inet6 loopback
auto enp3s0
iface enp3s0 inet static
address -meineIP-
netmask 27
up route add -net -meinGW-.160 netmask 255.255.255.224 gw -meinGW-.161 dev enp3s0
iface enp3s0 inet6 static
address -ipv6-
netmask 64
auto vmbr0
auto vmbr0 inet static
address -meineIP-
netmask 27
gateway -meinGW-.161
bridge_ports enp3s0
bridge_stp off
bridge_fd 0
auto vmbr0 inet6 static
address -ipv6-
netmask 64
gateway -ipv6-
auto vmbr1
iface vmbr1 inet static
address 192.168.10.101
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.10.0/24' -o vmbr0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '192.168.10.0/24' -o vmbr0 -j MASQUERADE
@Crusha
Das sieht erst mal nicht so falsch aus, wobei mir der Sinn der IP bei vmbr1 etwas unklar ist (warum 10.101 statt einfach 10.1 ?).
Wie sind denn IP und Gateway deines LXC Containers konfiguriert? Da muss dann z.B. 192.168.10.200/24 als IP und die IP der vmbr1 bridge als Gateway rein.
ZFS ist Basis für einen Fileserver im LAN auf dem man direkt mit Protokollen wie FC/iSCSI, NFS oder SMB arbeiten kann. Es hat Redundanz, Versionierung, Datensicherheit und Verschlüssellung. Einen Clusterbetrieb unterstützt ZFS nicht direkt, man kann einzelne ZFS Filer aber als Cluster Nodes nutzen. Im Internet sollte man die üblichen Fileserver Protokolle wie NFS oder SMB auf gar keinen Fall nutzen. Internet ist ja für direktes Arbeiten auf dem Server wie über SMB eh viel zu langsam (daher Cloud=sync and share).
Amazon S3 kann man zunächst als Sharing Protokoll wie ftps oder https sehen, nur halt ausgelegt auf Internet Objectstorage und Cloud sync and share. Mit minIO kann man damit S3 Cloud Sharing/ Veeam/ Cloud Backup für einen ZFS Filer nachrüsten.
Mit S3 und minIO kann man nicht nur ein ZFS Dateisystem im Internet freigeben sondern auch Cluster aus vielen Servern aufbauen um Redundanz, Performance und ultrahohe Kapazität zu erreichen. Amazon selber arbeitet mit seiner S3 Infrastruktur so aber für sehr viele Anforderungen (außer 99,99999% uptime und Exa/Zettabyte Storage) ist S3 auf einem ZFS single Server perfekt, eventuell ergänzt um ein Dualhead HA Cluster. Zusätzlich kann man so S3 inhouse anbieten und muss nicht eigene Daten auf Amazon Servern irgendwo in der Welt speichern.
Ceph ist ein Cluster Dateisystem das in seinen Features noch über S3 hinausgeht, aber dafür deutlich komplexer und auch langsamer ist als S3 das "nur" die Funktion Cloud/Objekt Storage abdeckt.
S3 mit single node auf ZFS ist dagen das was man als idiotensicher/ dau kompatibel bezeichnen kann wenn man nichts anderes will als einen lokalen Filer auch zusätzlich als sicheren Cloudstorage im Internet zu nutzen.
Die Hetzner Firewall und die Proxmod Firewall sind standardmäßig deaktiviert. Da musst du also genau gar nichts tun. Ich würde empfehlen die zum testen auch erst Mal inaktiv zu lassen.
Du brauchst dann nur einen Befehl für die Portweiterleitung:
Beispiel für Port 80:
iptables -t nat -A PREROUTING -i vmbr0 -p tcp --dport 80 -j DNAT --to IPDERVM:80
Vmbr0 durch dein Netzwerk Interface mit der Haupt IP ersetzen, wenn du keine Bridge mir der Haupt IP laufen hast.
-i vmbr2 ist der Fehler.
Du willst als Argument für -i das Netzwerkinterface haben auf dem der externe Traffic eingeht und nicht die interne Bridge.
Also nimmt das Interface das deine Public Hetzner ip hat.
Unter Hyper-V ist das nie passiert. Ideen?
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.73-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Number: KINGSTON SA2000M81000G
Serial Number: XXXXXXXXXXXXXXXX
Firmware Version: S5Z42105
PCI Vendor/Subsystem ID: 0x2646
IEEE OUI Identifier: 0x0026b7
Controller ID: 1
Number of Namespaces: 1
Namespace 1 Size/Capacity: 1,000,204,886,016 [1.00 TB]
Namespace 1 Utilization: 211,549,339,648 [211 GB]
Namespace 1 Formatted LBA Size: 512
Namespace 1 IEEE EUI-64: 0026b7 68398b8d85
Local Time is: Fri Jan 1 12:56:56 2021 CET
Firmware Updates (0x14): 2 Slots, no Reset required
Optional Admin Commands (0x0017): Security Format Frmw_DL Self_Test
Optional NVM Commands (0x005f): Comp Wr_Unc DS_Mngmt Wr_Zero Sav/Sel_Feat Timestmp
Maximum Data Transfer Size: 32 Pages
Warning Comp. Temp. Threshold: 75 Celsius
Critical Comp. Temp. Threshold: 80 Celsius
Supported Power States
St Op Max Active Idle RL RT WL WT Ent_Lat Ex_Lat
0 + 9.00W - - 0 0 0 0 0 0
1 + 4.60W - - 1 1 1 1 0 0
2 + 3.80W - - 2 2 2 2 0 0
3 - 0.0450W - - 3 3 3 3 2000 2000
4 - 0.0040W - - 4 4 4 4 15000 15000
Supported LBA Sizes (NSID 0x1)
Id Fmt Data Metadt Rel_Perf
0 + 512 0 0
=== START OF SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
SMART/Health Information (NVMe Log 0x02)
Critical Warning: 0x00
Temperature: 29 Celsius
Available Spare: 100%
Available Spare Threshold: 10%
Percentage Used: 0%
Data Units Read: 8,937,630 [4.57 TB]
Data Units Written: 2,706,864 [1.38 TB]
Host Read Commands: 80,429,559
Host Write Commands: 40,000,052
Controller Busy Time: 1,390
Power Cycles: 74
Power On Hours: 586
Unsafe Shutdowns: 7
Media and Data Integrity Errors: 0
Error Information Log Entries: 0
Warning Comp. Temperature Time: 0
Critical Comp. Temperature Time: 0
Error Information (NVMe Log 0x01, max 256 entries)
No Errors Logged