[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mir ist gerade in meiner napp-it Installation aufgefallen das SMB (was anderes nutz ich nicht für externe Zugriffe) nur im napp-it Subnetz funktioniert, genauso nur im eigenen Subnetz die Verwaltung mittels Windows Computerverwaltung. Das ist jetzt kein Beinbruch für mich, aber neugierig was das ist bin ich schon.
Das napp-it Webinterface funktioniert aus allen meinen Subnetzen, Firewall Modul nutze ich nicht.
Ich meine das ging schon mal, bin mir aber nicht 100%ig sicher.
Der Zugriff auf SMB ist mir ganz recht, die Administration wäre aber schön
Jemand hier eine Idee?
Gestern kam es natürlich vor das ich SMB mal aus einem anderen Subnetz gebraucht hätte...
Code:
      *.445                *.*                 0      0 128000      0 LISTEN
im log taucht auch nicht wirklich was auf...
Zusatzinfo: es geht bis auf SMB und Computermanagement alles (also FTP mal testweise aktiviert, SSH ..) aus allen Subnetzen...
 
Zuletzt bearbeitet:
Prinzipiell "lauscht" der SMB Server an allen Netzwerkkarten sofern man dass nicht per Firewall oder Share Regel einschränkt. Gibt also "eigentlich" keinen Grund für dieses Verhalten.

Hat jedes Subnetz seine eigene nic, stehen alle nics auf static und hat jede nic einen "exclusiven" ip Bereich also nicht beide aus dem gleichen Subnet wie 192.168.1.1 und 192.168.1.2 mit Netmask wie 255.255.255.0?
 
neu in napp-it 21.dev

Push alerts via Pushover, Telegram, SendinBlue oder andere:

Per default push Jobs nutzen
/var/web-gui/data/napp-it/zfsos/_lib/scripts/webapi.pl

Falls es eine eigene webapi gibt, wird diese benutzt
/var/web-gui/_my/scripts/webapi/webapi.pl (update sicher)
 
thx@gea,

muss ich halt mal schauen, ob ich ein Linux finde um die SATA-DOM näher zu untersuchen wegen der iostat-Fehler.
Komischerweise wurde bei beiden die selbe SN angezeigt (hatte ich mal vor etlichen Jahren bei zwei 3COM-Karten mit selber MAC).

Welches OmniOS sollte man bei einem Produktiv-System nutzen, LTS oder Stable?
Nach dem was ich bisher gelesen habe, soll man bei einem LTS ja eine Neuinstallation auf eine neue Version machen.
 
thx@gea,

muss ich halt mal schauen, ob ich ein Linux finde um die SATA-DOM näher zu untersuchen wegen der iostat-Fehler.
Komischerweise wurde bei beiden die selbe SN angezeigt (hatte ich mal vor etlichen Jahren bei zwei 3COM-Karten mit selber MAC).

die SN ist unerheblich. Hätten beide die gleiche WWN gäbs Probleme falls die Platten-ID darauf beruht. Mit Sata hat man aber eh Disk ID wie c0t0d0 und c0t1d0. (Controller 0 Platte 0/1)

Zum Testen der DOM könnte man einen Hirens Bootstick nehmen. Darauf ist WD data lifeguard. Damit einen Intensivtest machen, https://www.hirensbootcd.org/download/

Welches OmniOS sollte man bei einem Produktiv-System nutzen, LTS oder Stable?
Nach dem was ich bisher gelesen habe, soll man bei einem LTS ja eine Neuinstallation auf eine neue Version machen.

LTS ist ein Feature Freeze für 2 Jahre und bringt nur Bug/Security Fixes. Man ist da vor Überraschungen gefeit. Stable gibt es alle 6 Monate mit neuesten Features die man eventuell braucht/möchte. Ist aber immer bei kritischen Systemen mit Tests verbunden. Also je nach Anforderung.

Update
Wenn man OmniOS Updates machen möchte, die LTS überspringen so muss das mehrstufig über die lts geschehen also z,B. 151034 stable ->151038 lts -> 151040 stable. Sonst gibts da nichts zu beachten.
 
Zuletzt bearbeitet:
Update für minIO:
napp-it 20.dev nov 09 unterstützt die neuen minIO settings (minIO neuer Mai 2021)

- ROOT_USER and ROOT_PASSWORD anstatt KEY und SECRET
- neue Webconsole auf port 800x (1000 niedriger als Serviceport with Unterstützung für user, groups und permissions
- /var/web-gui/_log/minio/certs ist das neue cert directory für https

vgl https://forums.servethehome.com/ind...zfs-cloud-with-minio.27524/page-3#post-318230
 
Prinzipiell "lauscht" der SMB Server an allen Netzwerkkarten sofern man dass nicht per Firewall oder Share Regel einschränkt. Gibt also "eigentlich" keinen Grund für dieses Verhalten.

Hat jedes Subnetz seine eigene nic, stehen alle nics auf static und hat jede nic einen "exclusiven" ip Bereich also nicht beide aus dem gleichen Subnet wie 192.168.1.1 und 192.168.1.2 mit Netmask wie 255.255.255.0?
Hallo,

ganz vergessen zu Antworten: nein, der Server hat nur eine NIC, diese ist im VLAN 300. Mein PC ist im VLAN 301. Läuft beides in einem CoreSwitch zusammen, dieser ist Gateway für alle Netze.
Also wie gesagt, ICMP, FTP, HTTP... das geht alles... SMB und RPC (Computerverwaltung) nicht bzw. nur wenn der zugreifende PC selbst im VLAN 300 ist...

Aufbau:
Server 172.23.1.250/24, Gateway 172.23.1.254
Client: 172.16.16.34/24, Gateway 172.16.16.254

CoreSwitch ist sowohl 172.23.1.254 als auch 172.16.16.254

Gerade mal getestet,
Client im VLAN301 (IP 172.16.16.34/24)
ICMP --> geht
HTTP (napp-it Interface) --> geht
FTP --> geht
SMB --> geht nicht
RPC --> geht nicht

Client im VLAN300 (IP 172.23.1.69/24)
ICMP --> geht
HTTP (napp-it Interface) --> geht
FTP --> geht
SMB --> geht
RPC --> geht

kurios...ich meine das ging schonmal...
Falls es wichtig ist:
napp-it 18.12w9
OmniOS VM 15038
ESXi mit LSI 9305-16i und Optane SSDPED1K750GA als SLOG an OmniOS durchgereicht
Xeon Silver 4208, 8 Kerne an OmniOS
48GB RAM an OmniOS

Ein Reboot hab ich schon gemacht, der hat nichts gebracht
 
ich würde von einem Routing Problem im Switch ausgehen.

ps
warum sind Server und Clients in unterschiedlichen vlans?
 
OmniOS - Installationsfestplatte klonen (ZFS)

Ich möchte eine OmniOS-Installation von einer 120GB-SSD auf eine 256GB-SSD klonen. Nachdem was ich bisher in Erfahrung gebracht habe, ist es nicht möglich mit einfachen Mittel die kleine SSD auf die große SSD zu klonen (bitte berichtigen falls ich falsch liege :-).
Bei FreeBSD wird ja eine Betriebssystem-Installation auf mehrere Partionen vorgenommen/verteilt. Diese Partitionen könnten man kopieren und den Bootbereich neu anlegen.
Bei OmniOS ist die Installation auf einer einzigen Partition (ok, eigentlich 3, 256MB system und 111GB usr + 8MB reserved bei der 120GB-SSD).

Ist der einzige Weg für eine Installation von OmniOS auf nur einem Teil der Festplatte, die Installation bei der Frage nach der Festplatte zu unterbrechen und die rpool manuell anzulegen?

vielen Dank im Voraus und schönes Restwochenende :-)
 
Hi

Auch mal wieder eine Frage: Ich habe einen ESXi napp-it AiO Server. Das napp-it läuft im management VLAN, dort kann nur ein Client darauf zugreifen. Das habe ich gemacht, weil man per NFS 3 ohne Passwort da zugreifen kann.

Auf napp-it habe ich einen NFS Share, dort liegen die VMs. Angenommen eine Server VM liegt dort in der DMZ, und braucht smb Zugang zum Storage (anderes ZFS Filesystem). Dann müsste ich ja von der DMZ smb ins Admin Netz beregeln. Das mache ich ähnlich ungern, wie napp-it eine zweite Netzwerkkarte zuweisen.

Wie löst man das am besten?
 
Moin. Heute habe ich zwei Punkte bzgl. napp-it :)

1. @gea: Gibt es einen Grund, warum verschlüsselte Datasets alle etwa 10+ Tage automatisch in Status "locked" gehen? Meine Backupplatte macht dies mit schöner (Un-)Regelmässigkeit. EDIT: Ich habe gestern und heute mit ntpdate rumgebastelt (s.u.) und grad eben wurde die Zeit angepasst und die verschlüsselten Datasets sind nach weniger als einem Tag "locked". Könnte das zusammenhängen oder ist das Zufall?


2. Mein Problem mit nur sporadisch funktionierendem ntpdate ist gelöst. Das installierte chrony funktionierte auch nicht fehlerfrei.

Ich bekam ja immer wieder Meldungen, dass der ntp Server nicht erreichbar wäre. Sporadisch ging es dann. Ich habe in meinem Proxmox dem napp-it System zwei Netzwerkkarten zugewiesen. Eine "normale" mit Internetanbindung und eine Virtuelle für "schnelleren" Datentransfer mit VMs. Damit stehen dem System zwei Gateways zur Verfügung, wovon nur eines tatsächlich raus kann. Ein wiederholtes ping 1.1.1.1 funktioniert auch alle x-Mal nicht. Nachdem ich die virtuelle Karte aus der VM entfernt habe, funktioniert ntpdate und ping jedes Mal.
 
Zuletzt bearbeitet:
Jeder Rechner hat nur einen Gateway, der ja "die" Exit-Route für alle Netze außer dem lokal definierten darstellt.
Beim Server muss in der virtuellen Karte der Gateway raus, der bekommt nur IP und Netzmaske. Die VMs haben den Server als Gateway. Dann läuft's.
P.s.: ggf sind noch Einstellungen im Proxmox zum Forwarding nötig.
 
  • Danke
Reaktionen: you
Du darfst der internen NIC halt keinen Gateway bzw. Standard-Route (0.0.0.0) mitgeben, sondern maximal die Route zu deinem internen Subnetz. Das sollte dann eben auch einen anderen IP-Bereich liegen, als das Netz, das „raus“ kann. Alles andere führt zu diesem „Split Brain“ Effekten, dass der Rechner halt nicht weiß, welcher von zwei gleichwertigen Wegen für ihn der Richtige ist.
 
  • Danke
Reaktionen: you
Apropos chrony - das läuft auf meinen OmniOS r40 auch nicht richtig (trotz nur 1 NIC). Er findet die konfigurierten Server, aber synchronisiert nicht. Hat jemand Tipps?
 
@danielmayer @besterino

Danke. Dass ich das Gateway einfach weglassen kann, wusste ich gar nicht. Aber ich mache mit Netzwerken ja auch erst seit 20 Jahren rum (privat). Da muss man noch nicht alles wissen :ROFLMAO:

EDIT: Umgestellt und funzt. Merci again, Gentlemen!
 
Zuletzt bearbeitet:
Moin. Heute habe ich zwei Punkte bzgl. napp-it :)

1. @gea: Gibt es einen Grund, warum verschlüsselte Datasets alle etwa 10+ Tage automatisch in Status "locked" gehen? Meine Backupplatte macht dies mit schöner (Un-)Regelmässigkeit. EDIT: Ich habe gestern und heute mit ntpdate rumgebastelt (s.u.) und grad eben wurde die Zeit angepasst und die verschlüsselten Datasets sind nach weniger als einem Tag "locked". Könnte das zusammenhängen oder ist das Zufall?
"Eigentlich" sehe ich da keinen Ablauf der das bewirken könnte.
 
thx für den Link.

Ich habe die Anweisungen ausgeführt und ich habe eine Installation auf einer größeren Festplatte. Leider ist die Partitionierung wie bei einer Installation auf einer nackten Festplatte, dh es wird die komplette Festplatte genommen. Ich möchte aber eine Installation auf der Hälfte der Festplatte, der Rest soll zwecks Overprovisioning frei bleiben (auch nicht vom BS benutzbar sein). Mal schauen ob ich es mit format hinbekomme.
 
OmniOS schreibt eigentlich nicht soo viel auf die Platte, dass da overprovisioning nötig sein sollte.

Wenn Du es dennoch willst: erst via Linux und hdparm eine "Host protected area" (HPA) einrichten und dann OmniOS rpool auf den restlichen Platz migrieren.
 
  • Danke
Reaktionen: gea
oder eine HPA mit hdat2 anlegen (falls man kein Linux möchte)

Sehe ich aber für rpool auch als komplett unnötig an.
HPA macht man für SSDs von Datenpools wenn man konstant hohe Dauer Write iops möchte und/oder kein Trim machen kann.
 
thx@asche77/gea

Beim Versuch einer FreeBSD-Installation wollte ich auch genügend Platz auf einer SSD freilassen.
Also habe ich bei der SSD mittels Samsung Magician einen Bereich für Over-Provisioning freigelassen.
Leider hatte sich die nachfolgende FreeBSD-Installation (mit ZFS) den kompletten Platz geschnappt.

Da es bei einem Anfänger auf diesem Gebiet (FreeBSD/OmniOS) schwer ist eine manuelle Installation
des Betriebssystems durchzuführen, dachte ich mir, ich probiere es mal mit meinem gefährlichen Halbwissen.
Ich könnte mittels prtvtoc/fmhard das Partitionschema von SSD1 (klein) auf SSD2 (groß) übertragen und
den freien Bereich zB. als slice 5 festlegen.

Als erstes schaue ich aber nach hdat2 (auf einem ventoy-USBStick), falls es nicht klappt mit hdparm/Linux.
Und dann mit der Brechstange.
 
Wenn man mehrere nutzbare Bereiche will, muss man die SSD partitionieren, Eine HPA macht einen Teil der SSD für das OS "unsichtbar". Aus einer 960 GB SSD wird dann z.B. eine 800 GB die dann von ZFS komplett genutzt wird. Datacenter SSDs arbeiten ähnlich um hohe Write iops zu haben, 10 dwpd statt 3 dwpd oder um auch ohne Trim keinen Performanceeinbruch beim Schreiben zu erleiden.

ps
Wenn man nachträglich eine HPA anlegt, die SSD vorher sicher löschen damit der frei werdende Bereich von der Firmware problemlos genutzt werden kann.

Manuelle OmniOS Installation:
- USB Boot Image downloaden, https://omnios.org/download.html
- mit einem Imager dieses bootfähig auf einen USB Stick kopieren, z.B. https://sourceforge.net/projects/win32diskimager/
- den Rechner damit booten und OS auf Platte installieren

nach der Installation konfigurieren anwählen
- Netzwerkkarte auf DHCP stellen
- ssh Server aktivieren

dann noch napp-it installieren
wget -O - https:// www.napp-it.org/nappit | perl

und root passwort setzen
passwd root
 
Zuletzt bearbeitet:
Hast Du mir über die Schulter geschaut? LOL

Mit "manuell" meinte ich, das ich das Installationsskript stoppe, manuell auf der Konsole Einstellungen/Befehle durchführe und
das Skript dann weiter laufen lasse. Imho kann man bei der Installation ja einen rpool selber anlegen oder einen bestehenden nutzen.

"Install OmniOSce straight on to a preconfigured rpool" oder "Shell (for manual rpool creation)"

Momentan spiele ich zu Hause mit folgendem System: A2SDi-4C-HLN4F, 2x 16 GB ECC, 6x WD10EFRX, 2x 256 GB 860 Pro, 1x 256 GB 960 Pro (für BS)
Ziel ist erstmal sich mit der Materie vertraut zu machen (Filer und Win-VM, mit Daten auf HDD und VM auf SSD) und um dann das Wissen einzusetzen,
es in der Firma auf einem HP DL360G9 (mit 2x 256 GB SSD für VM und 6x 600GB SAS HDD für Daten) im Produktiveinsatz zu nutzen.
 
es in der Firma auf einem HP DL360G9 (mit 2x 256 GB SSD für VM und 6x 600GB SAS HDD für Daten) im Produktiveinsatz zu nutzen.
6x lahme und kleine HDD für Einsatz in der Firma? Wäre das Geld nicht besser in 2 Enterprise SSD im mirror investiert? Deutlich mehr IOPS und teuer dürfte das auch nicht unbedingt sein.
 
6x lahme und kleine HDD für Einsatz in der Firma?
hmm, imho würde ich die HGST Ultrastar C15K600 SAS 600GB nicht unbedingt als lahme und kleine HDD bezeichnen. Du hast wahrscheinlich mein HomeLab mit dem kleinen Server (HP DL360G9) in der Firma verwechselt. Da wird eine WinSRV2019-VM für das FiBu/Lohn-Programm und auf den SAS-HDD ein/mehrere Datenpool per raidz2 laufen. Da wir bei ca. 10 Benutzer keinen AD haben, wird alles per SMB abgewickelt.

Momentan werkelt ein BareMetal Windows 2012 Essentials für die Lohn/Fibu-Programme (HP DL360G8). Ein alter ML110G5 macht mit FreeBSD-ZFS auf
4x HDD WD Black 250GB den Datenpool. Da aber Win2012 endet und die Lohn/Fibu-Programme aktuell gehalten werden sollen, wird es absehbar nötig auf ein aktuelles Serverbetriebssystem zu wechseln.

ps: Ich will mein Netware-4.11 zurück, extrem stabil und mit Salvage vom Handling unübertroffen:-)
pps: @gea ich schaffe es nicht hdat2 auf einen USB-Stick zu bekommen, Etcher meckert und hdat2 startet nicht, kA, ich versuche Tipp von asche77, lieber wäre es mir es aber mit Bordmitteln zu schaffen
ppps: @asche77 ich habe gparted gestartet, die Solaris-Partition 8 wird mir als /dev/sda9 unbekannt angezeigt, ich glaub ich werde Linux nicht nutzen, ich möchte bei OmniOS bleiben (imno ist OmniOS näher an BSD wie Linux oder? Ich weis, man kann die BS nicht vergleichen, andere Wurzeln und anderer Werdegang [Solaris/BSD/Linux] :-)
 
Zuletzt bearbeitet:
Hdat
am Einfachsten nimmt man einen bootfähigen USB Stick mit Dos und kopiert die exe hdat2_74.exe drauf.
Um ein .iso bootfähig auf einen USB Stick zu bekommen, nehme ich immer Rufus

OmniOS ist ein Solaris Fork (Unix) mit Wurzeln bei BSD

Unter heutigen Aspekten ist eine Ultrastar C15K600 lahm.
Kann nur ca ca 250 MB/s sequentiell und gut 100 iops

Schnell ist 2000-3000 MB/s und 500000 iops

ps
Die wichtigste Regel für einen Filer ist: Keep it simple.
Für OmniOS und ZFS nimmt man "eigentlich" immer ganze Platten und ein Default Setup.
 
Zuletzt bearbeitet:
Wobei mit den 3k MB/s und 500k iops doch eher NVMe gemeint sind, oder?
lt. Tantchen ist die momentan schnellste Festplatte die Seagate HDD Mach.2 Exos 2X14 mit 524 MB/s.
Nach meinem Verständniss bauen reine Fileserver auf HDD und Aplikationsserver auf NVMe.

Die beiden Server bei mir werden wie folgt aufgebaut:
SSD für OmniOS, SSD-Mirror für VM und raidZ2 der HDD für Datengrab (und ja, natürlich werden die Drives pur benutzt.)

ps: @gea: ok, ich versuche es nochmal mit hdat
 
3k MB/s geht nur mit guten NVMe und 500k iops nur mit Intel Optane NVMe
 
Wenn Du es dennoch willst: erst via Linux und hdparm eine "Host protected area" (HPA) einrichten
Mit gparted kommst du da natürlich nicht weit.

[EDIT: Ich dachte an gparted als Programm, Du meintest die Live-CD - daher die Verwirrung]

Beitrag automatisch zusammengeführt:

Seagate HDD Mach.2 Exos 2X14 mit 524 MB/s.
IOPS wird die trotzdem nur im dreistelligen Bereich haben, SATA SSD liegen ein bis zwei Größenordnungen höher. Gegenfrage: warum HDD, wenn Du für den gleichen Preis (?) und gleiche Pool-Kapazität auch SSD nehmen könntest?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh