[Sammelthread] ZFS Stammtisch

Im Prinzip ist es kein Bug. OSX 12 stellt neue Anforderungen mit 256bit Schlüsseln statt wie bisher 128bit und ist dabei nicht abwärtskompatibel. Bei Windows 11 kann man immerhin weiter mit 128bit Cipher wie unter Windows 10 arbeiten. Die SMB/NAS Server müssen jetzt nachziehen und das geht nicht immer so schnell wie man das gern hätte.

Als workaround könnte man übergangsweise ein iSCSI target nutzen. Das erscheint am Mac wie eine lokale USB Platte. Benötigt halt einen iSCSI Initiator am Mac.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wäre der Befehl zum rekursiven Senden auf den neuen Pool so richtig?

#zfs snapshot-r „Pool1@snapshot-name“
#zfs sind -R Pool1@snapshot-name | zfs receive-F Pool2

Somit müsste dann ja eine 1:1 Kopie vom alten zum neuen Pool passen, inkl. der geschachtelten Unterordner und die Ordnerstruktur sollte so data/Media und nicht data/Media/Media aussehen? Ist das so korrekt?

Gibt es bei zfs send auch ne Option um sich den Fortschritt anzeigen zu lassen, damit man abschätzen kann wann der Vorgang abgeschlossen ist?
 
Wäre der Befehl zum rekursiven Senden auf den neuen Pool so richtig?

#zfs snapshot-r „Pool1@snapshot-name“
#zfs sind -R Pool1@snapshot-name | zfs receive-F Pool2

Somit müsste dann ja eine 1:1 Kopie vom alten zum neuen Pool passen, inkl. der geschachtelten Unterordner und die Ordnerstruktur sollte so data/Media und nicht data/Media/Media aussehen? Ist das so korrekt?

Gibt es bei zfs send auch ne Option um sich den Fortschritt anzeigen zu lassen, damit man abschätzen kann wann der Vorgang abgeschlossen ist?
zfs send Pool1/* -> Pool2 ergibt Pool2/Pool1/* (replizierte Dateisysteme werden unterhalb des Zieldateisystems angelegt)
Fortschritt mit -v oder pv,

 
Zuletzt bearbeitet:
Okay, ich glaub jetzt hab ich’s. Sofern ich also meine Struktur beibehalten möchte, also Pool1/Media;Pool1/Documents usw. dann müsste ich die jeweils einzeln auf den neuen Pool schicken.
Das heisst meine Befehle würden wie folgt aussehen:

#zfs snapshot-r Pool1/Media@snapshot-name
#zfs send -R Pool1/Media@snapshot-name | zfs receive-F Pool2

Dann würde ich auf dem Pool2 auch folgende Struktur haben: Pool2/Media

Wäre dass so richtig?
 
Wäre der Befehl zum rekursiven Senden auf den neuen Pool so richtig?
Mal ne ganz naive Frage, jeder 2. hier hat ja dicke Setups rumstehen, wieso kommt davon keiner Mal auf die Idee mal schnell 1/2 VMs aufzusetzen und das zu testen? (Nichts gegen dich persönlich, aber durch alle Foren, Reddit, usw. verteilt fällt mir das auf)
 
@quotengrote Den Schuss hast Du wohl auch noch nicht gehört? Mach’s doch selber…?
 
Okay, ich glaub jetzt hab ich’s. Sofern ich also meine Struktur beibehalten möchte, also Pool1/Media;Pool1/Documents usw. dann müsste ich die jeweils einzeln auf den neuen Pool schicken.
Das heisst meine Befehle würden wie folgt aussehen:

#zfs snapshot-r Pool1/Media@snapshot-name
#zfs send -R Pool1/Media@snapshot-name | zfs receive-F Pool2

Dann würde ich auf dem Pool2 auch folgende Struktur haben: Pool2/Media

Wäre dass so richtig?

ja
 
Im Prinzip ist es kein Bug. OSX 12 stellt neue Anforderungen mit 256bit Schlüsseln statt wie bisher 128bit und ist dabei nicht abwärtskompatibel. Bei Windows 11 kann man immerhin weiter mit 128bit Cipher wie unter Windows 10 arbeiten. Die SMB/NAS Server müssen jetzt nachziehen und das geht nicht immer so schnell wie man das gern hätte.

Als workaround könnte man übergangsweise ein iSCSI target nutzen. Das erscheint am Mac wie eine lokale USB Platte. Benötigt halt einen iSCSI Initiator am Mac.

Okay, verstehe. Vielleicht gehe ich erst mal den Workaround über iSCSI. Als iSCSI Initiator habe ich den hier https://www.kernsafe.com/product/macos-iscsi-initiator.aspx gefunden - gibt es andere (kostenfreie) Empfehlungen? Und da ich bisher keine praktischen Erfahrungen mit iSCSI habe: Gibt es eine übersichtliche Schritt-für-Schritt Anleitung, um das unter Napp-it zu aktivieren? Einfach über ZFS-Dateisysteme => "zfs unset" unter der Spalte "FC,IB,iSCSI" des gewünschten Dateisystems? Oder ist da noch mehr zu tun? Und kann ein bestehendes Filesystem verwendet werden, oder werden die Daten darauf gelöscht? Sorry für diese Anfängerfragen - habe auf die Schnelle leider keine passenden Infos gefunden...
 
Im Menü Comstar könnte man iSCSI umfassend konfigurieren. Am Einfachsten ist es aber wenn man im Menü ZFS Dateisysteme iSCSI einfach einschaltet. Dabei wird ein LU als Zvol unterhalb des Dateisystems angelegt bei dem die GID Teil des Namens ist so dass man dieses iSCSI Target auch nach einer Replikation des zvol einfach wieder unter der alten Kennung aktivieren kann.

Das Dateisystem selber für das man iSCSI aktiviert bleibt dadurch unverändert. Den Initiator von Kernsafe kenn ich nicht. Einfach probieren.
 
Guten Morgen,

Ich habe einen omniOS Server mit napp-it und ein RAID-Z1 am laufen. Ein Active Directory existiert, Freigaben und Sicherheiten über ACLs funktionieren einwandfrei. Das funktioniert auch alles zu 99% absolut zufriedenstellend, inkl. Vorgängerversionen usw.

Ich habe aber einen Share, dort gibt es 2 Unterordner in 2ter Ebene
\\napp-it-server\daten\Folder1\Folder2
\\napp-it-server\daten\Folder3\Folder4

Es geht um FOlder 2 und 4
in denen funktioniert alle paar Tage der Zugriff auf die Dateien nicht, also auflisten geht, aber kein aufrufen.
Fehlermeldung: Die Struktur der Zugriffsteuerungsliste (ACL, Access Control List) ist unzulässig. (0x80070538)

Ich gehe dann per CMD in den Ordner, mache ein
Code:
ICACLS * /T /Q /C /RESET

und dann geht es wieder ein paar Tage...
Ich hab die Ordner auch schon gelöscht und neu angelegt...so richtig kann ich den Finger nicht auf das Problem legen...
Jemand eine Idee? Ich finde auch keinen richtigen Zusammenhang zwischen irgendeiner Aktion und dem auftreten des Fehlers.
 
Zuletzt bearbeitet:
Sind folder1,2,3,4 ZFS Dateisysteme oder nur einfache Unterverzeichnisse?
In ersterem (eher ungünstigerem) Fall muss man darauf achten dass ZFS Eigenschaftem wie aclmode, aclinherit, charset, casesensitivity etc identisch sind. Sonst kann kann es Probleme beim Wechsel in tiefer geschachtelte Dateisysteme geben. OmniOS unterstützt zwar im Gegensatz zu Solaris geschachtelte Dateisysteme per SMB - Ich würde aber sofern möglich darauf verzichten und nur einfache Unterverzeichnisse/Ordner anlegen.

Zum rekursiven Zurücksetzen der ACL kann man auch napp-it "reset ACL" nutzen oder aus Windows mit Eigenschaft > Sicherheit. Verhält sich das damit gleich?

ps
Der kernelbasierte SMB Server von OmniOS ist zwar was ACL angeht viel kompatibler zu ntfs ACL als SAMBA mit Posix ACL. Es gibt dennoch einen strukturellen Unterschied. Solaris beachtet die Reihenfolge der ACL wie bei einer Firewallregel während Windows zuerst deny dann allow Regeln auswertet. Das kann dann zu der Meldung führen. Sollte aber keine weiteren Auswirkungen haben.
 
Sind folder1,2,3,4 ZFS Dateisysteme oder nur einfache Unterverzeichnisse?
Es sind einfach nur Unterverzeichnisse
Zum rekursiven Zurücksetzen der ACL kann man auch napp-it "reset ACL" nutzen oder aus Windows mit Eigenschaft > Sicherheit. Verhält sich das damit gleich?
Das ist eine gute Frage, ich probiere beides bei den nächsten Malen aus.
ps
Der kernelbasierte SMB Server von OmniOS ist zwar was ACL angeht viel kompatibler zu ntfs ACL als SAMBA mit Posix ACL. Es gibt dennoch einen strukturellen Unterschied. Solaris beachtet die Reihenfolge der ACL wie bei einer Firewallregel während Windows zuerst deny dann allow Regeln auswertet. Das kann dann zu der Meldung führen. Sollte aber keine weiteren Auswirkungen haben.
Interessanter Fakt, den hab ich gar nicht auf dem Schirm gehabt.
Reden wir hier von den Unix ACLs oder den WIndows-like ACLs? Bei letzteren... wie kann man die in Reihenfolge bringen?
 
Reden wir hier von den Unix ACLs oder den WIndows-like ACLs? Bei letzteren... wie kann man die in Reihenfolge bringen?

Die Unix ACL in Solaris/OmniOS entsprechen funktional inkl. den Vererbungsoptionen den Windows ntfs ACL (bis auf den Unterschied wegen der Reihenfolge der ACL). Die Reihenfolge kann man nur unter Solaris/OmniOS festlegen bzw in napp-it im Menü ZFS Dateisystem wenn man auf "folder ACL" eines Dateisystems klickt. Nur wenn man deny Regeln setzen möchte, muss man die auf einem Solaris Filer nicht von Windows aus setzen. Ansonst ist die empfohlene Option zum Setzen von Datei ACL "Eigenschaft > Sicherheit" aus Windows z.B. nach SMB Anmeldung als root. Deny Regeln sind ja eher selten und würde ich nach Möglichkeit vermeiden. Ein fehlendes "allow" impliziert ja dass man keinen Zugriff hat. Da brauchts kein deny.

In dem Zusammenhang ist auch wichtig, dass man keine "alten" Unix permissions wie 755 anwenden sollte. Die können keine Vererbung und sind wesentlich gröber. Man verliert dann gesetzte feinere ntfs ACL Eigenschaften und die ACL Vererbungen.

Eine weitere Besonderheit des Solaris SMB Server ist die Unterstützung von Windows kompatiblen SMB Gruppen. Die können Gruppen enthalten. Etwas was mit Unixgruppen nicht möglich ist.

 
Zuletzt bearbeitet:
Hallo zusammen,

gibt es einen gravierenden Unterschied zwischen Solaris und OmniOS, der dazu führt, dass ich nur mit max 50 MB/s anstelle ca 80-100 MB/s auf ein Dataset schreibe ? Bin gerade dabei auf OmniOS zu migrieren..aber so..?

- selbe Filer HW
- Gbit Lan
- smb 3.1.1. laut Powershell (Win10)
- egal ob verschlüsseltes FS oder nicht
- betrifft auch große Dateien die länger dauern
- CPU last bei OmniOS laut napp it bei 33% für die HDD

Gruß

Lucky
 
Hallo zusammen,

gibt es einen gravierenden Unterschied zwischen Solaris und OmniOS, ..

Es handelt sich inzwischen um 2 Betriebssysteme die sich seit ca 12 Jahren getrennt weiterentwickelt haben. Solaris auf Basis von "original" ZFS, OmniOS auf Basis von Open-ZFS. Neben OS und ZFS gibt es auch zwischenzeitlich Unterschiede im SMB Server.

In allen meinen bisherigen Tests war Solaris der schnellste ZFS Server, vor allem mit SMB. 30% bessere Performance hatte ich auch. Doppelte Performance eher nicht. Was ich getrennt vergleichen würde, wäre Pool Performance (Pool > Benchmark Testserie), ip Performance (iperf) und SMB Performance (AJA SD Video/kleine Files vs 4k/große Files) um zu sehen wo man optimieren müßte.

Wäre Solaris OpenSource wie OmniOS mit freien Security/ Bugfixes würde ich wohl Solaris nutzen.
 
Zuletzt bearbeitet:
Was ich getrennt vergleichen würde, wäre Pool Performance (Pool > Benchmark Testserie), ip Performance (iperf) und SMB Performance (AJA SD Video/kleine Files vs 4k/große Files) um zu sehen wo man optimieren müßte.
Muss ich mir mal ansehen, danke.


Für alle:

@besterino gerade für deine nic vlt interessant ;)
 
Zuletzt bearbeitet:
Hey, total kalter Kaffee. :d Bin tatsächlich wieder bei Solaris 11.4 (nach einem kurzen Zwischenstopp mit TrueNAS).
 
Das neue Solaris-Modell funktioniert bei mir bisher ganz unauffällig, wobei ich aber dazu sagen muss, dass es seit meiner Erstinstallation und dem ersten „pkg update“ ganz am Anfang direkt nach frischer Installation noch keine weiteren Updates gab. :d

TrueNAS war bei mir deutlich langsamer als Solaris, wobei ich aktuell auch mit Solaris noch irgendwo ne Bremse zu haben scheine.

Doof ist allerdings, dass SR-IOV mit der X4 nicht unter Solaris geht, muss also einen ganzen Port für diese VM für Passthrough opfern. Ist aber auch nicht soooo schlimm, denn am Ende hängt da halt nur ein Client dran. Aber darum kann ich halt nicht noch eine Windows Server-VM parallel zur Solaris-VM mit 100gbit für SMB Direct mit dem Client verbinden…

Zur Bremse: Aktuell sind aber meine Write-Werte von Windows über iSCSI auf die Solaris-VM recht bescheiden. Sync hin oder her, ich komme mit nem NVME-Raidz nicht nennenswert über 250MB/s. Read geht locker über 3000MB/s (auch weiter hinter dem Möglichen aber who cares).
 
Im Menü Comstar könnte man iSCSI umfassend konfigurieren. Am Einfachsten ist es aber wenn man im Menü ZFS Dateisysteme iSCSI einfach einschaltet. Dabei wird ein LU als Zvol unterhalb des Dateisystems angelegt bei dem die GID Teil des Namens ist so dass man dieses iSCSI Target auch nach einer Replikation des zvol einfach wieder unter der alten Kennung aktivieren kann.

Das Dateisystem selber für das man iSCSI aktiviert bleibt dadurch unverändert. Den Initiator von Kernsafe kenn ich nicht. Einfach probieren.
Wollte mich dazu noch einmal melden. Ich konnte nun erfolgreich ein iSCSI Target anlegen. Der Kernsafe iSCSI Initiator hatte unter Monterey leider Probleme, das Target dann auch zu initialisieren. Bei anderen Initiatoren braucht's aber auch eine kext Eintrag. Habe jetzt erst einmal den globalSAN Initiator installiert, den gibt's als 14 Tage trial, damit konnte ich das Target dann connecten in initialisieren. So läuft nun auch das Time Machine Backup wieder. Der Kernsafe Initiator kann das so initialisierte Target nun auch verbinden - für die Zeit nach der Trial... Ist allerdings umständlich, da ich (zumindest nicht ohne weiteres) jedes mal das iSCSI Target manuell verbinden muss. Aber für's Erste geht das so. Ich hoffe aber, dass TimeMachine mit OSX 12 und OmniOS in absehbarer Zeit wieder funktionieren wird. Leider gab es auf Deine Rückfrage https://www.illumos.org/issues/14047 ja noch keine Rückmeldung...

Anderes Thema: Wenn man unter Napp-It irgendeine Aktion mit einem ZFS Filesystem durchführen möchte, sei es Filesysteme auflisten, anapassen (z,B. iSCSI aktivieren), dann dauert das bei mir immer seeehr lange. Die Auflistung der Dateisysteme dauert locker 5 Minuten. So kann man nicht wirklich flüssig arbeiten. Ich habe 21 mehr oder weniger große Filessteme (größtenteils verschlüsselt bis auf Ausnahmen) auf einem Pool, welcher aus 6 Disks besteht (3 Mirror). Ich könnte der Napp-It VM wohl noch etwas Ram spendieren (aktuell 12GB bei 21TB Pool-Größe). Gibt es sonst Hinweise, was zu diesen langen Wartezeiten führen könnte?

Wie immer: Danke vorab!
 
Zuletzt bearbeitet:
Napp-it führt keine Datenbank über Platten, Dateisysteme oder Snaps sondern liest die bei jedem Menüaufruf neu ein. Das kostet zwar Performance ist aber Vorraussetzung damit man auch parallel auf der Console arbeiten kann ohne dass es Probleme gibt wie bei anderen NAS Systemen bei denen das nicht so möglich ist.

Um zu sehen wo die Probleme liegen, kann man auf der Console format aufrufen um Platten einzulesen (mit ctrl-c nach dem Auflisten beenden), zfs list um Dateisysteme zu listen, zfs list -t snapshot für Snaps oder zfs get all für ZFS Eigenschaften.

Mehr RAM kann das beschleunigen da dann manche Informationen wie Metadaten im Arc Lesecache sind. Auch kann man bei napp-it Pro acc (acceleration) im Topmenü aktivieren. Dadurch werden diese Informationen fortlaufend im Hintergrund eingelesen. Der Menüaufbau wird dann beschleunigt.

Extrem lange Wartezeiten deuten auf Probleme hin, z.B. einzelne "schwache" Platten, zu wenig RAM oder extrem viele Platten, Dateisysteme oder Snaps oder aktiviertes dedup bei zu wenig RAM.
 
Guten Abend,

ich versuche mich gerade beim aufsetzen eines neuen HomeServers nach dem napp-it-one Prinzip und scheitere daran den PCIe Controller mit Optane 1600x in napp-it angezeigt / konfiguriert zu bekommen, er will einfach nicht auftauchen geschweige von der Optane Festplatte.

Wenn ich den Controller an an Win System oder z.B. in debian durchreiche kann ich die Optane erfolgreich verwenden.

Weder unter Disks oder "NVMe" erscheint irgendetwas wenn der Controller an die Napp-it VM durchgereicht wird.

Es handelt sich um den empfohlenen ASUS Hyper M.2 X16 Card V2, One Size Controller.
Aber auch ein bereits vorhandener Delock PCIe x4 Controller - selbes Spiel

Bin ratlos, hab ich irgendwas übersehen?

Besten Dank für Hilfe

Hardware:
Fujitsu D3644-B Mainboard
Intel Xeon E-2146G
64 GB RAM
Optane 1600x 110GB

3 WD Gold HDDs
 
Zuletzt bearbeitet:
Die Asuskarte ist kein Controller, sondern nur eine Adapterkarte um bis zu vier M.2-Geräte auf PCIe-Slot zu adaptieren.
Solche Adapter tauchen nirgends auf, sondern nur darin gesteckte Geräte (sofern sie erkannt werden).

Ferner benötigt sie ein Board, Bios und CPU welche PCIe-Bifurcation unterstützen. Ob und wenn ja in welche PCIe-Link-Konfiguration das D3644-B das tut, kann ich Dir nicht sagen. Im Bios sollte eine art Option "PCIe-Link Konfiguration" (oder ähnlich benannt) sein, wo man z.b. x16 , x8x8, x8x4x4 einstellen kann. "x4x4x4x4" (also aufteilen des 16x Slots auf 4 mit je 4 Lanes M.2) kann der Intel nicht.
Ansonsten wird nur einer der 4 M.2 Steckplätze funktionieren. Kannst Du den Link-Mode einstellen, musst du prüfen mit welcher Einstellung welche M,2-Plätze funktionieren. Und welche Slots des Mainboard evtl. nicht mehr funktionieren.
Bifurcation ist oft tricky und von Board zu Board anders.


Bei der Delock vermute ich, dass es auch einfach eine M.2 zu PCIe-Adapterkarte ist? Dann ist sie ebenso nur ein Adapter und kein Controller. Folglich taucht sie auch nicht auf sondern nur eine darin eingesteckte Karte.

Was meinst Du genau mit "an Win System oder in Debian durchreiche"? Passthrough in ESXI an eine Windows-VM oder Debian-VM?
Oder einfach Adapter mit Optane darin eingesteckt und auf einer anderen SSD Windows oder Debian installiert, welche die Optane dann erkennen?

Aber generell schreibst Du etwas zu ungenau von Deinem Softwaresetup, um da genaueres sagen zu können.
Nutzt Du ESXI als Virtualisierer ? Was ist Dein Betriebssystem in der VM? OmniOS?

ESXI mit Passthrough an eine VM kann manchmal schwierig sein und Handarbeit in Konfigurationsdateien benötigen. Bei der Optane 900P z.B. war bzw. ist das so. Je nach Version von ESXI und dem Betriebssystem in der Storage-VM. Trägt man das nicht ein, lässt sich das betroffene Gerät (z.B. die 900P) nicht durchreichen oder erscheint trotz Durchreichen nicht in der VM.

Manchmal gehts auch gar nicht. NVMe-Passthrough mit ESXI 6.x und Solaris 11.3 als VM z.B. führt je nach SSD-Modell dazu, dass die VM nicht mehr bootet.
 
Zuletzt bearbeitet:
OK dachte der Adapter hat Controller Chips on Board die das managen. Die Delock ist auch eine M.2 Adapterkarte.

Das Board kann kein Bifurcation, hatte mir den Asus Adapter geholt weil er hier im Thread 2-3 empfohlen wurde. Und mein vorhandenes Delock nicht ging halt den empfohlenen versucht.
Das Problem ist das weder bei der Asus noch Delock die (oder überhaupt eine) NVMe erkannt werden, mit der Asus wäre es schön gewesen ggf. weitere NVMe Festplatten in Zukunft darauf ersetzten zu können.
Also die Optane wird egal wie und in welchem Steckplatz weder bei der Asus noch Delock erkannt -> immer der passthrough mode ist gemeint

Was meinst Du genau mit "an Win System oder in Debian durchreiche"? Passthrough in ESXI an eine Windows-VM oder Debian-VM?
Oder einfach Adapter mit Optane darin eingesteckt und auf einer anderen SSD Windows oder Debian installiert, welche die Optane dann erkennen?

Hypervisor ist ESXi 7.0, da ich mich auf das napp-in-One beziehe meine ich immer den passthrough mode.
Importiert wurde von gea das OVA template, also basierend auf OmniOS dann.

ESXI mit Passthrough an eine VM kann manchmal schwierig sein und Handarbeit in Konfigurationsdateien benötigen. Bei der Optane 900P z.B. war bzw. ist das so. Je nach Version von ESXI und dem Betriebssystem in der Storage-VM. Trägt man das nicht ein, lässt sich das betroffene Gerät (z.B. die 900P) nicht durchreichen oder erscheint trotz Durchreichen nicht in der VM.

Manchmal gehts auch gar nicht. NVMe-Passthrough mit ESXI 6.x und Solaris 11.3 als VM z.B. führt je nach SSD-Modell dazu, dass die VM nicht mehr bootet.

OK, sollte ich mich damit mal befassen das der OmniOS/Napp-in-One VM manuell einzutragen, bei einer Win oder debian VM geht es ja auch ohne.

Besten Dank für die schnelle Reaktion jedenfalls @Trambahner




Neuer Denkansatz:​

ich hatte hier einige Zeit mit dem lesen des Threads verbracht und auf lt. dem PDF für mich herauskristallisiert das es besser ist auf den ESXi Storage OmniOS VM zu installieren und SLOG / ARC auf eine per passthroug durchgereichte Optante zu realisieren, wenn das scheinbar so jetzt mir der vorhandenen Hardware nicht funktioniert wäre die Lösung auch OK? -> :
1. Optane auf die OnBoard M.2 Schnittstelle verbauen
2. Darauf ESXi installieren
3. dort auf den Storage napp-it importieren
4. auf den verbleibenden Storage eine weitere HDD zuweisen für SLOG / ARC etc.
 
Napp-it führt keine Datenbank über Platten, Dateisysteme oder Snaps sondern liest die bei jedem Menüaufruf neu ein. Das kostet zwar Performance ist aber Vorraussetzung damit man auch parallel auf der Console arbeiten kann ohne dass es Probleme gibt wie bei anderen NAS Systemen bei denen das nicht so möglich ist.

Um zu sehen wo die Probleme liegen, kann man auf der Console format aufrufen um Platten einzulesen (mit ctrl-c nach dem Auflisten beenden), zfs list um Dateisysteme zu listen, zfs list -t snapshot für Snaps oder zfs get all für ZFS Eigenschaften.

Mehr RAM kann das beschleunigen da dann manche Informationen wie Metadaten im Arc Lesecache sind. Auch kann man bei napp-it Pro acc (acceleration) im Topmenü aktivieren. Dadurch werden diese Informationen fortlaufend im Hintergrund eingelesen. Der Menüaufbau wird dann beschleunigt.

Extrem lange Wartezeiten deuten auf Probleme hin, z.B. einzelne "schwache" Platten, zu wenig RAM oder extrem viele Platten, Dateisysteme oder Snaps oder aktiviertes dedup bei zu wenig RAM.

Danke! format zeigt die Platten quasi in Echtzeit an, keine Verzögerung. zfs list dauert eine knappe halbe Minute (zeigt aber auch schon alle = viele Snapshots an -> ca. 8.600 Zeilen mit Hourly, Daily, Monthly Snaps pro Dateisystem ), zfs list -t snapshot identisch, zfs get all dauert dann schon ein ganzes Stückchen (Gibt rund 242.000 Zeilen aus). Die Menge an Snapshots dürfte hier relevant sein.

An Speicher kann ich der Napp-It VM wohl noch ca, 3GB zuweisen, darüber hinaus muss ich noch Riegel nachrüsten. Und bei den Snapshots müsste ich auch schauen, inwieweit ich die nicht noch eindampfen kann. Snapshots sind insofern verführerisch, als dass sie ja nicht viel Speicherplatz auf den Platten verbrauchen, aber wenn das Aufrufen der Informationen zu den Snaps dadurch sehr träge / aufwendig wird, ist auch nicht unbedingt geholfen... Napp-It Pro habe ich keine Lizenz, nur Free, die ja inzwischen(?) etwas eingeschränkt ist (selbst keine Benchmarks mehr im Pools Menü?). Kann man da lizenztechnisch was machen?

6 Platten dürften nicht als extrem viel gelten, dedup habe ich nicht wissentlich aktiviert (wie kann ich das prüfen?)
 
Mehrere Tausend Snapshots brauchen ordentlich RAM und schnelle Hardware wenn das fix aufgelistet werden soll, ansonst reduzieren.

Die Free Version hat alle wichtigen Funktionen. Um gelegentlich eine Pro Funktion zu nutzen:

edit:
Pool > Benchmark ist eine free Funktion. Ist bei einem Menü Update herausgefallen. Ist behoben.
 
Zuletzt bearbeitet:
Mahlzeit,

mal eine kleine OT Frage:
Gibt es ein 2,5" Erweiterungsgehäuse für 8 SSDs? So eine Art "dummes shelf"
2,5/3,5" gemischt würde auch interessant aber optional.
Ich komm mit 8 SATA Kabeln vom Raidcontroller an und möchte die Disks nebeneinander haben.
Evtl. auch ein Muster für den 3D Drucker würde auch reichen.
 
Sowas? ICY DOCK Wechselrahmen für 8X 2,5 Zoll (6,4cm) SATA SSD/HDD in 1x 5,25 Zoll (13,3cm) - Vollmetall ToughArmor MB998SP-B https://amzn.eu/d/cj1wN2k

Gibt es [edit: aus Plastik] ab ca 50€ (der hier ist extrem teuer).

Edit: externe Gehäuse gibt's natürlich auch, aber (fast) nur über USB.
 
Zuletzt bearbeitet:
@gea napp-it error:

OmniOS r42 fully updated
Nach Update auf napp-it 21.06a9 (von a8) wirft er mir alle 15min folgende Fehlermeldung aus:

Code:
Cron <root@omniosce> perl /var/web-gui/data/napp-it/zfsos/_lib/scripts/auto.pl
Tty.c: loadable library and perl binaries are mismatched (got handshake key 12400080, needed 12200080)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh