[Sammelthread] ZFS Stammtisch

Ja, napp-it muss die Perl Version in OmniOS unterstützen, sonst kommt z.B. im Menü User der Tty.io Fehler (aus dem Modul Expect).
Alle aktuellen napp-it Versionen ab 21.06 free unterstützen aber Perl 5.36 (habs gerade nochmal getestet)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei mir scheint die Neuinstallation von napp-it geholfen zu haben; ich musste aber einige Module per Hand in CPAN nachinstallieren. Die brauchte ich aber mE für sanoid/syncoid und nicht für napp-it.
 
Napp-it verändert bei der Installation die vorhandene Perl Installation nicht. Benötigte Module wie z.B. Tty,io (Expect.pm) werden nicht installiert sondern sind einfach beigefügt. Damit ist napp-it "Copy and run". Das ist Vorraussetzung für das Update/Downgrade zwischen verschiedenen napp-it Versionen.
 
Der Solariseigene multithreaded SMB Server kennt neben Datei/Ordnerrechten auch Freigabebasierte Share ACL Rechte. Die werden durch ntfs artige ACL für Nutzer oder Gruppen auf eine Steuerdatei /pool/dateisystem/.zfs/shares/dateisystem gesetzt. Diese Steuerdatei wird beim Aktivieren einer Freigabe erzeugt und beim Deaktivieren gelöscht, Freigaberechte sind daher nicht persistent.

Im aktuellen napp-it 22.dev speichere ich beim Beenden einer Freigabe die Share ACL als ZFS Eigenschaft. Beim erneuten Freigeben kann man die dann wiederherstellen oder eine Einstellung wie everyone=full, modify oder readonly wählen.
 
Ich bin dabei meinen alten Storage-Server gemäß den Empfehlungen von gea / napp-it umzustellen.
D.h. ich hatte bisher u.a. ein RAID z1 aus drei Consumer-SSDs (die sind nach 8 Jahren jetzt bald platt) als VMstorage laufen und würde es jetzt auf Mirror von zwei Enterprise-SSDs umstellen.
a) wäre es sinnvoll, lieber 4 SSDs zu nehmen und zwei Mirrors zu stripen, also quasi ein Raid 10 herzustellen ?
b) Ist der folgende Weg für die Umstellung sinnvoll oder gibt es einfachere / bessere / sichere ?
Ich würde es so machen:
  1. zpool create vmstorage-neu mirror c1t0d0 c1t0d1 mirror c1t0d2 c1t0d3
  2. zfs create vmstorage-neu/data
  3. zfs set compression=on vmstorage-neu/data
  4. zfs snapshot -r vmstorage/data@vms
  5. zfs send vmstorage/data@vms > tank/data/bkup/vms-org.today
  6. zfs receive vmstorage-neu/data@neu < tank/data/bkup/vms-org.today
  7. zfs rename vmstorage/data vmstorage/data-old
  8. zpool rename vmstorage vmstorage-old
  9. zpool rename vmstorage-neu vmstorage
  10. check, if everything works and data are ok
  11. zfs delete vmstorage-old/data-old
  12. zpool delete vmstorage-old
Angaben für ashift etc. habe ich jetzt weggelassen...

c) ich habe sowohl noch Platz auf einem Optane Device als auch noch eine S3610 SSD - worauf macht es mehr Sinn ein L2ARC einzurichten ? Oder ist doch mehr RAM die beste Lösung ?

Vielen Dank für die Hilfe !
 
Zuletzt bearbeitet:
zum Umzug:
a. Ein Raid-10 hat bessere Performance als ein Mirror,
aber mehr Platten=mehr Strom und mehr Technik die ausfallen kann.

b. Einen Replikationsjob anlegen der das alte VM Dateisystem (vmstorage-old/data?) auf den neuen Pool vmstorage-neu kopiert.

pool-alt/data ->pool-neu
Ergebnis: Dateisystem data unterhalb des neuen Pools (pool-neu/data)

Wenn alles ok, alten Pool löschen.

c. Die billigen 16/32 GB Optane sind ähnlich gut wie eine 3610 SSD. Die besseren Optane sind deutlich schneller, mehr RAM ist noch schneller.
 
Zuletzt bearbeitet:
Hallo zusammen,

[Edit: den langen Beitrag auf das Wesentliche gekürzt]

Ich habe ein paar Fragen zum Thema Rechtevergabe bei OmniOS v11 r151038ca / napp-it 22.06a / nur workgroup - kein AD. Meine ersten Gehversuche mit dem Thema überhaupt....
  1. ACL extension: Wenn man bei existierender Ordnerhierarchie nachträglich auf oberer Ebene Rechte ändert: Werden diese nicht automatisch rekursiv auf existierende Objekte übertragen?
    Wie sollte man bei existierenden Daten vorgehen?
    Ich konnte mir bislang nur über Windows "Alle Berechtigungseinträge für untergeordnete ... ersetzen" behelfen.
  2. Offenbar gibt es kleine Unterschiede wenn man das direkt auf Ebene des Shares tut. Ist dort etwas besonderes zu beachten? Macht man das erst auf der ersten Ordner-Ebene?
    Wenn im nap-it die Vererbung auf share-Ebene an ist, wird mir im Windows Dialog "Vererbung aktivieren" angeboten. Macht das Sinn?
  3. Über Windows werden die Unix-Nutzer nicht richtig "gefunden". Die erweiterte Suche zeigt sie zwar an, aber später gibt's eine Fehlermeldung "Fehler beide der Suche nach anzuzeigenden Benutzernamen". Auch effektive Berechtigungen ermitteln geht nicht. Woran könnte das liegen? Das Verhalten ist bei verschiedenen Rechnern etwas unterschiedlich, aber ganz sauber klappt es bei mir nirgends.
  4. Wenn man die SMB-Gruppen via Windows-Dialog nutzen möchte, ist es normal dass Windows die Namen später nicht mehr anzeigen kann, sondern nur noch die ID "S-...."?
 
Zuletzt bearbeitet:
Die ACL Rechtemöglichkeiten eines Windows Server auf einem ntfs Laufwerk sind etwas tricky. Wenn man sich damit noch nicht beschäftigt hat, ist es etwas kompliziert. Möchte man umfangreiche Rechtevergaben regeln und hat man das Prinzip verstanden ist es genial und dem was man unter Linux/Unix gewohnt ist himmelweit überlegen. Ich versuche mal ein paar Grundsätze aufzuzeigen so wie sie sich unter Windows darstellen (SMB Share als root verbinden).

Zunächst ein paar Basics
Ein Solaris SMB Server (kernelbasiert, ist nicht so bei SAMBA) verhält sich nahezu gleich wie wie Windows Server was ntfs ACL angeht. Der wichtigste Unterschied: Windows verarbeitet erst deny dann allow Regeln während Solaris die Reihenfolge der Regeln abarbeitet so wie eine Firewall. Solange man kein deny verwendet kann man das ignorieren.

Solaris kennt neben Unix Gruppen zusätzlich SMB Gruppen. Das liegt daran dass lokale Windows Gruppen auch Gruppen enthalten können, lokale Unix Gruppen dagegen nicht. Der Solaris SMB Server nutzt nur Windows kompatible SMB Gruppen. Man kann aber per idmapping SMB Gruppen/User auf Unix Gruppen/User abbilden.

Aus einem Unix User wird erst dann ein SMB User wenn ein SMB Passwort vorhanden ist (andere Struktur als Unix hash). passwd user setzt ein Unix und SMB Passwort.

ZFS ist ein Unix Dateisystem. Die primäre Zuordnung von Rechten basiert daher auf Unix UID/GID. Der Solaris SMB Server nutzt aber ausschließlich Windows SID (lokale User SID werden aus der uid abgeleitet, AD SID werden direkt genutzt). Backups mit AD Rechten verlieren damit nicht ihre Rechtezuordnung.

Die Rechteoptionen unterscheiden sich bei der Zuweisung auf Ordner (wg Vererbung) oder Dateien. Wenn man Rechte auf einen Ordner legt kann man festlegen ob das nur für diesen Ordner oder weitere gilt

vererbung.png

Bei Dateien fehlen die Vererbungs Ordneroptionen.

Auswahl von Benutzern/Gruppen in Windows (Der Windows Dialog ist bescheuert)
Entweder hostname\user z.B. nas\paul eingeben oder Benutzer hinzufügen > Prinzipal auswählen > Erweitert > jetzt suchen und Name oder Gruppe anklicken.

Vererbung
Legt man eine ACL auf einen Ordner mit der Vererbungs Option enthaltene Ordner und Dateien, so vererbt sich diese Einstellung. Wenn man in einen tieferen Ordner geht, kann man da die Vererbung deaktivieren (aktivieren). Man wird dann gefragt ob man vererbte Rechte löschen oder als "lokale" Rechte behalten möchte

Effektive Rechte eines Ordners=lokale Rechte + verebte Rechte. Verebung kann man an jeder Stelle eines Verzeichnisbaumes deaktivieren/aktivieren.

vererbung_aus.png

Dieser Dialog kommt nur in tieferliegenden Ordnern. Auf oberster Ebene kann man Vererbung nur ein&ausschalten.
Man kann beim Setzen von ACL auf einen Ordner auch alle tieferliegenden Rechte rekursiv ersetzen. Die wirken dann "lokal" ohne Vererbung. (Alle Berechtigungseinträge .. ersetzen)

Zur Vorgehensweise:
Für die Freigabe selber: Jeder lesen (nur diesen Order): damit kommt jeder (angemeldete User) auf die Freigabe
Dann für jeden Ordner festlegen wer was darf (Ordner, enthaltene Ordner und Dateien).

Für größere Installationen:
Für den Freigabeordner nur erlauben dass Ordner und Dateien inkl. Vererbung angelegt werden können. Ohne weitere Einstellung darf der Ersteller/Owner alles, andere nichts.
 
Zuletzt bearbeitet:
Hallo Gea,

danke für die Erläuterungen. Ich denke jetzt habe ich das einigermaßen verstanden. Mein Hauptproblem war vor allem:
Entweder hostname\user z.B. nas\paul eingeben
oder Benutzer hinzufügen > Prinzipal auswählen > Erweitert > jetzt suchen und Name oder Gruppe anklicken.
Die erste Variante ging gar nicht. Der Benutzer wurde nie akzeptiert (egal ob mit ip\nebutzer oder hostname\benutzer). "Name überprüfen" lieferte immer einen Fehler.
Bei der zweiten Variante hat zwar die Suche die Benutzer des Servers mit angezeigt, ich konnte sie letztlich aber auch nicht übernehmen.

Warum das mittlerweile geht ist mir nicht klar. Ich hab gestern viel rumprobiert netbios aus/an; SMB restart, server restart, andere Windows Rechner. Dann funktionierte es irgendwann und ich habe es heute genauso wie in Deiner Beschreibung machen können. Oder es lag an der Verbindung: "als root verbinden" habe ich gemacht in Form von "Netzlaufwerk mit anderen Anmeldeinformationen verbinden". Falsch interpretiert? Mittlerweile hat mein Benutzer ja überall volle Berechtigungen - würde erklären warum es nun klappt...

Die Rechtestruktur habe ich vorerst bewusst einfach gehalten. Das "schwierigste" war dann schon der Ordner mit den User-Verzeichnissen (everyone read ohne Vererbeung, ...). Aber das stand ja auch in einer Deiner Anleitungen.
Da das erst über Windows nicht funktionierte hatte ich es über die ACL Extension versucht. Da war mir nicht klar, dass die Rechte nicht rekursiv übertragen werden (hatte ja schon gefüllte Ordner). Und dann musste ich noch mit WinSCP einige owner ändern, wodurch dann aber wieder die Unix-Rechte in ACLs übertragen wurden (@owner, @group, @everyone). Und das natürlich rekursiv. D.h. danach erstmal ACL-reset rekursiv. War etwas mühselig...
Egal, ich bin jetzt erstmal sehr glücklich!

Eine abschließende Frage noch (ist aber nur die Kür):
Ich habe bei einem share nfs aktiviert, damit die Dreambox dort ihre Aufnahmen ablegen kann.
Von der Dream angelegte files kommen dann mit user "nobody" an. Soweit ok.
Aber wenn ich vom Rechner aus Dateien anlege, dann muss ich entsprechend eine ACL haben, die es nobody erlaubt darauf zuzugreifen (damit die Dream die Dateien schreiben & löschen kann).
Was anderes als @everyone ist mir hier noch nicht eingefallen. Dann können aber auch alle SMB-User alles löschen...
Gibt's da noch eine feinere Lösung?
Eine Idee wäre über eine ACL auf die Freigabe die Rechte einschränken. Das behindert doch vermutlich den nfs-zugriff nicht, sperrt aber die Windows Benutzer aus, oder?

Oder kann man dem nfs-Zugang einen expliziten user zuordnen?
 
Ich vermute, das Problem lag irgendwie daran dass man Vollzugriff braucht um ACL zu setzen (root).

zu NFS (v3)
NFS kennt weder Authentifizierung (Anmeldung) noch Authorisierung (Userrechte). Den Zugriff kann man lediglich über Nutzer uid oder Client ip einschränken. Beides kann man faken. Auch ist die user id nicht bei allen Systemen gleich, mal nobody mal uid des Users. Bei kombinierter NFS/SMB Nutzung wird man nur glücklich wenn man ACL auf modify oder full setzt. Man kann jetzt in der Tat den SMB Zugriff dann per share ACL auf readonly begrenzen obwohl die Dateirechte (wirkt dann für NFS) auf everyone@=modify oder full stehen. Aus Versehen gelöschte Daten könnte man per SMB und Windows vorherige Version aus Snaps wiederherstellen, das wird aber bei share=readonly nicht gehen.
 
Ich habe mal zusammengefasst was wichtig für den Solaris kernelbasierten SMB ist
 
Ich habe mich mal mit dem Thema Energie sparen auf dem Backupserver beschäftigt.
Den 24/7 laufen zu lassen nur um einmal oder ein paarmal pro Tag ein Backup laufen zu lassen ist total unökonomisch, zumal eine fortlaufende ZFS Replikation die Dateisysteme syncron hält - in wenigen Minuten fertig ist - egal wieviel Last oder wie groß.

Um nicht alles zu wiederholen, Details siehe
 
OpenIndiana Hipster 2022.10 ist da

OpenIndiana ist eine Illumos Distribution und mehr oder weniger der Nachfolger von OpenSolaris. Es ist in einer Desktopversion mit Mate, Browser, Email und Office sowie einer Textedition ähnlich OmniOS bloody und einer Minimalversion verfügbar. Der Minimalversion fehlen selbst essentielle Tools.

Wiewohl OpenIndiana jeweils aktuellstes Illumos ist (pkg update gibt jeweils neuesten Stand) gibt es jährliche Snapshots eines getesteten Anfangsstand für Neueinsteiger. Das ist der Hauptunterschied zu OmniOS wo stabile Softwarerepositories je Version im Vordergrund stehen.

Beim Setup kann man deutsch als Tastatur wählen. Unix Spracheinstellung sollte man für napp-it aber auf englisch belassen.
 
Hallo zusammen,

Ich habe eine Eaton USV für meinen ESXI Server. Zentrale VM ist meine Napp-It Installation (OmniOS). Wenn der Strom ausfällt, sollen alle VMs herunter gefahren werden, Napp-It als letztes, weil die anderen VMs Shares vom Napp-It Server eingebunden haben. Ich möchte daher gerne NUT auf dem Napp-It Server installieren. Nur: Ich habe bislang noch keinen Hinweis gefunden, wie NUT unter OmniOS installiert werden könnte. Für OpenIndiana gibt es wohl Pakete, inwiefern die unter OmniOS aber überhaupt nutzbar sind... Keine Ahnung.

Frage: Gibt es fertige Binary Pakete für OmniOS, die installiert werden könnten oder kann jemand die Installation von NUT unter OmniOS beschreiben? Eine separate USV-VM mit einem Debian o.ä. wäre zwar möglich - aber ehrlich gesagt, möchte ich das in Hinblick auf die Systemkomplexität gerne vermeiden...

Danke und Gruß!

Edit: Ggf. wäre auch apcupsd denkbar, ich bin nur nicht sicher, ob das a) unter OmniOS läuft und b) Eaton USVs unterstützt...
 
Zuletzt bearbeitet:
Damit habe ich offen gestaden noch gar keine Erfahrungen und muss erst einmal schauen, was das überhaupt ist und ob man das essen kann... ;-)
 
apcupsd ist im pkgin repository, http://pkgsrc.joyent.com/packages/SmartOS/2021Q4/tools/All/
nut in http://pkgsrc.joyent.com/packages/SmartOS/2021Q4/x86_64/All/

Installation von pkgin Programmen unter OmniOS:

LX Zonen sind eine Laufzeitumgebung um Linux Systeme direkt unter OmniOS auszuführen,

OpenIndiana repositories unter OmniOS einzubinden ist wegen der Abhängigkeiten keine so gute Idee.
Einfache Binaries sollten aber laufen. Nut ist aber auch im sfe IPS repository. Das kann man unter OmniOS nutzen,
 
Super, vielen Dank, @gea! Der Hinweis mit den pkgin Programmen unter OmniOS war der entscheidende Tipp! Die Installation über pgkin lief soweit reibungslos durch, dann mache ich mich mal an die Konfiguration.

Das mit den LX Branded Zones werde ich mir mal merken und mich bei Gelegenheit damit beschäftigen.
 
Hmm, habe da ein kompliziertes Problem. Wenn ich ein napp-it AiO habe, mit zwei NFS Freigaben. Da drauf läuft virtuell ein NAS, mit einer VMDK als Datenplatte freigegeben. Virtuell ist das dann wieder ein ZFS mit ftp Freigabe. Ist das schlecht? Ich würde die Datenplatte ungern direkt per ftp auf napp-it freigeben. Für mich ist das super im Moment, wenn da noch ein zusätzlicher Filer virtualisiert ist. Weil ich ungern von der DMZ ins Admin-, bzw. Storage Net beregeln würde. Also hat netzwerktechnische Gründe, wieso ich das so machen will.

Es geht um ein Hostingpanel, dass ich per ftp sichern will. Halt nur nicht nativ auf den Storage, sondern halt den Storage doppelt ZFSisiert, keine Ahnung.
 
Kommt darauf an
Performancemäßig ist die Mehrfachvirtualisierung mit ZFS auf ZFS auf ZFS natürlich nicht optimal. Ist aber vermutlich unkritisch. Von der Sicherheit her dürfte es ein Vorteil sein weil das Hauptsystem bei einem Sicherheitsproblem hoffentlich nicht betroffen ist.

Ich würde aber generell ftp vermeiden und wenn irgendmöglich auf sftp oder ftps gehen.
 
Zuletzt bearbeitet:
Ja danke.

Noch eine Frage: mein Neffe sucht schon länger nach einem Server. Wenn ich da ein E5 v3 System stellen würde. Macht das Sinn mit einem durchgereichten Perc H200? Da dran würden zwei PM883 und zwei Festplatten hängen. Der HBA ist halt schon uralt. Würde aber noch rum liegen. Kann der sinnvoll mit SSDs umgehen?
 
Ist voll ok.
ESXi unterstützt den LSI 2008 zwar nicht mehr, für OmniOS, ZFS und passthrough ist der aber immer noch prima.

Mit 6G kann er pro Kanal eine Sata SSD mit ca 500 MB/s voll ausnützen Mit PCI2 und 8 Lanes kann er ca 4 GB/s. Danit bremst er selbst bei 8 Sata SSD noch nicht. Man braucht schon 12G SAS damit der HBA überfordert ist.
 
Ich muss mich nochmal wegen meiner NUT Installation melden. Die Installation schien mittels pkgin -y install ups-nut ordnungsgemäß zu laufen. Danach habe ich mich daran versucht, meine Eaton Ellipse Pro USV zu konfigurieren. Diese wird über den usbhid-ups Driver eingebunden. Starten des Driver über /opt/local/sbin/upsdrvctl start schlägt dann aber fehl:

Code:
Network UPS Tools - UPS driver controller 2.7.4

Can't start /opt/local/libexec/nut/usbhid-ups: No such file or directory


Aha, usbhid-ups Treiber nicht da. Laut manpage wird der nicht standardmäßig gebaut, bei make ist eine extra Option anzugeben. Aber ich baue ja nicht selbst neu, sondern nutze ein fertiges Binarx Package. Also geschaut, was es da geben könnte und das Package ups-nut-usb identifiziert. Installation mittels pkgin -y install ups-nut-usb schlägt aber fehl

Code:
calculating dependencies...done.

libusb-compat-0.1.7 (to be installed) conflicts with installed package libusb-0.1.12nb5.


2 packages to install:

  ups-nut-usb-2.7.4nb2 libusb-compat-0.1.7


0 to refresh, 0 to upgrade, 2 to install

0B to download, 745K to install


installing ups-nut-usb-2.7.4nb2...

installing libusb-compat-0.1.7...

pkg_install warnings: 0, errors: 3

pkg_install error log can be found in /var/db/pkgin/pkg_install-err.log


Im Log sind dann Inkompatibilitäten zu finden:

Code:
---Dec 10 15:07:58: installing ups-nut-usb-2.7.4nb2...

pkg_add: Package `libusb-compat-0.1.7' conflicts with `libusb-[0-9]*', and `libusb-0.1.12nb5' is installed.

pkg_add: Installed package `libusb-0.1.12nb5' conflicts with `libusb-compat-[0-9]*' when trying to install `libusb-compat-0.1.7'.

pkg_add: Can't install dependency libusb-compat>=0.1.6rc2

pkg_add: Expected dependency libusb-compat>=0.1.6rc2 still missing

pkg_add: 1 package addition failed

---Dec 10 15:07:58: installing libusb-compat-0.1.7...

pkg_add: Package `libusb-compat-0.1.7' conflicts with `libusb-[0-9]*', and `libusb-0.1.12nb5' is installed.

pkg_add: Installed package `libusb-0.1.12nb5' conflicts with `libusb-compat-[0-9]*' when trying to install `libusb-compat-0.1.7'.

pkg_add: 1 package addition failed

Arrgh, ist das schon wieder ein Krampf... Hat vielleicht jemand Hinweise für mich? Danke vorab!
Beitrag automatisch zusammengeführt:

Zum Thema Timemachine via SMB:
Dazu muss man ein Dateiesytem mit oplock enabled anlegen (Service Properties SMB) und in Services > Bonjour Timemachine aktivieren. Für das Backup meldet man sich mit einem OmniOS Nutzer an.
vgl https://forums.servethehome.com/ind...ine-support-on-napp-it-with-smb-shares.16309/

Aktuell gibt es ein Problem mit SMB unter OSX und Windows 11. Unter OSX klappt der Zugriff nur mit SMB1 und Gehe zu > cifs://ip. Ob Timemachine damit Probleme macht, kann ich aktuell nicht sagen
vgl https://www.illumos.org/issues/14047

@gea: Mal rausgekramt vom Juni: In dem Ticket https://www.illumos.org/issues/14047 hat sich kürzlich was getan. Ist damit zu rechnen, dass Timemachine Backups bald wieder via SMB mit Napp-It funktionieren? Derzeit mache ich das über iSCSI, aber ein bisschen hakelig ist das schon. Ich habe mir den iSCSI Initiator von DAEMON Tools zugelegt, aber da muss man halt immer von Hand erstmal das iSCSI Device einbinden...
 
Zuletzt bearbeitet:
Hallo zusammen,

wie ist denn der aktuelle Stand von ZFS bei Truenas? Mir geht es konkret darum wie die Umsetzung bei Truenas aussieht, da ich mir gerne ein NAS in den Keller stellen möchte welches auch als Server fungieren soll.

Daher wäre Truenas Scale sehr viel interessanter, jedoch bin ich bei ZFS nicht mehr Up to Date (wollte seit dem Tag als die c't die Vorzüge von ZFS in den 2000ern vorstellte irgendwann ein Filesystem mit diesen Features) - und vor vielen Jahren gab es wegen der GPL keine (legale) Möglichkeit die originalen Sourcen unter Linux zu verwenden. Ist das inzwischen geklärt oder ist das Projekt gespalten und unter Linux läuft weiterhin eine eigene Implementation?

Die Performance ist nicht mein Fokus, Netzwerk wird erstmal bei 1 Gbit/s bleiben - mir wäre es wichtig dass das NAS unauffällig und Robust läuft (geplant ist ein System mit ECC RAM + USV) um möglichst nie Zeit damit zu verbringen Backups zurückzuspielen :).
 
@gea: Mal rausgekramt vom Juni: In dem Ticket https://www.illumos.org/issues/14047 hat sich kürzlich was getan. Ist damit zu rechnen, dass Timemachine Backups bald wieder via SMB mit Napp-It funktionieren? Derzeit mache ich das über iSCSI, aber ein bisschen hakelig ist das schon. Ich habe mir den iSCSI Initiator von DAEMON Tools zugelegt, aber da muss man halt immer von Hand erstmal das iSCSI Device einbinden...

Zu Nut kann ich nichts sagen.

Beim Theme smb tut sich aber einiges. Nachdem der Illumos Entwickler dem das Theme zugewiesen wurde leider Russe ist (und von dem Illumos Team wegen dem Ukraine Krieg vorläufig gesperrt wurde) haben sich andere Entwickler dem Thema angenommen. Vor ca 4 Wochen gab es von Racktop Fixes zu dem Thema. Aktuell steht das Problem 256bit Cipher bei 90% fertig. Ich gehe davon aus dass das bald fertig ist- Ich hoffe dass damit nicht nur der 128bit Workaround für Windows 11 hinfällig ist sondern auch Timemachine unter OSX 12+ wieder mit SMB funktioniert.

 
Danke für die Rückmeldung! Thema SMB hört sich ja gut an! Wäre schön, wenn das bald wieder funktionieren würde.

Bzgl. Nut: Schade, vielleicht hat jemand anderes einen Hinweis? Die Kombinaton Nut und OmniOS scheint es ja offensichtlich nicht so oft zu geben... Ich fände es ziemlich suboptimal, wenn ich für das Thema eine eigene VM spendieren müsste...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh