[Sammelthread] ZFS Stammtisch

Wenn du den RAM prüfen willst, nimm nach Möglichkeit nicht Memtest, sondern Primzahlenberechnungen a la Prime95, memtest gibt dir bei modernen Maschinen falsche Angaben.

Gruß
Ron
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo Ihr,

es ist kein RAM-Modul-Fehler. Ich kann die Module tauschen wie ich will, es ist die Bestückung >4G. Ich habe die Vermutung, das es am Memorymapping liegt, bin aber nicht sicher. Oder am Windows2003 32bit, obwohl dies mit dieser RAM-Größe klarkommen müsste.
Mir geht es darum auch zu testen, ob ZFS diese Probleme bemerkt. Nur darum steige ich überhaupt auf ZFS um. Laut meinen Infos ja, da der komplette Weg inkl. CPU und RAM bis zur Platte überprüft wird. So habe ich die Dokus jedenfalls verstanden.

edit: nochmals zu Info. Besagte Hardware wird mit 4GB RAM betrieben, soll nur ein Backupserver ohne Performanceansprüche werden. Trotzdem würde ich gerne testen, ob besagter Fehler mit dieser HArdware unter ZFS auffällig wird. Hat mir damals die Daten von fast einem Jahr zerstört. Da die "korrupten" Daten auch alle auf das Backup gewandert waren, war dieses keine Hilfe. Nur ältere Backups waren noch zu gebrauchen. Solche einen unbemerkten Fehler möchte ich in Zukunft durch ZFS verhindern. Da ich noch in der Lernphase bin, würde ich dies gerne mal mit Absicht forcieren, da der Fehler eindeutig reproduzierbar ein- und ausschaltbar war durch die Aufstockung des RAMs.
 
Zuletzt bearbeitet:
Laut meinen Infos ja, da der komplette Weg inkl. CPU und RAM bis zur Platte überprüft wird. So habe ich die Dokus jedenfalls verstanden.

Verlink mal die Doku.
Ich kann das nicht glauben.
ZFS kann überprüfen, ob die Daten so wie angeliefert richtig auf der Platte gelandet sind, aber nicht ob vorher eventl. die CPU oder ein RAM diese Daten verbogen hat.
 
Hallo layerbreak,

zeigen kann ich leider nichts. Ich lese schon seit 6 Monaten über ZFS und hatte im Netz einmal eine Präsentation gelesen, wo auch der Weg durch CPU und RAM als vom ZFS "abgesichert" beschrieben wurde. War aber keine offizelle Doku von Sun.
Sollte dies ein Irtum sein, dann entschuldige ich mich für das "In Verkehr bringen" von Falschinformationen ;-)

edit: zum Beispiel hier: http://unfuck.eu/2011/_media/slides:zfs-einfuehrung-gantikow-2011.pdf auf Seite 43.

Checksumme-Überprüfung im Dateisystem ist sicherer als ein teures HWRAID-
Array, da der komplette Übertragungsweg überprüft wird (Kabel, Treiber,
CPU, Memory, Caches, usw)
 
Zuletzt bearbeitet:
Verlink mal die Doku.
Ich kann das nicht glauben.
ZFS kann überprüfen, ob die Daten so wie angeliefert richtig auf der Platte gelandet sind, aber nicht ob vorher eventl. die CPU oder ein RAM diese Daten verbogen hat.

Der "gesamte Weg" bezieht wohl auf den Schreibvorgang ... da durchlaufen die Daten ja auch alle möglichen Hardwareteile und am Ende liegt die Festplatte. Hier kann ZFS sehr wohl prüfen ob die Daten "den Weg" ohne Fehler überstanden haben oder eben nicht.
 
Der "gesamte Weg" bezieht wohl auf den Schreibvorgang ... da durchlaufen die Daten ja auch alle möglichen Hardwareteile und am Ende liegt die Festplatte. Hier kann ZFS sehr wohl prüfen ob die Daten "den Weg" ohne Fehler überstanden haben oder eben nicht.

Richtig, hatte ich auch nie bestritten.

@millenniumpilot ist ja der Meinung, dass ZFS erkennt, wenn der Datenstrom von einem defekten RAM verändert wird und da sage ich, dass Dies nicht so ist. ZFS kann keinen defekten Datenstrom erkennen.

Ich versuchs mal zu illustrieren:
Anwendung xyz liefert folgende Daten an "0100110110011",
defekte RAM macht daraus "1000110110011" und verlassen so RAM,
ZFS bekommt IMHO von dieser Änderung überhaupt nichts davon mit,
ZFS generiert Checksum aus "1000110110011" und schreibt die Daten auf pool tank,
ZFS überprüft die Daten und Checksum auf pool tank und stellt fest, dass Checksum und geschriebene Daten "1000110110011" übereinstimmen.
Schreibvorgang ist für ZFS korrekt und abgeschlossen.

Das ist ja IMHO das ganz große Problem von einem defektem RAM. Es gibt so gut wie keine Möglichkeit einen Defekt zu erkennen, außer natürlich über spezielle Programme hierfür, wie Prime95 u.a.
Deshalb gibt es keine Alternative zu ECC RAM und so viel teurer sind die zu den Anderen auch nicht. Natürlich muss der CPU-Chipsatz und das Board auch ECC fähig sein.
Bei Intel sieht es leider bei den Desktop-CPUs schlecht aus Processors — Frequently Asked Questions, gut bei den Intel-Server-CPUs und AMd.
 
Zuletzt bearbeitet:
Hallo Ihr,

ich bin nicht der Meinung, dass....
Ich hatte da nur etwas gelesen und so verstanden. Ich vertrete ja diese Meinung nicht vehement :-)
Der RAM ist übrigens nicht defekt. Jeweils 4GB, egal aus welchen Modulen von den 4 Stück, funktionieren IMMER. Scheint also ein Boardproblem zu sein, obwohl die Bestückung nach QVL erlaubt ist.

Wir brauchen auch nicht weiter darüber zu streiten, ich werde es einfach mal testen. Ich habe da eine Testdatei, damit ließ sich der Fehler immer sofort zeigen, mal schauen, ob ZFS da anschlägt. Ich habe übrigens Monate mit RAM- und Stabilitätstests verbracht, alles ohne Erfolg.
 
Hallo Ihr,

ich bin nicht der Meinung, dass....
Ich hatte da nur etwas gelesen und so verstanden. Ich vertrete ja diese Meinung nicht vehement :-)
Der RAM ist übrigens nicht defekt. Jeweils 4GB, egal aus welchen Modulen von den 4 Stück, funktionieren IMMER. Scheint also ein Boardproblem zu sein, obwohl die Bestückung nach QVL erlaubt ist.

Wir brauchen auch nicht weiter darüber zu streiten, ich werde es einfach mal testen. Ich habe da eine Testdatei, damit ließ sich der Fehler immer sofort zeigen, mal schauen, ob ZFS da anschlägt. Ich habe übrigens Monate mit RAM- und Stabilitätstests verbracht, alles ohne Erfolg.

Aber, wenn das Board "kaputt" ist, dann wirds auch mit ZFS nicht besser funktioniern ... und auch egal welches OS du verwendest.
Wenn du weißt, dass das Mainboard bei Vollbestückung "Fehler" hat, würde ich mir mal darüber ernsthafte Gedanken machen und nicht hoffen, dass ein anderes OS besser läuft :d
 
Hallo Baldi,

Du hast mich leider total missverstanden. Ich möchte zukünftig solche Effekte auf meinen Datenbestand verhindern bzw. bemerken. Daher nutze ich dieses Board in der Vollbestückung um zu lernen und zu schauen, ob ZFS soetwas bemerken würde. Hier kann ich nämlich den Fehler beliebig Ein- und wieder Ausschalten.
Später ist der Einsatz mit Vollbestückung nicht geplant.
Ich wollte nur wissen, WO ich nachschauen muss, wenn ZFS Fehler protolliert.

Gruß und frohe Weihnachten
 
Hallo Baldi,

Du hast mich leider total missverstanden. Ich möchte zukünftig solche Effekte auf meinen Datenbestand verhindern bzw. bemerken. Daher nutze ich dieses Board in der Vollbestückung um zu lernen und zu schauen, ob ZFS soetwas bemerken würde. Hier kann ich nämlich den Fehler beliebig Ein- und wieder Ausschalten.
Später ist der Einsatz mit Vollbestückung nicht geplant.
Ich wollte nur wissen, WO ich nachschauen muss, wenn ZFS Fehler protolliert.

Gruß und frohe Weihnachten

Prüfsummen dienen zum Erkennen und Reparieren von Datenfehlern. ZFS macht das auf Ebene der Schreib/ Leseoperationen. Die Daten sind also ab dem Zeitpunkt überprüfbar, ab dem ZFS die Prüfsummen beim Schreiben der Daten hinzufügt. Das geschieht bevor die Daten zum Plattencontroller-Treiber gelangen. Die Plattenhardware und Software mit allen Treibern, Controllern, Platten und Kabeln ist daher im überprüften Bereich

ECC macht Ähnliches übrigens im RAM.

Wenn ZFS beim Lesen einen Prüfsummenfehler entdeckt, wird der wie beim scrubbing repariert und beim Auflisten des Pools mit zpool list die Anzahl der checksum-Fehler angezeigt . Bei einem einzelnen Fehler geht ZFS von einem Bitfehler/Silent-Error aus. Können einzelne Dateien aufgrund massiver Fehler nicht wiederhergestellt werden, kann man sie anzeigen lassen (Hier wird ein Backup benötigt). Ansonst sind die gelesenen Daten garantiert valide. Ein regelmäßiges Scrubbing prüft den gesamten Datenbestand.

Treten mehr Fehler auf, wird die betroffene Platte(n) als defekt markiert und der Pool geht in den degraded Status. Der Fehler muss dann manuell gelöscht werden bzw. die Platte ersetzt werden. Gibt es ein Hotfix, so wird dieses eingebunden. Das Besondere and diesen Prüfsummen ist, dass es beim Schreiben/ Lesen der tatsächlichen Daten passiert und nicht wie bei allen anderen Systemen nur Plattenintern oder auf Controllerebene.

Sind mehr Platten betroffen, als es der gewählte Raid-Level erlaubt, ist der Pool offline. Zum Beheben des Fehlers genügt ein Wechsel der defekten Hardware. Sind genügend Platten wieder verfügbar, geht der Pool wieder auf online.

Ein halb-defektes RAM kann dennoch Schreibfehler verursachen. Soll das Sicherheitsniveau auf Datenebene da gehalten werden, wird ECC-RAM benötigt. Das ist auch der Grund, warum man für ein besonders sicheres Storage-System ECC Ram nehmen sollte. Da ZFS ein Copy on Write Dateisystem ist, bei dem Datenblöcke niemals überschrieben sondern immer mit Prüfsumme neu geschrieben werden und der Zeiger auf die neuen Daten nur gesetzt wird, wenn der Schreibvorgang erfolgreich war, ist der Datenstand immer korrekt. Selbst ein Stromausfall beim Schreiben führt nur dazu dass die aktuelle Schreibaktion nicht erfolgt. Der Datenbestand ist immer valide. Jedes andere Dateisystem und Raid hat dann oft fehlerhafte Datenstrukturen. Ein üblicherweise dann notwendiger filecheck wie bei allen anderen Dateisystemen (außer irgendwannmal btrfs) ist deshalb überhaupt nicht erforderlich. Es gibt daher auch kein entsprechended Tool um fehlerhafte Dateistrukturen zu reparieren. Scrubbing prüft vor allem auf Bitfehler (silent errors=Datenrost)

Ein Hardware-Defekt kann dafür sorgen, dass aktuell geschriebene Daten fehlerhaft sind. Im allgemeinen ist aber das OS dann insgesamt betroffen und es kommt zu einem Systemabsturz.

Das Revolutionäre und Einzigartige an ZFS liegt ursächlich an der Kombination von sehr sicheren Prüfsummen auf Ebene der tatsächlichen Daten mit Copy on Write. Datensicherheit, Snapshots ohne Zeitverlust und ohne anfänglichen Platzverbrauch und viele andere feine Sachen ergeben sich daraus fast automatisch als Folge. Ergänzt wir das durch ZFS Software Raid. Damit entfällt nicht nur das write-hole Problem von Hardware-Raid, sondern ZFS hat auch alle Möglichkeiten Datenfehler auf Platten selbst zu entdecken und sofort zu reparieren.

ZFS hat aber 6 Jahre gebraucht um den jetzigen Stand zu erreichen. Es war also nicht ganz einfach in der Umsetzung.
 
Zuletzt bearbeitet:
Hi,

nur so nebenbei: der Server lief mit 8GB RAM ohne Fehler. Das ZFS hat beim Schreiben und beim Scruben nichts gemeldet, die Testdatei zeigte keine Auffälligkeiten. Die Testdatei wurde 10x aufs ZFS geschrieben und gelesen ohne Fehler. Früher trat der Fehler sofort auf, nachdem die Datei den Server passiert hat.
War damals also wohl ein Treiberproblem o.ä.

Gruß Millenniumpilot
 
hi,

vielleicht kann mir jemand einen tip geben:

ich hatte auf meinen system einen pool, den es jetzt nicht mehr gibt. wenn ich einen neuen pool mit dem selben namen erstellen will, bekomme ich die fehlermeldung, das es so einen pool bereits gibt. wenn ich versuche den zu löschen, bekomme ich den fehler, das es so einen nicht gibt??

ich habe einen smb share, ohne gast freigabe, auf den ich mit servername\root nicht draufkomme, was kann das sein?
 
hi,

vielleicht kann mir jemand einen tip geben:

ich hatte auf meinen system einen pool, den es jetzt nicht mehr gibt. wenn ich einen neuen pool mit dem selben namen erstellen will, bekomme ich die fehlermeldung, das es so einen pool bereits gibt. wenn ich versuche den zu löschen, bekomme ich den fehler, das es so einen nicht gibt??

ich habe einen smb share, ohne gast freigabe, auf den ich mit servername\root nicht draufkomme, was kann das sein?

Der pool scheint nicht importiert zusein. Gib mal zpool import poolname ein, dann müsste er wieder da sein und kann dann auch gelöscht werden.
 
Der pool scheint nicht importiert zusein. Gib mal zpool import poolname ein, dann müsste er wieder da sein und kann dann auch gelöscht werden.

den pool gab es nicht mehr auf den platten. auf jeden fall ging es nicht über das napp-it frontend, von hand im terminal konnte ich den pool mit dem namen erstellen. vielleicht hat napp-it eine gespeicherte liste mit pools die noch da sein müssten und es ging deswegen nicht?!
 
den pool gab es nicht mehr auf den platten. auf jeden fall ging es nicht über das napp-it frontend, von hand im terminal konnte ich den pool mit dem namen erstellen. vielleicht hat napp-it eine gespeicherte liste mit pools die noch da sein müssten und es ging deswegen nicht?!


Nein, napp-it speichert nichts sondern stellt lediglich eine Komfort-Schnittstelle zu den
entsprechenden CLI Befehlen dar. Auch mit napp-it kann parallel alles per CLI bearbeitet werden.

Ausnahmen:
Wenn in top-menü 'buffering' aktiviert is, merkt sich napp-it die letzten ZFS Eigenschaften, damit die Menüs
unter ZFS folder schneller aufgebaut werden. Auch für AFP speichert napp-it share-informationen - sonst nicht-
 
Ich habe wohl einen größeren Fehler gemacht. Aus Neugier habe ich mir die aktuelle Solaris 11 Version in eine neue VM installiert. Anschließend den alten Pool mit ZFS 31 importiert und auf Version 33 upgedated. Da ich nun einige Probleme mit der aktuellen Version habe, möchte ich zu SE11 zurück. Das Problem ist nun der Daten Pool der neuen ZFS Version.

Besteht die Möglichkeit in SE11 ZFS auf die neuste Version zu aktualisieren? Ein Versuch das System über die interne Softwareverwaltung zu aktualisieren schlägt leider fehl. Es erscheint die Meldung eine Live-Abbild Version wäre nicht Updatefähig.

Hat einer eine Idee?
 
hallo zusammen,
vielleicht kann mir jemand bei meinem problem weiterhelfen: ich habe einen pool von einer hardware auf eine andere umgezogen. der import lief auch und ich sehe den pool, sowie die unterordner des pools. auf die smb freigaben der komme ich auch drauf, aber nicht in darin enthaltenen unterordner, wegen berechtigungs problemen. in der freigabe kann ich neue ordner erstellen und verwenden. im terminal sieht das so aus:
root@oi151a5:/tank/winshare# ls -al
total 259
drwxrwxrwx+ 8 root root 8 Jan 8 09:33 .
drwxr-xr-x+ 4 root root 5 Jan 7 21:41 ..
drwxr-x--- 2 root sys 3 Jan 8 09:33 .$EXTEND
drwx------+ 5 2147483650 2147483653 5 Jan 5 19:12 adminsoft
drwx------+ 2 2147483649 2147483650 2 Jan 8 09:33 atest
drwx------+ 7 2147483650 2147483653 7 Jan 5 20:55 audio
drwx------+103 2147483650 2147483653 748 Jan 6 12:55 download
drwx------+ 2 2147483649 2147483650 2 Jan 8 09:29 test

die ordner adminsoft, audio und download sind die auf die ich nicht mehr zugreiffen kann. mir sagen auch diese zahlen nichts die hinter den berechtigungen.

hat jemand einen tip was ich machen kann?
 
drwx------+ 5 2147483650 2147483653 5 Jan 5 19:12 adminsoft ???

drwx------+ bedeutet, dass nur der Eigentümer mit der userid 2147483650 (oder root, der darf immer) Zugriff hat
das + bedeutet, dass zusätzlich noch ACL gesetzt sind

2147483650 ist die unix user-id
2147483653 ist die unix group id

Wichtig für SMB/CIFS sind aber nur die ACL (verstecken sich hinter dem +), da der CIFS-Server genau wie Windows ACL only ist.


Also entweder:
- per cli Rechte neu setzen (entweder unix 777 für Vollzugriff oder ACL)
- als root per smb anmelden und Eigentümer bzw Rechte neu setzen (everyone@=full oder entsprechende user)
- per napp-it acl-extension Rechte neu setzen (everyone@=full oder entsprechende user)
 
Ich habe wohl einen größeren Fehler gemacht. Aus Neugier habe ich mir die aktuelle Solaris 11 Version in eine neue VM installiert. Anschließend den alten Pool mit ZFS 31 importiert und auf Version 33 upgedated. Da ich nun einige Probleme mit der aktuellen Version habe, möchte ich zu SE11 zurück. Das Problem ist nun der Daten Pool der neuen ZFS Version.

Besteht die Möglichkeit in SE11 ZFS auf die neuste Version zu aktualisieren? Ein Versuch das System über die interne Softwareverwaltung zu aktualisieren schlägt leider fehl. Es erscheint die Meldung eine Live-Abbild Version wäre nicht Updatefähig.

Hat einer eine Idee?

Nö, so einfach wirds nicht. Mit zfs send/receive kannst du in einen neuen "alten" Pool mit V31 kopieren, auf der selben Maschine oder einer anderen übers Netz. Aber vielleicht schreibst du mal, was du für Probs mit S11 hast, vielleicht ist es einfacher die zu lösen?

cu
 
Ich habe mir damit beholfen das ich alle ZFS Folder auf einen Backup Rechner kopiere und anschließend wieder alles zurück auf die neue Solaris 11 Express Maschine.

Bei Solaris 11 hatte ich folgende Probleme:

1. Keine VMware Tools, somit keine VMXNET3 Netzwerkkarte. Komme nur auf einen Durchsatz von ca. 40 MB. Unter SE11 kam ich mit VMXNET3 auf über 100MB.

2. Bei einer Änderung der SMB Share Berechtigung über Napp-It, schmierte immer der SMB Dienst ab und ließ sich erst nach mehrmaligen Versuchen wieder neustarten.

3. Die Energiespareinstellungen funktionieren nicht (Disk SpinDown bei 12 Platten nicht unerheblich).

4. Netzwerkeinstellungen (StaticIP) funktioniert nicht über Napp-It.

Eine Frage noch zu SE11, wie kann ich die MTU von standardmäßig 9000 bei VMXNET3 auf 1500 setzen?
 
AFP bzw. CIFS Rechte

Ich habe eine Frage zum Thema Lese-/Schreibrechte bei CIFS und AFP Shares.

Auf meiner Solaris 11 Express Storage habe ich einen CIFS-Share mit SMB-SHARE-all = full_set und PERM = 777. Zusätzlich habe ich auf dem gleichen Share eine AFP-Freigabe eingerichtet. Die Mac-user greifen nun auf Dokumente mit AFP zu und die Windows User mit CIFS. Nun gibt es immer wieder Konflikte das Dateien die in der AFP-Welt erzeugt/geändert wurden unter Windows mit CIFS nicht änderbar oder löschbar sind. Bei Verzeichnisse ist das Verhalten anders als bei Dateien. Macht mein Setup überhaupt Sinn? Oder muss ich auf AFP verzichten wenn ich auch windows-user zulassen möchte? AFP bietet beim MAC einfach Vorteile und ist auch schneller als die CIFS-Implementierung von Mac OS X.
 
Hallo,

weil ich es gerade lese, Zugriff auf ein Share mit CIFS und AFP parallel: mein Openindiana ist Member einer Windows-Domäne, die ACLs auf die Shares werden vom Windows aus gesetzt.

AFP greift mit anderen Credentials zu, mit einem lokalen Openindiana-User, anders geht es laut Hilfe noch nicht. Die Credentials werden akzepiert, trotzdem bleibt die Fileliste leer.

Stören hier die ACLs?

Edit: misst, ja die ACLs stören ;-) Solarisrechte stehen auf 700, wenn man alles über ACLs regelt.
Ein Parallelzugriff mit CFIS und AFP wird also so nicht möglich sein.
 
Zuletzt bearbeitet:
Hi,

beim Aufsetzen eines neuen ZFS Servers bekomme beim Zugriff auf das Powermanagement ich in NappIt eine Fehlermeldung.

Code:
admin.pl: Bareword found where operator expected at (eval 2) line 1, near "Power" [Tue Jan 10 21:05:36 2012] admin.pl: (Missing operator before Power?) [Tue Jan 10 21:05:36 2012] admin.pl: Can't find string terminator " [Tue Jan 10 21:05:36 2012] admin.pl: EoF" anywhere before EOF at (eval 2) line 3.

Bei der Test Maschine handelt es sich um folgende Hardware:

Intel Xeon L5630
Intel SB5500WB
6 x Samsung 500G
Solaris 11 Express
NappIt 0.6p

Idee?
 
Solaris 11 unterstützt die bisherigen Power-Management Einstellungen nicht mehr
Die obige Fehlermeldung ist ein Bug in der Meldung, dass Solaris 11 noch nicht unterstützt wird.

Um das Menü von OpenIndiana zu erhalten (geht auch noch mit S11 Express):
Ordner "/var/web-gui/data/napp-it/zfsos/03_system and network/08_Power Mgmt==sol_/" löschen
Ordner "/var/web-gui/data/napp-it/zfsos/03_system and network/08_Power Mgmt==ill_/" umbenennen in
"/var/web-gui/data/napp-it/zfsos/03_system and network/08_Power Mgmt/"

Das Menü wird dann generell angezeigt
(Fixed in napp-it 0.6q)

Bitte beachten: Solaris 11 Express ist nicht mehr verfügbar. Oracle liefert und pflegt nur Solaris 11
Die Express war nur eine beta-Preview auf das jetzige Solaris 11
 
Zuletzt bearbeitet:
Solaris 11 unterstützt die bisherigen Power-Management Einstellungen nicht mehr
Die obige Fehlermeldung ist ein Bug in der Meldung, dass Solaris 11 noch nicht unterstützt wird.

Um das Menü von OpenIndiana zu erhalten (geht auch noch mit S11 Express):
Ordner "/var/web-gui/data/napp-it/zfsos/03_system and network/08_Power Mgmt==sol_/" löschen
Ordner "/var/web-gui/data/napp-it/zfsos/03_system and network/08_Power Mgmt==ill_/" umbenennen in
"/var/web-gui/data/napp-it/zfsos/03_system and network/08_Power Mgmt/"

Das Menü wird dann generell angezeigt
(Fixed in napp-it 0.6q)

Bitte beachten: Solaris 11 Express ist nicht mehr verfügbar. Oracle liefert und pflegt nur Solaris 11
Die Express war nur eine beta-Preview auf das jetzige Solaris 11

Danke Dir, hat Super funktioniert.

---------- Post added at 20:46 ---------- Previous post was at 20:43 ----------

Habe eben noch gesehen, dass in der Power.conf die letzte Disk zweimal hintereinander aufgelistet wird:

Code:
...
device-thresholds         /dev/dsk/c7t5d0     300s 
device-thresholds         /dev/dsk/c7t6d0c7t6d0     300s
 
Habe eben noch gesehen, dass in der Power.conf die letzte Disk zweimal hintereinander aufgelistet wird:

Code:
...
device-thresholds         /dev/dsk/c7t5d0     300s 
device-thresholds         /dev/dsk/c7t6d0c7t6d0     300s

nach 0.6q kommt 0.6r
da wird das dann auch gefixt
 
Hallo,

ich möchte dem Einen oder Anderen User, der per CIFS, mit dem NAS verbunden ist, in den Zugangszeiten einschränken.

Als Beispiel:
User A Zugang Mo-Fr 16:00-20:00 Uhr und Sa-So 12:00-22:00 Uhr auf gesamte NAS gestattet, restliche Zeiten kein Zugang erlaubt.
User B Zugang Mo-Fr 08:00-16:00 Uhr auf pool/daten/*, für die restlichen Folder solls keine Einschränkung geben.

Jetzt hab ich mir gedacht, dass ich die Datei /etc/smbpasswd für User A "mißbrauchen" könnte und per cron-job (/etc/cron.d/cron.allow) diese Datei entsprechend kopiere, meine wenn Zugang erlaubt sein soll, beinhaltet smbpasswd dem User sein Passwort, bei Verweigerung wird die smbpasswd ohne User A Passwort kopiert. Nun die Datei cron.allow gibts bei mir nicht im System und "crontab -l" zeigt auf /var/web-gui/data/napp-it/_log/crontab.txt.

Aber irgendwie denke ich, dass Dies keine saubere Lösung ist.
Wie ich User B umsetze, hab ich gar keinen Plan.

Wer kann mir weiterhelfen und hat eine Lösung oder mindestens einen Lösungsansatz?
 
Wenn sich die Benutzer zuerst an einem Active Directory anmelden müssen geht das über das ActiveDirectory selber.
 
Hallo,

ich möchte dem Einen oder Anderen User, der per CIFS, mit dem NAS verbunden ist, in den Zugangszeiten einschränken.

Als Beispiel:
User A Zugang Mo-Fr 16:00-20:00 Uhr und Sa-So 12:00-22:00 Uhr auf gesamte NAS gestattet, restliche Zeiten kein Zugang erlaubt.
User B Zugang Mo-Fr 08:00-16:00 Uhr auf pool/daten/*, für die restlichen Folder solls keine Einschränkung geben.

Jetzt hab ich mir gedacht, dass ich die Datei /etc/smbpasswd für User A "mißbrauchen" könnte und per cron-job (/etc/cron.d/cron.allow) diese Datei entsprechend kopiere, meine wenn Zugang erlaubt sein soll, beinhaltet smbpasswd dem User sein Passwort, bei Verweigerung wird die smbpasswd ohne User A Passwort kopiert. Nun die Datei cron.allow gibts bei mir nicht im System und "crontab -l" zeigt auf /var/web-gui/data/napp-it/_log/crontab.txt.

Aber irgendwie denke ich, dass Dies keine saubere Lösung ist.
Wie ich User B umsetze, hab ich gar keinen Plan.

Wer kann mir weiterhelfen und hat eine Lösung oder mindestens einen Lösungsansatz?

Eine wirklich saubere Lösung wird schwierig sein.
Für den generellen Zugriff wäre ein Internet-Router/ Firewall eine saubere Lösung. Die haben zumindest basierend auf der IP sowas eingebaut. Für den zweiten Fall mit den verschiedenen Ordnern gäbe es die Lösung z.B. per con zu den entsprechenden Zeiten ein shell-script zu starten, das die share-level ACL-Rechte entsprechend setzt und den SMB Dienst dann neu startet,
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh