Server primär als NAS Ersatz (VMware oder Proxmox)

Die Erweiterung um eine SSD als Cache klingt vielversprechend. Eine Opane 900P ist mir aber zu overdone/teuer. Was wäre eine gute SSD und wie gross sollte diese dimensioniert sein?

Wie kann ich mit Boardmitteln die Platten einzeln testen?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine SSD als Lesecache (L2ARC) um den schnelleren RAM-Cache zu erweitern muss nicht so hochwertig sein (Sollte aber schneller als das Netzwerk sein, bei AiO also 6G). Von der Größe ca 5x RAM, höchstens 10x RAM. Ich glaube aber nicht dass es bei 16GB RAM spürbar was bringt.

Wenn man sicheres Syncwrite braucht (damit der Inhalt des RAM-SDchreibcaches beim Crash nicht verlorengeht) so kann man eine SSD/NVMe als Slog einsetzen. Die muss aber deutlich schneller sein als die kombinierte Schreibleistung des Pools und Powerloss Protection bieten. In der Vor-Optane Zeit war eine Intel DC 3700 der Klassiker. Eventuell in der Bucht nach einer gebrauchten suchen.

Da ein Slog nur den Schreibcache puffern muss (10% RAM, default 4GB) ist die Mindestgröße 2 x Schreibcache. 8 GB würden damit reichen. Das beste Slog bis vor kurzem war eine rambasierte ZeusRAM mit 8GB.

Einzelplatten testen=je Platte ein Pool
 
Zuletzt bearbeitet:
Dann ist es vielleicht besser mehr RAM zur Verfügugn zu stellen ...

Ich habe jetzt alle 6 Platten zu einem Pool zusammengefasst. Kann ich jeweils eine Platte aus dem Pool nehmen um dort testweise ein eigenes Pool anzulegen - ohne Daten zu verlieren? Wenn ja, wie wäre die richtige Prozedur? Ich frage desshalb, weil das doch ein wenig heikel scheint.
 
Aus dem Raid würde ich keine Platte einfach herausziehen.
Man könnte allenfalls eine Platte per Disks > Replace ersetzen und die freie dann testen.

Da aber die Poolperformance ok ist würde ich allenfalls auf gleichmäßige Last achten. Wenn eine Platte aber Fehler zeigt (auch Smart) wäre es schon gut eine Reserveplatte zu haben um einzelne Platten intensiv zu testen.
 
Ersatzplatte ist bestellt. Wie teste ich die Platten am besten?

Wie kann ich einen Job z. B. "cp -R ..." im Hintergrund ausführen? Mit "nohob" oder "disown" funktioniert es nicht.
 
Mit einem & am Ende schickst du den Job in den Hintergrund. Wird aber beendet, wenn du die shell beendest.
Wenn verfügbar würde ich screen nutzen.
 
1.
data lifeguard oder hdat2

2.
Wenn der Job unabhängig vom User mit & laufen soll, dann shellscript via at now aufrufen
 
Ich habe jetzt einen "Long Smart Test" über die verdächtige Platte laufen lassen. Das Loz zeigt jetzt folgende Werte, wobei ich nicht weiß, ob es sich um das aktuelle Log handel - da ist kein Datum ersichtlich. Kann man aus dem Log etwas ableiten?

Code:
smartctl 6.6 2017-11-05 r4594 [i386-pc-solaris2.11] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Interrupted (host reset)      90%       456         -
# 2  Short offline       Interrupted (host reset)      10%       381         -
# 3  Short offline       Interrupted (host reset)      10%       379         -
# 4  Short offline       Interrupted (host reset)      90%       379         -
# 5  Short offline       Interrupted (host reset)      10%       378         -
# 6  Short offline       Interrupted (host reset)      50%       378         -
# 7  Short offline       Interrupted (host reset)      70%       374         -
# 8  Short offline       Interrupted (host reset)      30%       374         -
# 9  Extended offline    Interrupted (host reset)      90%       373         -
#10  Short offline       Interrupted (host reset)      70%       364         -
#11  Short offline       Interrupted (host reset)      80%       364         -
#12  Short offline       Interrupted (host reset)      40%       364         -
#13  Short offline       Interrupted (host reset)      40%       364         -
#14  Short offline       Interrupted (host reset)      10%       364         -
#15  Short offline       Interrupted (host reset)      90%       363         -
#16  Short offline       Interrupted (host reset)      20%       363         -


/usr/sbin/smartctl -l error -d sat,12 -T permissive /dev/rdsk/c0t5000C500A4D16F17d0s0
   

   

   
smartctl 6.6 2017-11-05 r4594 [i386-pc-solaris2.11] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Error Log Version: 1
ATA Error Count: 64 (device log contains only the most recent five errors)
	CR = Command Register [HEX]
	FR = Features Register [HEX]
	SC = Sector Count Register [HEX]
	SN = Sector Number Register [HEX]
	CL = Cylinder Low Register [HEX]
	CH = Cylinder High Register [HEX]
	DH = Device/Head Register [HEX]
	DC = Device Command Register [HEX]
	ER = Error register [HEX]
	ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 64 occurred at disk power-on lifetime: 411 hours (17 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 c8 0c ad 05  Error: UNC at LBA = 0x05ad0cc8 = 95227080

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 38 21 00 40 00   1d+03:31:27.148  READ FPDMA QUEUED
  60 00 00 88 0c ad 45 00   1d+03:31:24.191  READ FPDMA QUEUED
  60 00 00 28 e5 ac 45 00   1d+03:31:24.191  READ FPDMA QUEUED
  60 00 00 88 0e ad 45 00   1d+03:31:24.190  READ FPDMA QUEUED
  e5 00 00 00 00 00 00 00   1d+03:31:24.167  CHECK POWER MODE

Error 63 occurred at disk power-on lifetime: 411 hours (17 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 c8 0c ad 05  Error: UNC at LBA = 0x05ad0cc8 = 95227080

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 38 21 00 40 00   1d+03:31:21.136  READ FPDMA QUEUED
  60 00 00 88 0c ad 45 00   1d+03:31:21.136  READ FPDMA QUEUED
  60 00 00 88 0d ad 45 00   1d+03:31:21.077  READ FPDMA QUEUED
  ef 10 02 00 00 00 00 00   1d+03:31:20.838  SET FEATURES [Enable SATA feature]
  ef 02 00 00 00 00 00 00   1d+03:31:20.838  SET FEATURES [Enable write cache]

Error 62 occurred at disk power-on lifetime: 411 hours (17 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 c8 0c ad 05  Error: UNC at LBA = 0x05ad0cc8 = 95227080

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 00 88 0d ad 45 00   1d+03:31:17.766  READ FPDMA QUEUED
  60 00 00 88 0c ad 45 00   1d+03:31:14.799  READ FPDMA QUEUED
  2f 00 01 10 00 00 00 00   1d+03:31:14.749  READ LOG EXT
  60 00 08 38 21 00 40 00   1d+03:31:14.749  READ FPDMA QUEUED
  61 00 20 58 24 65 49 00   1d+03:31:14.749  WRITE FPDMA QUEUED

Error 61 occurred at disk power-on lifetime: 411 hours (17 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 c8 0c ad 05  Error: UNC at LBA = 0x05ad0cc8 = 95227080

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 38 21 00 40 00   1d+03:31:14.749  READ FPDMA QUEUED
  61 00 20 58 24 65 49 00   1d+03:31:14.749  WRITE FPDMA QUEUED
  60 00 00 88 0e ad 45 00   1d+03:31:14.749  READ FPDMA QUEUED
  60 00 00 88 0d ad 45 00   1d+03:31:11.845  READ FPDMA QUEUED
  60 00 00 88 01 ad 45 00   1d+03:31:11.604  READ FPDMA QUEUED

Error 60 occurred at disk power-on lifetime: 180 hours (7 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 d8 85 5f 04  Error: UNC at LBA = 0x045f85d8 = 73369048

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 c0 50 85 5f 44 00   2d+21:46:03.237  READ FPDMA QUEUED
  e5 00 00 00 00 00 00 00   2d+21:46:03.237  CHECK POWER MODE
  2f 00 01 10 00 00 00 00   2d+21:46:03.162  READ LOG EXT
  60 00 c0 50 85 5f 44 00   2d+21:46:00.498  READ FPDMA QUEUED
  ef 10 02 00 00 00 00 00   2d+21:46:00.261  SET FEATURES [Enable SATA feature]
 
Nützt alles nichts.
Ein intensiver Plattentest z.B. mit WD Data Lifeguard ist jetzt angesagt.
Je nach Ergebnis kann man dann die Platte weiterbenutzen oder austauschen.
 
Alles klar! Ersatzplatte ist bereits da. Werde die Platte mal am WE testen.
 
Wie gehe ich richtig vor um die Platte zu entfernen?

1. Platten - Hotswap - Platte offline setzen
2. Platten - Entfernen

3. Soll ich dann das System runterfahren, die Platte ausbauen testen und wieder einsetzen bzw. ersetzen?

4. Platten - hinzufügen
5. Platten - Hotswap - online setzen

So wäre es logisch für mich. Richtige Vorgangsweise? Möchte mir das Filesystem nicht zerschießen ...
 
Mit aktueller hotplug Hardware und wenn man eine Backplane/ Wechselrahmen hat

- Neue Platte einfach hot einstecken, wird nach ein paar Sekunden erkannt
- Defekte Platte mit neuer ersetzen (Disks > replace)
- Defekte Platte hot herausziehen

Kein Problem für ZFS
 
Hat besten funktioniert! Danke! Defekte Platte ersetzt! Jetzt dürfte alles prima laufen!
 
Nachdem nun alles soweit funktioniert stellt sich die Frage wie ich ein sinnvolles Backup Konzept aufsetze.

1) Alle Clients/Notebooks sichern wöchtenlich per Hardlink Backup auf ein Share meiner Solaris/napp-it Installation. Das getht automatisch und funktioniert auch einwandfrei.

2) Die VM's und die ESXi Konfig sichere ich manuell auf eine in ESXi eingebundene HDD. Damit wäre die Wiederherstellung recht einfach. Hier wäre die Automatisierung noch eine Heraussforderung.

3) Bei den Daten an sich tue ich mir da schon etwas schwerer.
Geplant habe ich, dass die Shares mit den "wichtigen" Daten, die auch laufend verändert werden täglich/wöchentlich/monatlich auf eine externe, trennbar HDD gesichert werden - evtl. unterschiedliche Backupsätze.
Auf einer HDD in einem Wechelschacht der über den HBA eingebunden ist habe ich ein Pool "backup" erstellt. Die Sicherung könnte automatisch wir rsync erfolgen. Da das Filesystem des Backupmediums jedoch dann auch ZFS ist, wäre das Problem, die Daten im Falle des Falles mit einem anderen System z. B. Windows auszulesen.
Die weniger wichtigen Daten würde ich ebenfalls mittels rsync auf eine USB HDD sichern, diesen Job würde eine VM mit debian übernehmen.

Macht das Sinn? Gibt es bessere Lösung (die gibt es immer)?
Wie sichere ich vernünftig die Settings von Solaris/napp-it?

Danke!
 
Nappit hat eine integrierte Backup-Funktion. Die sichert das dann auf einem beliebigen (?) Datenpool weg.

Den Vorbehalt, die Daten mit Windows auslesen zu können, hatte ich auch erst. Aber am Ende ist das nicht nötig: Solaris + nappit ist so schnell auf einem anderen System installiert, dass man das bzw. den Zeitverlust ausblenden kann. Vor allem überwiegen die Vorteile eines Backups per ZFS-Replikation und Snapshots bei weitem. Und einen backup-Repli-Job kannst du glaub auch mit der nappit free Edition anlegen - nur für Systemübergreifende Replikation über Appliances brauchst Du eine andere Lizenz.
 
OK! Die Funktion ist mir nicht aufgefallen. Ich werde mit das mal anschauen. Wichtig wäre für mich mehrere Backupsätze und/oder Versioning, und das Ganze automatisch.
Das Konzept mit den Snapshot habe ich noch nicht ganz verstanden ... mal nachlesen ...
 
Zuletzt bearbeitet:
Hallo nochmals!

Das System läuft jetzt schon einige Zeit recht problemlos - die defekte Platte wurde getauscht!

Einige Fragen beschäftigen mich jedoch!

1) Ich habe jetzt eine Woche nicht auf das WebIF gesehen, jetzt ist mir aufgefallen, dass die Symbole oben rechts Pool, Cap, Disk ... gar nichts anzeigen - beim Draufzeigen z. B. "Pool state: logfile too old (745 s). Was hat das zu bedeuten? Normal waren die Symbole immer grün - was mich beruhigt hat.

2) Es gelingt mir einfach nicht, dass mir napp-it eine Status eMail schickt. Weder verschlüsselt noch unverschlüsselt. Das Job Protokoll zeigt jedoch den erfolgreichen Versand. Spam gecheckt!

Danke!
 
Zuletzt bearbeitet:
1. einfach mal einloggen und eventuell "Mon" aus + an anklicken

2. verschlüsselte Mails gehen nur über den TLS Standardport 587 z.B. für Gmail
Unverschlüsselte Mails werden von vielen Providern nicht mehr angenommen.
 
1) Hat geklappt, danke! Lässt sich das dauerhaft einstellen?

2) Ich bekomms nicht hin! "Test TLS-Mail" via gmail funktioniert, aber das Ding schickt mir keine Status Mails!
 
Noch ein paar Fragen zur Rechteverwaltung ... das ist mir noch nicht ganz klar.

1) Ich habe bei der Samba Freigabe bei allen Shaes "abe" gewählt. Wenn ich das richtig verstehe, sollten User die keinen Zugriff auf das Share haben, dieses auch gar nicht sehen - klappt aber nicht!

2) Ich habe die Berechtigungen mittels Windows 10 Pro Computerverwaltung festgelegt.

Aktion > Verbindung mit anderem Computer herstellen > STORAGE

Unter System/Freigebene Ordner/Freigaben sehen ich dann auch alle Shares

Wenn ich dann ein Share z.B. Public auswähle, kann ich unter "Freigabeberechtigungen" keinen User hinzufügen (Fehler bei der Suche nach anzuzeigenden Benutzername) - überall steht "Jeder" mit Vollzugriff drinnen.

Unter "Sicherheit" kann ich User auswählen und hinzufügen. Wenn ich allerdings die Eigenschaften von "public" schliessen möchte bekomme ich die Fehlermeldung "Die änderungen konnten nicht gespeichert werden. Zugriff verweigert" - die Änderungen wurden trotzdem gespeichert.

Das schaut für mich nicht wirklich rund aus! Mache ich das etwas falsch? Gibt es eine andere Möglichkeit der Rechte Verwaltung?

Die Pro Version könnte die Verwaltung direkt in napp-it. Wäre das sinnvoll? Für meine Home-User Anwendung wahrscheinlich total overdone ...

Danke vorab!
 
Zu Status Mail
Ist denn Jobs > Auto Service aktiviert, unter About Settings die Maildaten eingetragen und wurde dann der Status-Job erzeugt?

1.
Abe versteckt keine Shares, die sind immer sichtbar

2.
Computer Management ist Windows. Da muss der Benutzer der sich per SMB verbindet auf der Zielmaschine in der SMB Gruppe Administratoren sein. Unix arbeitet da anders. Da hat root immer alle Rechte auch wenn man das nicht explizit angibt.

Alternativ zu Computermagament und Share Permission kann man mit Dateirechten arbeiten. Das macht man am einfachsten per SMB als Root und dann Ordner > Eigenschaft > Sicherheit.

Je nach OS (OmniOS, OI, Solaris ) und OS Version bzw Windows Client kann es Probleme geben
Windows Home geht meist nicht

Mit Windows Pro und Windows Domäne klapp Dateirechte setzen praktisch immer
Mit Windows Pro und Zugriff per \\ip kann es Probleme machen, per \\hostname klappt es meist

Die ACL Extension habe ich geschrieben um Rechte dann direkt unter napp-it zu setzen. Auch kann die Extension mit Deny Regeln umgehen, das macht Probleme aus Windows. Alternativ geht es per Consoler und /usr/bin/chmod

Using ACLs to Protect Oracle Solaris ZFS Files - Oracle Solaris ZFS Administration Guide
 
1) Status Mail funktioniert jetzt. Hab's einfach in dieser Reihenfolge neu angelegt.

2) Ich habe jetzt die Berechtigungen für die Shares mittels dem ACL Tool von napp-it angelegt - diese sind dort auch sichtbar.

Allerdings habe ich die Berechtigungen unter ACL of SMB Share angelegt - ACL of Folder habe ich root/full_set und everyone@/full_set gesetzt. Ist das so korrekt oder sollten die Rechte gleich sein - oder umgekehrt?

Unter Windows/Computerverwaltung sehe ich die Freigaben jetzt unter "Freigabeberechtigungen" und nicht unter "Sicherheit". Sorry, aber der Unterschied ist mir nicht ganz klar.

3) Wie kann ich einem externen User Zugriff auf ein Share geben?

Zum Netzwerk des externen Users besteht eine IPsec Verbindungen die auch funktioniert. Ich habe in napp-it einen User "Harald" angelegt. Einem Share habe ich Harald eine "read_set" Berechtigung gegeben, jedoch klappt der Zugriff aus Windows nicht. Auf Shares mit der Berechtigung "everyone@" klappt es.
 
Zuletzt bearbeitet:
Hi, ich bin mal so frei und klinke mich mit meiner Frage in den Thread hier ein, da esquire1968 und ich Hardwaremässig fast das gleiche Setup haben ^^. Habe mir um unter Napp-IT das Disk-Location nutzen zu können, das SAS3IRCU Tool runtergeladen und auch in dem entsprechenden Ordner kopiert. NappIt zeigt mir unter Disklocation soweit auch alles an. Habe jedoch gesehen das mir auf der Konsole folgender Fehler/Warnung ausgegeben wird.

FW Upload tce invalid!
scsi: WARNING: /pci@0,0/pci15ad,7a0@15/pci15d9,808@0(mpt_sas0)

Frage: Woran liegts? Mainboard ist ein X11SSL_CF mit LSI3008 Controller, der läuft im IT-Mode mit der neuesten Firmware 15.00.03.00.

Vielen Dank schonmal
 
1)
Allerdings habe ich die Berechtigungen unter ACL of SMB Share angelegt - ACL of Folder habe ich root/full_set und everyone@/full_set gesetzt. Ist das so korrekt oder sollten die Rechte gleich sein - oder umgekehrt?

Ich habe mich mit der ACL-Erweiterung von napp-it bisher nicht auseinander gesetzt, aber aufgrund der Begrifflichkeiten würde ich sagen: umgekehrt.

Üblicherweise setzt man die Berechtigung des Shares selbst auf "everyone" mit Vollzugriff und regelt dann die Zugriffsrechte dann über "Sicherheit" auf Datei-/Folderebene. Dazu wie von gea beschrieben von einem (Windows-)Rechner, der noch keine Shares auf dem Server verbunden hat mit den Benutzer "root" als Netzlaufwerk verbinden und die Rechte unter "Properties/Security" entsprechend setzen.
 
Oder in der Hosts einen temporären Eintrag machen, dann kann man mit diesem temporären Hostname nochmal mit root verbinden und alles einstellen.
Sonst stimme ich negotatior zu: Share everyone und Rechtevergabe über Sicherheit.
 
1) Status Mail funktioniert jetzt. Hab's einfach in dieser Reihenfolge neu angelegt.

2) Ich habe jetzt die Berechtigungen für die Shares mittels dem ACL Tool von napp-it angelegt - diese sind dort auch sichtbar.

Allerdings habe ich die Berechtigungen unter ACL of SMB Share angelegt - ACL of Folder habe ich root/full_set und everyone@/full_set gesetzt. Ist das so korrekt oder sollten die Rechte gleich sein - oder umgekehrt?

Unter Windows/Computerverwaltung sehe ich die Freigaben jetzt unter "Freigabeberechtigungen" und nicht unter "Sicherheit". Sorry, aber der Unterschied ist mir nicht ganz klar.

3) Wie kann ich einem externen User Zugriff auf ein Share geben?

Zum Netzwerk des externen Users besteht eine IPsec Verbindungen die auch funktioniert. Ich habe in napp-it einen User "Harald" angelegt. Einem Share habe ich Harald eine "read_set" Berechtigung gegeben, jedoch klappt der Zugriff aus Windows nicht. Auf Shares mit der Berechtigung "everyone@" klappt es.

2.
Share Level Rechte
ist sowas wie der Haustürschlüssel in einem Mehrfamilienhaus.
Wer den nicht hat, der kommt nicht ins Haus auch wenn er Wohnungsschlüssel (Dateirechte) hat.

Um in eine Wohnung zu gelangen, braucht man beide Rechte. Ins Haus (Sharerechte) und in die Wohnung (Ordner/Dateirechte)

3. Um einen Ordner/ Share zu öffnen braucht am Ausführrecht (execute).
Man braucht also mindestens das read-x Rechte-Set

- - - Updated - - -

Hi, ich bin mal so frei und klinke mich mit meiner Frage in den Thread hier ein, da esquire1968 und ich Hardwaremässig fast das gleiche Setup haben ^^. Habe mir um unter Napp-IT das Disk-Location nutzen zu können, das SAS3IRCU Tool runtergeladen und auch in dem entsprechenden Ordner kopiert. NappIt zeigt mir unter Disklocation soweit auch alles an. Habe jedoch gesehen das mir auf der Konsole folgender Fehler/Warnung ausgegeben wird.

FW Upload tce invalid!
scsi: WARNING: /pci@0,0/pci15ad,7a0@15/pci15d9,808@0(mpt_sas0)

Frage: Woran liegts? Mainboard ist ein X11SSL_CF mit LSI3008 Controller, der läuft im IT-Mode mit der neuesten Firmware 15.00.03.00.

Vielen Dank schonmal

Ich habe das auch habs aber (bisher) ignoriert und habe das auch mit der neuesten Firmware. (Hab gerade einen geflasht und dabei mein Howto upgedated, http://www.napp-it.org/doc/downloads/flash_lsi_sas.pdf )

Hintergrund
BroadCom bietet das aktuelle sas3ircu nur für Solaris an. Das läuft nicht unter OmniOS. Man kann jetzt ein älteres sas3ircu z.B. v1 aus der LSI Zeit nehmen oder die Patchfunktion von napp-it nutzen damit das aktuelle sas3ircu unter OmniOS läuft (Disks > Disk Location > patch sas3ircu) Die Consolemeldung schiebe ich darauf.

Die Situation ist natürlich wenig befriedigend. Immerhin ist das Tool hilfreich um in einer Backplane den Slot zu finden ohne alles aufzuschreiben.
 
@gea, Vielen Dank für die Info, da bin ich dann soweit beruhigt.

Hab allerdings noch ne Frage zu den MailService. Hab nach der Anleitung hier: napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : Downloads TLS installiert, allerdings erhalte ich bei Test TLS Mail folgende Fehlermeldung:

Couldn't send TO <>: 555 5.5.2 Syntax error. v9sm2792779wre.96 - gsmtp at /var/web-gui/data/napp-it/zfsos/15_Jobs and data services/04_TLS Email/09_TLS-test/action.pl line 93.

Lief da bei der Installation was falsch?
 
Bei einer Testmail müssen alle Felder (mailserver, name, pw, mailto) ausgefüllt werden.
Der Fehler kommt, wenn in mailto nichts angegeben wurde
 
Leider bekomme ich folgenden Fehler beim Replizieren auf ein anderes Share:

Betreff: *** napp-it Alert *** on storage
-disk errors: none

---------
Job Alert
---------
Active Job 1521488955 error:
error; time: 2018.03.27.08.45.02 line: 2113; my_log end 1551: error, source filesystem tank/Shared not found.
Check filesystems and group membership, opt delete newest target snap if second new is available.


Was kann das sein? Das Filesystem tank/Shared gibt es ganz sicher.

Die Ferhlermedlung tritt bei allen Sync Jobs auf!

In der Beschreibung zu Replication steht ...
... or include all intermediary snapshots and close (-l) ... With -l you may need to destroy intermediate snacps manually on replication problems!

Das bedeutet, ich muss alle Snapshot manuell löschen bevor ich replieziere?

Es ist mir auch aufgefallen, dass das Sytem selbtständig Snapshots erstellt hat, hat das damit zu tun?

Wie wäre die richtige Vorgangweise für Snapshots und Replikation?

Danke vorab!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh