[Sammelthread] ZFS Stammtisch

Edit: Gibts eigentlich ne Lösung für de Syncwriteperformanceprobleme von SMB abgesehen von iSCSI?

Es gibt keine Syncwriteperformanceprobleme von SMB weil SMB kein Sync write benutzt - ausser man erzwingt das. Das würde aber keinerlei Sicherheitsgewinn bringen.

Bei iSCSI sieht das ganz anders aus. Wenn man darauf ein altes Dateisystem legt, dann ist sync (writebackcache=off) schon sinnvoll.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Lösungen heissen

- sync ausschalten und damit eine gewisse Unsicherheit, ob die Dateistruktur eines Gastes beim Absturz beschädigt wird. Für professionelle Nutzung keine Option, für ein Home oder Lab-Setup durchaus tragbar da man ja eh immer ein Disasterbackup hat.

- sync aktivieren (onpool ZIL)
Die Schreib-Performance sinkt. Bei einem guten SSD Pool nur minimal, bei einem langsamen Plattenpool bis auf 1/10

- sync aktivieren (am Besten mit gutem Slog device z.B. Intel S3700 oder P750)
Die Schreib-Perfomance sinkt auf cirka die Slog Performance
 
Ich bin auf der Suche nach einer Hardwarekonfiguration für den Heimgebrauch. Mein alter Homeserver läuft nun seit über 5 Jahren problemlos im 24/7 Betrieb im Keller. Es ist ein PC mit Towergehäuse und 5 2TB Platten und uralt Opensolaris. Da ich nicht so viel Erfahrung mit PC Hardware habe und keinen rechten Überblick über die aktuellen Trends, würde ich mich über eine Empfehlung freuen:

Ich möchte ein neues System aufbauen mit einer Boot SSD und 6 x 4TB Platten WD Red Pro. Die Platten habe ich bereits beschafft. Ich bin etwas ratlos was das Gehäuse, Motherboard und Controller angeht. Da ich den Homeserver in den nächsten Jahren wieder 24/7 betreiben möchte, ist eine geringe Energieaufnahme und hohe Qualität für mich wichtiger als geringe Anschaffungskosten. Als Betriebssystem werde ich Solaris 11.3 oder die kommende stable von OmniOS verwenden, ich benötige unbedingt SMB 2.x.

Würde mich über ein paar Tipps freuen.
 
Zuletzt bearbeitet:
Prinzipiell wäre ideal:

Etwas mit einem Servermainboard (C.. Chipsatz), IPMI Fernwartung und Sockel 1151 oder 2011R3
Dazu mindestens 4 besser 8 GB ECC RAM. CPU ist nicht so kritisch ausser man braucht nicht nur Storage sondern möchte auch virtualisieren, dann RAM 16-32GB oder mehr und schnellere CPU.

Wenn 6 Sata Ports nicht reichen, dann idealerweise einen LSI HBA ohne Raid (SAS 3008, IT Mode) dazupacken. Bei Neukauf gibts auch die Überlegung gleich 10G Ethernet zu nehmen, da der Aufpreis bei Onboard Lösungen geringer ist.

Hersteller von Mainboards: Asrock und SuperMicro, je nach Ausstattung, Onboardoptionen und Boardgröße (uATX ist meist am Günstigsten, ab ca 150 Euro, mit HBA und 10G ab ca 400 Euro)

ASRock Rack > Products
Super Micro Computer, Inc. - Products | Motherboards | Xeon

Als Case entweder was mit 19" (Intertech etc) oder ein Tower z.B. Fractal Design Define XL R2 mit genügend Einbauoptionen für Platten.
 
Zuletzt bearbeitet:
Vielen Dank. Ich habe zu Hause eine 1G Ethernet Infrastruktur und nehme an, dass die 10G Karten abwärtskompatibel sind, oder?
Muss man den IT Mode bei SAS 3008 flaschen oder ist das eine Funktion bzw. Option?
 
10G Ethernet ist abwärts kompatibel. Allerdings müssen halt auch alle Beteiligen Geräte 10Gbe unterstützen, damit eine 10G-Verbindung zustande kommt (Server, Switch und Client).
Zum flashen: kommt drauf an, es gibt RAID-Controller und HBA mit dem Chip. Die RAID-adapter müssen geflasht werden, die HBAs kommen bereits mit der passenen Firmware.
 
Muss man den IT Mode bei SAS 3008 flaschen oder ist das eine Funktion bzw. Option?

Es ist leider nicht ganz einheitlich.
Die SAS Controller mit dem 2008/2308 (6G SAS) oder 3008 Chip (12G SAS) werden alle als HBA bezeichnet
Host Bus Adapters (HBAs)

Teilweise werden sie mit IR Firmware (Raid-1/10), teilweise mit IT Firmware (kein Raid, ideal für Softwareraid) ausgeliefert,

Wenn die Firmware nicht passt, kann man umflashen, Firmware gibts entweder von Avago oder SuperMicro ftp://ftp.supermicro.com/driver/SAS/LSI/3008/Firmware/
 
Zuletzt bearbeitet:
Alternativ gibts halt noch ne PCI-E-SSD. Langen 128GB? Möglichst wichtig für ein Slog-device dürften doch durchsatz und writeiops sein, oder?

Ein Slog muss ca 10s Schreiben puffern. Dazu reichen wenige GB. Das wohl schnellste Slogdevice, ein ZeusRAM hat z.B. 8 GB und das reicht noch bis 10G Netzwerk.

Wichtig sind geringste Latenzen, konstant hohe Schreib-iops und Powerloss Protection.
 
Ein Slog muss ca 10s Schreiben puffern. Dazu reichen wenige GB. Das wohl schnellste Slogdevice, ein ZeusRAM hat z.B. 8 GB und das reicht noch bis 10G Netzwerk.

Wichtig sind geringste Latenzen, konstant hohe Schreib-iops und Powerloss Protection.

Was sind denn die billigsten, empfehlenswerten Optionen (ZeusRAM kostet ja etwas über 1900€ im EK, das ist als Student nicht drinnen)
 
Die billigste Option ist der Verzicht auf sync-write und Snaps/ Backups.
Das ist dann ähnlich wie sonstiges Softwareraid oder Hardwareraid ohne BBU und aktiviertem Schreibcache und ntfs oder ext4 (Problem hängt jeweils von der Größe des Schreibcaches und der Netzperformance ab - bei ZFS können ohne sync bis zu 5s verloren gehen).

Klar, ZFS kann das besser mit sync write. Die billigsten Lösungen sind üblicherweise eine kleinere Intel S3700 als Slog (gibts eventuell gebraucht, eventuell auch als Partition).

Künftig wirds bei mir wohl vermehrt SSD only Storage mit SSDs wie z.B. Intel S3610 oder besser. Damit brauchts dann kein separates Slog mehr. Ein Mirror damit reicht ja schon oft aus.
 
Zuletzt bearbeitet:
Da mein HBA heute angekommen ist, werd ich mich morgen mal hinsetzen und alles neu aufsetzen. Hab mich jetzt für Napp It entschieden, da dort die Integration von Snapshots in Windows etwas besser umgesetzt ist. Gibts irgendwelche Wichtigen Features in Anpp-it, die in der Free_Version nicht umgesetzt sind, die ich eventuell übersehen habe? http://www.napp-it.org/doc/downloads/napp-in-one.pdf beihaltet ja eigentlich alles notwendige.
 
Zuletzt bearbeitet:
Für einen Single All-In-One Server ist in den freien Versionen von ESXi und napp-it alles drin was wichtig ist.
 
Was sind denn die billigsten, empfehlenswerten Optionen (ZeusRAM kostet ja etwas über 1900€ im EK, das ist als Student nicht drinnen)

"Behelfsweise" kann man sich eine USV anschaffen und etwas scripten, damit bei einem Stromausfall das Dataset auf sync gesetz wird, ansonsten aber async läuft. Dann pokert man nur, dass das OS nie crasht. :)
 
USV ist sowieso vorhanden. Die ist sogar deutlich überdimensioniert, so 2H Stützlast sind kein Problem.
 
Nabend zusammen, ich lese schon ein paar Tage mit und will mich nun auch an ZFS per ESXI + NappIT versuchen. Durch Eure Empfehlungen ist ein LSI 9211-8i auf dem Weg zu mir den ich dann flashen will.
Jetzt ist mein rechner der HP ML10v2 mit Platz für max. 7 x 3,5" HDD.
Für den Anfang würden mir 16 TB netto reichen, also als RZ1 oder RZ2 macht das ja 5-6 HDD. Kann man später die 7. noch zu einem bestehenden Pool hinzufügen um die Kapazität zu erweitern? Also so wie es oft auch andere Software-Raids machen? Oder müsste ich dann komplett neu aufbauen? Ich frage, weil ich nichts dagegen hätte den Strom der 6. bzw. 7. HDD vorerst zu sparen.

DeDUP verstehe ich doch so, dass es mir nur was bringen würden, wenn die gleiche Datei an mehreren Stellen liegen würde, oder? Was also bei mir dann eher nicht sinnvoll wäre. Bei den Snapshots wird ja denke ich wenn nur die Differenz weiter gespeichert um Platz zu sparen, oder?

Was würdet Ihr unter dem Gesichtspunkt an RAM zuweisen? Aktuell sind 20GB verbaut und ich würde 10-12GB für die VM´s nehmen wollen. Also max. 8GB für NappIT.
Danke für Eure Hilfe.
 
Bei ZFS speichert man Daten in einem Datenpool. Der kann ohne praktisch erreichbare Grenzen endlos wachsen. Ein Pool besteht dabei aus vdevs, das sind üblicherweise Raid-Arrays wie Raid-1 oder Raid-Z. Erweitert wird der Pool um weitere vdevs. Damit wächst die Kapazität und die Performance gleichermassen. Der Heimwunsch einen Pool aus einem Raid-Z vdev mit 6 Platten auf 7 Platten zu erweitern, war nicht im Pflichtenheft von Sun bei der Entwicklung von Solaris und ZFS. Da ging es eher darum Hunderte Platten und Petabytes zu beherrschen. Man kann allenfalls alle Platten eines vdevs durch größere ersetzen um dessen Kapazität zu steigern.

ZFS Dedup ist Echtzeit Dedup. Es arbeitet auf Datenblockebene, nicht filebasiert. Braucht damit sehr viel RAM und ist daher nur in Sonderfällen (kleiner, sehr schneller und teurer Pool) sinnvoll. Snaps belegen ab Erzeugung nur den Platz der anschliessend geänderten Datenblöcke. Eigentlich belegen sie keinen Speicher, sondern geben den früheren Zustand nicht frei nachdem ein geänderter Datenblock neu geschrieben wurde (CopyOnWrite Dateisystem).

Solaris und Forks laufen als 64bit OS ohne Dedup ab 1-2 GB RAM. Mit 8 GB hat man schon etwas RAM als Lesecache für eine gute Performance. Das ist ok.
 
Zuletzt bearbeitet:
Vielen Dank für Deine Erläuterung. Da habe ich also alle Begrifflichkeit noch nicht richtig drauf ;) Finde es übrigens toll, was Du hier für einen "Support" machst.
 
Prinzipiell wäre ideal:

...

Hersteller von Mainboards: Asrock und SuperMicro, je nach Ausstattung, Onboardoptionen und Boardgröße (uATX ist meist am Günstigsten, ab ca 150 Euro, mit HBA und 10G ab ca 400 Euro)

Ich habe heute ein Aasrock Board EPC612D4U-2T8R bestellt. In den kommenden Tagen werde ich einige Konfigurationen testen. Neben napp-it-one mit ESX und virtualized ZFS möchte ich auch nativ Solaris 11.3 und die aktuelle Bloody von OmniOS testen. Gibt es da Erfahrungen mit dem Board? Kann man für napp-it-one den OnBoard HBA LSI 3008 auch per Pass-Through durchreichen oder geht das nur mit externen Karten?
 
Ich habe heute ein Aasrock Board EPC612D4U-2T8R bestellt. In den kommenden Tagen werde ich einige Konfigurationen testen. Neben napp-it-one mit ESX und virtualized ZFS möchte ich auch nativ Solaris 11.3 und die aktuelle Bloody von OmniOS testen. Gibt es da Erfahrungen mit dem Board? Kann man für napp-it-one den OnBoard HBA LSI 3008 auch per Pass-Through durchreichen oder geht das nur mit externen Karten?

Sollte klappen. Angebunden ist der genauso über pci-e.
 
Guten Tag, ich bin ein ZFS Neuling und finde keine
klare Antwort zu folgendem Thema:

Benötige ich eine GPT oder MBR Initialisierung
bei allen Platten (egal ob rpool, daten-pool,...) ?

Ich habe gehört, dass nur Platten für den rpool (boot),
im Gegensatz zu normalen Daten-Pools, eine GPT Initialisierung benötigen !?!?

Muss man die Platten auch richtig formatieren mit einem Filesystem?
Ich bin der Meinung nein, da ZFS selber ein FS ist, aber viele schreiben
von "Solaris2"-Formatierung ???? Brauche ich das nur, wenn ich ZFS nicht die
ganze Platten-kapazität geben möchte sondern nur eine Partiton?
Sprich, wenn ich die komplette Platte an ZFS geben möchte, brauche ich das nicht ???

(1) Es wäre schön wenn jemand Licht ins Dunkel rund um MBR,GPT,Solaris2 & Co bei
rpool und datenpool bringen könnte.
(2) Und wie man neue Platten jeweils vorbereitet sollte bevor man
sie für ZFS nutzt (zB fdisk, format, ...) ?

Gruß
 
Ich würde gerne noch einmal auf mein Posting oben zurück kommen:

Da ich meinen Pool gerne dauerhaft und frei von Fehlermeldungen betreiben möchte, habe ich also meine "alte" als defekt aussortierte WD Red Platte mal mit dem WD Tool lowlevel formatiert und das Tool behauptet, keine Fehler gefunden zu haben.

Hinzu kommt, dass auch die neue Platte ja im Pool Fehler erzeugt hat. SATA-Kabeltausch brachte auch nichts, so dass ich jetzt mal einen anderen Port am Mainboard genommen habe.

Im Napp-it Errorlog habe ich außerdem ziemlich viele folgende Fehler gefunden:
Feb 04 16:59:55.6211 ereport.io.scsi.cmd.disk.tran
Feb 04 17:00:03.9730 ereport.io.scsi.cmd.disk.tran
Feb 04 17:00:12.7094 ereport.io.scsi.cmd.disk.tran
Feb 04 17:00:20.9535 ereport.io.scsi.cmd.disk.tran
Feb 04 17:00:29.1310 ereport.io.scsi.cmd.disk.tran
Feb 04 17:00:44.9838 ereport.io.scsi.cmd.disk.tran
Feb 05 00:00:15.3036 ereport.io.scsi.cmd.disk.tran
Feb 05 00:00:58.8910 ereport.io.scsi.cmd.disk.tran
Feb 05 00:01:09.2352 ereport.io.scsi.cmd.disk.tran
Feb 05 04:27:37.3055 ereport.io.scsi.cmd.disk.tran
Feb 05 04:27:54.9216 ereport.io.scsi.cmd.disk.tran
Feb 05 04:28:17.0652 ereport.io.scsi.cmd.disk.tran
Feb 08 08:00:06.0378 ereport.io.scsi.cmd.disk.tran
Feb 08 08:01:12.8155 ereport.io.scsi.cmd.disk.tran
Feb 09 03:07:44.4598 ereport.io.scsi.cmd.disk.tran
Feb 09 05:33:47.4208 ereport.io.scsi.cmd.disk.tran
...

Die 4 WD Disks hängen übrigens am Onboard-SATA-Controller. 4 andere Disks hängen an einem LSI 9211er - bei denen hatte ich bisher noch keine Fehlermeldungen.

Bin mal gespannt, ob der Scrub jetzt fehlerfrei durch läuft...
 
Guten Tag, ich bin ein ZFS Neuling und finde keine
klare Antwort zu folgendem Thema:

Benötige ich eine GPT oder MBR Initialisierung
bei allen Platten (egal ob rpool, daten-pool,...) ?

Ich habe gehört, dass nur Platten für den rpool (boot),
im Gegensatz zu normalen Daten-Pools, eine GPT Initialisierung benötigen !?!?

Muss man die Platten auch richtig formatieren mit einem Filesystem?
Ich bin der Meinung nein, da ZFS selber ein FS ist, aber viele schreiben
von "Solaris2"-Formatierung ???? Brauche ich das nur, wenn ich ZFS nicht die
ganze Platten-kapazität geben möchte sondern nur eine Partiton?
Sprich, wenn ich die komplette Platte an ZFS geben möchte, brauche ich das nicht ???

(1) Es wäre schön wenn jemand Licht ins Dunkel rund um MBR,GPT,Solaris2 & Co bei
rpool und datenpool bringen könnte.
(2) Und wie man neue Platten jeweils vorbereitet sollte bevor man
sie für ZFS nutzt (zB fdisk, format, ...) ?

Gruß

Zu den Details, Partitionen oder Slices kann man einiges bei Oracle nachlesen
z.B. https://docs.oracle.com/cd/E36784_01/html/E36834/gnwky.html#scrolltoc

Im Prinzip sieht es aber so aus, das man sich nur darum kümmern muss, wenn man spezielle Partitionierungen benötigt, z.B. für mehrere OS auf einer Platte oder mehrere Partitionen z.B. als L2Arc und Zil

Ansonsten muss man lediglich folgendes beachten
1. Man braucht eine Systemplatte < 2TB, idealerweise eine SSD ca 50GB
Bei der Installation "benutze die ganze Platte/ use whole disk" wählen.

2. Datenplatten für Pools muss man nicht vorbereiten. einfach nutzen und daraus vdevs bauen.
ZFS macht das schon. Lediglich wenn eine neue Platte gar nicht erkannt wird, einmal irgendwie mit irgendas initialisieren.

Ausnahme
Wenn man auf einer Platte einen Pool angelegt hatte und den nicht zerstört hatte, weigert sich ZFS die anders zu nutzen da es erkennt dass sie Teil eines ZFS Pools ist. Dann muss man die Platte initialisieren oder mit einem Fremdsystem z.B. ntfs formatieren damit ZFS die wieder nimmt.

- - - Updated - - -

Die 4 WD Disks hängen übrigens am Onboard-SATA-Controller. 4 andere Disks hängen an einem LSI 9211er - bei denen hatte ich bisher noch keine Fehlermeldungen.

Bin mal gespannt, ob der Scrub jetzt fehlerfrei durch läuft...

Das "Gemeine" an ZFS is ja, dass es durch die Prüfsummen alle Probleme in der Kette Disk-Treiber > Platte erkennt. Wenn das WD Low Level Tool keinen Fehler erkennt ist ein Plattenproblem nicht ausgeschlossen aber eher unwahrscheinlich, bleiben Kabel, Power oder Controllerprobleme.

Ich würde jetzt auch die Konfiguration variieren wenn man im Errorlog oder Faultlog nichts eindeutiges findet. Entweder ist der Fehler weg (gelöst), er bleibt (das wars nicht) oder das Problem wandert (Problem gefunden)
 
Vielen Dank für Deine Erläuterung. Da habe ich also alle Begrifflichkeit noch nicht richtig drauf ;) Finde es übrigens toll, was Du hier für einen "Support" machst.
I endorse and/or support this message/product.
Da kann ich mich auch nur anschließen! Habe mir letzlich eine Napp-it PRO Lizenz Complete noncommercial home zugelegt. :-)

Da kann ich nur voll zustimmen. @gea hilft seit Jahren Jedem hier immer weiter.
Als sozusagen kleines Dankeschön, hatte ich bereit 2012 und dann nochmals 2014 mir jeweils eine Napp-it Pro Lizenz gekauft.
 
Ich würde jetzt auch die Konfiguration variieren wenn man im Errorlog oder Faultlog nichts eindeutiges findet. Entweder ist der Fehler weg (gelöst), er bleibt (das wars nicht) oder das Problem wandert (Problem gefunden)

Tjo, der Scrub hat immer noch zu den blau hervorgehobenen "Beanstandungen" unter "IOstat mess" geführt. Ich werde jetzt wohl als nächstes mal den Pool testweise an einen LSI hängen. Danach wäre die Stromversorgung dran...

@gea du geschätzter Guru.. ;)
Sagt Dir Folgendes aus dem Log etwas? Der Fehler ist schonmal von Port 2 (Feb 9) mit meinem Umstöpseln des Sata-Kabels jetzt auf Port 1 (Feb 11) gewandert

Feb 9 05:33:39 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Feb 9 05:33:39 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Feb 9 05:33:39 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4041
Feb 9 05:33:39 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Feb 9 05:33:43 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Feb 9 05:33:43 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Feb 9 05:33:43 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4041
Feb 9 05:33:43 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Feb 9 05:33:47 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Feb 9 05:33:47 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Feb 9 05:33:47 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4041
Feb 9 05:33:47 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Feb 9 05:33:52 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Feb 9 05:33:52 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Feb 9 05:33:52 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4041
Feb 9 05:33:52 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Feb 9 05:33:56 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Feb 9 05:33:56 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Feb 9 05:33:56 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4041
Feb 9 05:33:56 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Feb 9 05:34:03 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Feb 9 05:34:03 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Feb 9 05:34:03 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4041
Feb 9 05:34:03 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Feb 9 05:34:23 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Feb 9 05:34:23 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Feb 9 05:34:23 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4041
Feb 9 05:34:23 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed

Feb 11 02:17:07 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 1 has task file error
Feb 11 02:17:07 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 1 is trying to do error recovery
Feb 11 02:17:07 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 1 task_file_status = 0x4041
Feb 11 02:17:07 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 1 succeed
Feb 11 02:17:43 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 1 has task file error
Feb 11 02:17:43 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 1 is trying to do error recovery
Feb 11 02:17:43 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 1 task_file_status = 0x4041
Feb 11 02:17:43 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 1 succeed
Feb 11 02:17:49 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 1 has task file error
Feb 11 02:17:49 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 1 is trying to do error recovery
Feb 11 02:17:49 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 1 task_file_status = 0x4041
Feb 11 02:17:49 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 1 succeed
Feb 11 02:17:55 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 1 has task file error
Feb 11 02:17:55 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 1 is trying to do error recovery
Feb 11 02:17:55 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 1 task_file_status = 0x4041
Feb 11 02:17:55 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 1 succeed
Feb 11 02:52:27 Solaris smbd[602]: [ID 648024 daemon.notice] [10.10.10.10] krbssp: authentication error detected (GSS minor error): Unknown error
Feb 11 03:27:01 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 1 has task file error
Feb 11 03:27:01 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 1 is trying to do error recovery
Feb 11 03:27:01 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 1 task_file_status = 0x4041
Feb 11 03:27:01 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 1 succeed
Feb 11 03:27:04 Solaris ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 1 has task file error
Feb 11 03:27:04 Solaris ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 1 is trying to do error recovery
Feb 11 03:27:04 Solaris ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 1 task_file_status = 0x4041
Feb 11 03:27:04 Solaris ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 1 succeed

Zum letzten Zeitstempel vom 11. Februar passt auch die Meldung aus dem "Errorlog":
Feb 11 03:27:04.6993 ereport.io.scsi.cmd.disk.tran

Dazu habe ich unter Faults-->"Important" alle 30 Sekunden folgende Blöcke:
Feb 11 15:44:10.6139 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6200 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6255 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6307 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6354 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6392 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6418 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6445 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6468 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:10.6493 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_static_start
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_static_end
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_send_targets_start
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_send_targets_end
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_slp_start
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_slp_end
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_isns_start
Feb 11 15:44:40.6653 resource.sysevent.EC_iSCSI.ESC_isns_end
Feb 11 15:44:40.6713 resource.sysevent.EC_devinfo.ESC_devinfo_devlinksync

Da steige ich da nicht durch... ;) Ganz normal ist das jedenfalls nicht, in meiner Backup-Kiste sind die vergleichsweise nahezu leer. Zwar hab ich dort unter "Important" auch zig "devlinksync" Einträge, aber ohne die "ISCSI_[...]end/start" Einträge...
 
Das Problem wandert also mit der Platte. Es gibt jetzt noch die Optionen
- Stromversorung ist die Ursache
- Platte hat immer ein Problem
- Sata oder Sata in Kombination mit der Platte ist das Problem

Ich würde den Stromanschluss wechseln und dann die Platte an den 9211 hängen.
Wenn Sie da auch zickt, ist sie das Problem ansonsten was in Kombination mit Sata

Man kann auch noch ein zpool status aufrufen.
Wenn das Listing bei der Platte eine deutliche Verzögerung zeigt, kann das auch ein Anzeichen für einen Defekt sein der nicht zu einem Totalausfall sonden zu Problemen oder Hängern führt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh