Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Berücksichtigt ZFS eigentlich Smart-Stati von Devices? Sprich, was passiert wenn Smart "failed" ausgibt, die SSD aber durchaus noch funktioniert?
Beispiel: Die Samsung Enterprise-SSDs geben bereits "failed" aus, wenn die Powerloss-Kondensatoren ausgefallen sind, der Rest aber normal funktioniert.
Ja, komme aber weder mit http://192.168.178.79:81 als auch https://192.168.178.79:82 auf das Interface. Ich kann mich nur erinnern, dass ich ein Update von 16 auf 17 eingespielt vor ein paar Tagen. Habe danach nicht mehr getestet, weil die Shares funktioniert haben.Das OS läuft auch ohne napp-it (Ist ja nur fürs Management)
wurde denn http://192.168.178.79:81 eingegeben ?
napp-it läuft auf Port 81 mit http oder Port 82 mit https
Das OS läuft auch ohne napp-it (Ist ja nur fürs Management)
wurde denn http://192.168.178.79:81 eingegeben ?
napp-it läuft auf Port 81 mit http oder Port 82 mit https
Ja, komme aber weder mit http://192.168.178.79:81 als auch https://192.168.178.79:82 auf das Interface. Ich kann mich nur erinnern, dass ich ein Update von 16 auf 17 eingespielt vor ein paar Tagen. Habe danach nicht mehr getestet, weil die Shares funktioniert haben.
Gibts noch irgendeine Möglichkeit anstatt napp-it neu aufzusetzen??
Auf der Consoler kann man napp-it via /etc/init.d/napp-it restart starten/neu starten. Eventuell kommt da eine hilfreiche Fehlermeldung. Ansonst einfach den Online Installer via wget neu starten. Eventuelle Einstellungen bleiben erhalten.
Habe keine Fehlermeldung bekommen, aber nach wget ging es wieder problemlos!
Vielen Dank!!!
- Sowohl PM/SM863 als auch PM/SM883 unterstützen Trim, sofern es das OS tut. FreeBSD ZFS tut es. ZoL (und damit Proxmox) bin ich nicht auf dem aktuellen Stand. Trim kann übrigens auch nachteilig sein, denn es erhöht die Latenzen.
ZFS has detected an io error:
eid: 35
class: io
host: backup
time: 2019-04-10 03:00:27+0200
vtype: disk
vpath: /dev/mapper/ld-ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3VPFXRY
vguid: 0x8720E9A41BE42EB0
cksum: 0
read: 0
write: 0
pool: backup
ld-ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2UARD0K ONLINE 0 0 48
ld-ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3VPFXRY ONLINE 0 0 44
Bei mir lag es damals an fehlerhafter Firmware für den HBA (die frühen Versionen der LSI Firmware v20 hatten Fehler, die mit der 20.0.0.7 (?) dann ausgemerzt waren). Firmware-Update und Kabel wechseln wären wohl die schnellsten und einfachsten Maßnahmen.Suche ich hier nach einem Problem den Platten selbst oder ehr Controler oder Kabel?
Hallo Zusammen,
ich muss zugeben ich bin noch recht neu am Solaris 11 testen. Hatte nur gesehen, es gab wohl Probleme ursprünglich mit dem Broadcom SAS 9305-24i .
Hat denn zwischenzeitlich schon jemand erfolgreich HDDs über den Broadcom SAS 9305-24i an das Solaris 11 (läuft im ESXi) durchgereicht?
Würde mit dem geanken spielen mir den Controller anzuschaffen sollte es mittlerweile funktionieren.
Bzw. gibt es denn alternativ ähnliche SAS Controller die mit Solaris 11 (im ESXI) laufen?
Danke für eure Infos.
Grüße
Elektromat
Mein letzter Wissenstand war, dass es zumindest ohne Subscription/neuere Builds nicht geht.
Unter ESXi geht allenfalls RDM einzelner Platten.
Ich würde den BroadCom 9300 nehmen, gibts halt nicht mit 24 Port. Da brauchts mehrere oder einen Expander (am Besten dann mit SAS Platten).
Hab den 9305-24i in einem X11Spi-TF mit Xeon Silver (siehe Signatur).
PCIe-Passthrough des ganzen Controllers an Solaris (11.3 / 11.4) funktionierte bei mir leider nicht. Passthrough der einzelnen Platten funktioniert unauffällig und hab ich jetzt seit einigen Monaten so im Betrieb ohne Probleme.