[Sammelthread] ZFS Stammtisch

Ich mache meine Backups im Wechsel auf zwei externe USB-3 Festplatten die unter ZFS laufen, was bisher auch über ein Jahr lang ohne Probleme lief.
Heute morgen bekam ich nun eine Warnmeldung, dass die Bakup Platte Checksum Fehler hätte. Ich habe daraufhin sofort einen Scrub gestartet der nun durch ist.
Die Ausgabe zeigt folgendes:

Code:
zpool status backup-usb-2 -v
  pool: backup-usb-2
 state: ONLINE
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://zfsonlinux.org/msg/ZFS-8000-8A
  scan: scrub repaired 0 in 4h3m with 2 errors on Mon May 22 14:26:14 2017
config:

        NAME                                        STATE     READ WRITE CKSUM
        backup-usb-2                                ONLINE       0     0     6
          ata-WDC_WD30EZRX-00D8PB0_WD-WCC4N7JUZJCL  ONLINE       0     0    22

errors: Permanent errors have been detected in the following files:

        backup-usb-2/pve:<0xe>

Mir ist nun allerdigs nicht ganz klar, was eigentlich jetzt beschädigt ist? Denn es wird ja nur das Dataset "/pve" angezeigt mit dem Zusatz "<0xe>".
Was bedeutet das genau? Bzw. was ist zu tun?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Repairing Damaged Data - Oracle Solaris ZFS Administration Guide

If the object number to a file path cannot be successfully translated, either due to an error or because the object doesn't have a real file path associated with it, as is the case for a dnode_t, then the dataset name followed by the object's number is displayed. For example: monkey/dnode:<0x0>

ZFS stellt einen Fehler im Dateisystem pve fest ohne dass die Dateien angegeben werden können, die es betrifft - vermutlich weil mehr als ein Fehler aufgetreten ist. Ich würde die Platte mit einem WD Low-Level Tool z.B. Data Lifeguard unter Windows testen. Wenn der keine Fehler meldet oder solche repariert, dann das Backup erneut versuchen.
 
Im Moment dürfte OmniOS 151022 und OpenIndiana 2017.04 ziemlich identisch sein. Beide bieten aktuelle Illumos Builds. OmniOS hat halt zusätzlich schon LX Container falls man das braucht.

Ich hoffe, dass kritische Bugs in OmniOS noch gefixt werden. Das sollte machbar sein. Insofern hat man dann eine stabile Lösung für die nächste Zeit. Die nächste LTS Version würde ja auch erst in zwei Jahren anstehen.

Ein Wechsel zu OpenIndiana wäre möglich. Durch das rollierende Entwicklermodell hätte man aber bei jedem Update den neuesten Illumos Build. Das kann Bugfixes und mehr Features bedeuten, eventuell aber auch Inkompatibilitäten. Eingefrorende stable/LTS Repositories bei denen Bugs rückwirkend gefixt werden ist/war ja das Schöne an OmniOS.

Ich glaube aber nicht, dass es einen eigenständigen Nachfolger auf Basis der jetzigen OmniOS 151023 bloody als Community Version geben wird. Die Community ist einfach zu klein um parallel zwei nahezu identische Distributionen zu pflegen. Ich erwarte und hoffe dass es darauf hinausläuft, dass das etablierte Community Projekt OpenIndiana die Rolle von OmniOS übernimmt. Dann müsste man lediglich stable/LTS Repositories auf Basis der halbjährigen Snapshots anbieten und man hätte das was OmniOS ausmacht ohne den vollen Aufwand einer eigenständigen Distribution mit größerer Community, Support, Packaging, Distribution, Wiki etc.

Ich selber werde bei meinen kritischen Maschinen noch bei OmniOS bleiben. Wenn ich neues ausprobiere, werde ich das aber eher mit OpenIndiana machen.

Danke für Deine Einschätzung.
 
Repairing Damaged Data - Oracle Solaris ZFS Administration Guide

If the object number to a file path cannot be successfully translated, either due to an error or because the object doesn't have a real file path associated with it, as is the case for a dnode_t, then the dataset name followed by the object's number is displayed. For example: monkey/dnode:<0x0>

ZFS stellt einen Fehler im Dateisystem pve fest ohne dass die Dateien angegeben werden können, die es betrifft - vermutlich weil mehr als ein Fehler aufgetreten ist. Ich würde die Platte mit einem WD Low-Level Tool z.B. Data Lifeguard unter Windows testen. Wenn der keine Fehler meldet oder solche repariert, dann das Backup erneut versuchen.

Ich hab nun heute die Platte mit dem "Data Lifeguard" von WD durchlaufen lassen. Aber sowohl der Quick- als auch der Long-Test zeigten keinerlei Fehler!?
Aber worher kann dann sowas kommen?
 
Man kann in der Regel davon ausgehen, dass die Daten im RAM ok sind.
Die werden dann mit Prüfsummen versehen, an den USB Treiber, den USB Controller, über das Kabel an den USB-Sata Wandler und an die Platte gegeben. Beim Lesen dann alles andersrum.

In der Kette ist jetzt was schiefgelaufen und "dummerweise" merkt ZFS das. Eventuell ist auch die Stromversorgung das Problem. Wenn die andere Platte keine Probleme zeigt, müsste man jetzt die beteiligten Komponenten in erster Linie Kabel, Power oder den USB > Sata Wandler verdächtigen.
 
>>Man kann in der Regel davon ausgehen, dass die Daten im RAM ok sind.
-> ECC RAM hab ich zumindest mal

Ich zieh eigentlich nur an der Einen das USB- & Strom-Kabel ab und stecks bei der Anderen an.

Ich frage mich momentan nur, ob das Backup auf dieser Platte jetzt überhaupt noch valide ist?
Denn ich weiss ja gar nicht welche Dateien betroffen sind vom dem Fehler wenn der mir nix anzeigt.
 
Weiß jemand ob OmniOS mittlerweile damit klar kommt wenn man die OS Platte an einen anderen Port am selben Controller hängt? Das ging "damals" nicht meine ich sondern das OS hat immer nur gebootet wenn das Medium an dem Anschluss hängt an dem es auch installiert wurde.

Mal ganz nebenbei kann mir einer folgendes erklären: Ich habe hier einen Microserver N36L. Eines morgens war er im Fehlermode, orange Power LED leuchtet. Wollte starten aber es tat sich nichts, außer dass es komisch roch.
Dann auseinander gebaut und einen Kurzschluss gefunden: Habe über ein kurzes Adapterkabel eine SSD angeschlossen also Molex auf Sata Strom umgesetzt über ein entsprechendes Adapterkabel.
Das Adapterkabel hat wohl geschmort. Ausgebaut und Durchgangsprüfer drangehalten: Gelbe Ader und Schwarze haben Kontakt. Es hat die SSD auch etwas in Mitleidenschaft gezogen, mit einem Tuch konnte ich sie aber wieder reinigen. Sie läuft auch noch völlig problemlos und war wohl nicht die Fehlerursache.

Finde es merkwürdig, der Microserver stand in einem Rack auf einem Regalboden und son Adapterkabel fängt einfach mal über Nacht an zu schmoren? Es ist auch alles isoliert gewesen, das Gehäuse ist zwar aus Metall von innen, aber das erzeugte kein Kurzschluss. Selbst jetzt gibt es am verschmorten Adapterkabel keine "offenen" Stellen, der einzige Fehler ist das Gelb und Schwarz nun Durchgang haben.
Jemand ne Erklärung?
 
Zuletzt bearbeitet:
>>Man kann in der Regel davon ausgehen, dass die Daten im RAM ok sind.
-> ECC RAM hab ich zumindest mal

Ich zieh eigentlich nur an der Einen das USB- & Strom-Kabel ab und stecks bei der Anderen an.

Ich frage mich momentan nur, ob das Backup auf dieser Platte jetzt überhaupt noch valide ist?
Denn ich weiss ja gar nicht welche Dateien betroffen sind vom dem Fehler wenn der mir nix anzeigt.

Normalerweise kann ZFS bei einem Prüfsummenfehler in einem Dateiblock die zugehörigen Dateinamen ermitteln und anzeigen. Es liegt hier wohl daran, dass mehrere Fehler gefunden wurden (22). Ist in dem Fall dann so, dass das ganze Dateisystem als korrupt anzusehen ist.

Prüfsummenfehler entstehen durch silent errors auf der Platte (Datenrost) oder durch Fehler in der Übertragungskette beim Schreiben/Lesen. Ohne ECC können auch RAM Fehler die Ursache sein. Ein Check der Prüfsummen (ZFS Scrub) kann die sicher entdecken. Hätte man ein Backup Mirror oder würde mit copies=2 arbeiten, könnten die auch repariert werden sofern nicht beide Kopien betroffen sind (Metadaten sind bei ZFS immer doppelt vorhanden)

- - - Updated - - -

Weiß jemand ob OmniOS mittlerweile damit klar kommt wenn man die OS Platte an einen anderen Port am selben Controller hängt? Das ging "damals" nicht meine ich sondern das OS hat immer nur gebootet wenn das Medium an dem Anschluss hängt an dem es auch installiert wurde.
?

Ich habe es mit dem neuen Loader noch nicht getestet.
Ich würde aber davon ausgehen das gebootet wird wenn man im Bios die gewünschte Bootplatte einstellt.

2.
Vermutlich hat eine kleine Vibration aus einem Fast Kurzschluss einen echten gemacht.
 
Normalerweise kann ZFS bei einem Prüfsummenfehler in einem Dateiblock die zugehörigen Dateinamen ermitteln und anzeigen. Es liegt hier wohl daran, dass mehrere Fehler gefunden wurden (22). Ist in dem Fall dann so, dass das ganze Dateisystem als korrupt anzusehen ist.

Prüfsummenfehler entstehen durch silent errors auf der Platte (Datenrost) oder durch Fehler in der Übertragungskette beim Schreiben/Lesen. Ohne ECC können auch RAM Fehler die Ursache sein. Ein Check der Prüfsummen (ZFS Scrub) kann die sicher entdecken. Hätte man ein Backup Mirror oder würde mit copies=2 arbeiten, könnten die auch repariert werden sofern nicht beide Kopien betroffen sind (Metadaten sind bei ZFS immer doppelt vorhanden)

Den Scrup hatte ich ja schon gemacht. Soll ich nun alle Dateien im Dataset "/pve" löschen und einfach weiter machen? Also einfach neue Backups rein kopieren lassen? Oder muss ich das Dataset löschen und neu anlegen?

Und bzgl. dem nicht anzeigen der betroffenen Dateien: War da nicht auch mal was mit dem Thema gelöschte Dateien? Ich meinte da mal was gelesen zu haben, dass wenn Dateien mittlerweile gelöscht sind auch so eine kryptische Anzeige kommt bei betroffene Dateien.
 
Die Objektnummer erscheint auch wenn die zugehörige Datei zwischenzeitlich gelöscht wurde und die Poolfehler noch nicht gelöscht wurden. Ist was denn so gelaufen? Prinzipiell könnte man ein zpool clear machen, dann neue Backups reinkopieren.

Die Anzahl der Fehler macht mich halt stutzig.
Ich würde da ein Fragezeichen hinmachen und die Platte häufiger per Scrub prüfen.
 
Ich habe ein Problem nach dem Kopieren von ZFS Dateisystemen von einem Pool auf einen anderen.
Ausgangslage ist ein Pool angelegt unter Omnios als Version 5v28. 2 Pool wurde unter Solaris angelegt ist also Version 6. Beide Pools wurde von mir in der Solarismaschine importiert und dann über einen Job 'Replikation' gedoppelt. Alle Freigaben beider Pools erschienen dann als Freigaben auf meinem Windows PC. Zugriff war möglich.
Im Anschluss habe ich den Pool 5v28 wieder in den Omnios Rechner umgebaut und dort versucht zu importieren. Das hat auch geklappt, nur die Freigaben konnten lauf Fehlermeldung nicht angelegt werden, da das Dateisystem durch die Replikation offenbar Version 6 ist.
Als Ausgabe habe ich für den Omnios-Pool:
2017-05-24_194609.jpg

Alle Filesysteme mit '-o' am Ende sind durch die Replikationsjobs entstanden, der test wurde von mir angelegt ob die Freigaben überhaupt funktionieren. Den test bekomme ich im Explorer auf fein angezeigt.
Dann kam ich auf die Idee nach Abweichungen zwischen test und den übrigen Filesystemen zu suchen.
SMB steht zwar auf on, aber da kein Freigabename vergeben ist, tja..
also einmal auf 'off' gestellt und im Anschluss wieder auf 'on'. Da kann man ja dann die Freigabe und den Gastzugriff aktivieren. Ausprobiert habe ich es mit Serien-o.
Leider bekomme ich die Freigabe aber trotzdem nicht im Explorer zu Gesicht.
Was mache ich falsch?
Muss ich noch an den Folder- oder Share-ACL drehen?
 
Zuletzt bearbeitet:
Der Pool und die Dateisysteme sind wohl noch v5
Kontrollieren kann man das im Menü ZFS Dateisysteme wenn man auf ein Dateisystem klickt (version)

Zum SMB Zugriff:
Klappt es denn wenn man in einem Windows Dateifenster direkt per ip zugreift, also in der Art \\192.168.1.2
 
Mal ganz nebenbei kann mir einer folgendes erklären: Ich habe hier einen Microserver N36L. Eines morgens war er im Fehlermode, orange Power LED leuchtet. Wollte starten aber es tat sich nichts, außer dass es komisch roch.
Dann auseinander gebaut und einen Kurzschluss gefunden: Habe über ein kurzes Adapterkabel eine SSD angeschlossen also Molex auf Sata Strom umgesetzt über ein entsprechendes Adapterkabel.
Das Adapterkabel hat wohl geschmort. Ausgebaut und Durchgangsprüfer drangehalten: Gelbe Ader und Schwarze haben Kontakt. Es hat die SSD auch etwas in Mitleidenschaft gezogen, mit einem Tuch konnte ich sie aber wieder reinigen. Sie läuft auch noch völlig problemlos und war wohl nicht die Fehlerursache.

Finde es merkwürdig, der Microserver stand in einem Rack auf einem Regalboden und son Adapterkabel fängt einfach mal über Nacht an zu schmoren? Es ist auch alles isoliert gewesen, das Gehäuse ist zwar aus Metall von innen, aber das erzeugte kein Kurzschluss. Selbst jetzt gibt es am verschmorten Adapterkabel keine "offenen" Stellen, der einzige Fehler ist das Gelb und Schwarz nun Durchgang haben.
Jemand ne Erklärung?

Ich rate mal, wobei ich mit den gleichen Adaptern selber schon Probleme hatte, das aber nur an nem P4-Verlängerungskabel hart durchgemessen hab: Chinesen-Pfuschkabel

Das hier wird als AWG 18 verkauft, d.h. ~0,8mm² Querschnitt. Bei Kupfer reicht das für 12A+, macht bei 2 parallelen Kabeln und 12V mehr als genug für ein Mainboard (die Stecker selbst vertragen offiziell nur 10A, das reicht aber auch dicke). Drin sind aber blöderweise nur 0,08mm²...

http://www.wanhunglo.com/wordpress/wp-content/uploads/2016/11/IMG_2731.jpg

http://www.wanhunglo.com/wordpress/wp-content/uploads/2016/11/IMG_2729.jpg

(das war bei 6A/3,3V über 20 Sekunden - fernab von deiner Dauerlast...)

Jetzt schauste dir mal die Kontaktabstände in nem SATA-Stecker an. Wenn da was wegen obendrein miesen Kontaktwiderständen (Pfuschcrimpung oder gar handgelötet) extrawarm wird und daher das Plastik weich...gute Nacht.
 
Habs mal auseinander gebaut, war sogar nicht mal Kupfer sondern Alulitze.
Die Leitung im Server selbst scheint aber unbeschadet zu sein wie ich das soweit beurteilen kann geschmort hat es auch nur im und am SATA Stromstecker selbst. Die Adern davor sind alle noch in Ordnung. Denke also vielleicht wurde es warm und ist dann ein Kurzschluss im Stecker entstanden. Der gelbe ist aber doch für 12V. Die SSD zieht aber nur 5V laut Aufkleber. Eigentlich dürfte da gar kein Strom fliesen.
Kann man aber so weiterhin nutzen, also Server und SSD oder was meint ihr? Der SSD Stecker hat wohl etwas Hitze abbekommen, ist aber nicht verformt oder sonstwas , den Ruß hab ich abgemacht von den Kontakten. Ist ne Samsung 830

Wobei mich das auch zu der Frage führt wo bekommt man solche Adapter in gescheiter Qualität her? Kupfer oder Alu kann ich ja nur unterscheiden wenn ich reingucke, sprich es kaputt mache
 
Zuletzt bearbeitet:
Der Pool und die Dateisysteme sind wohl noch v5
Kontrollieren kann man das im Menü ZFS Dateisysteme wenn man auf ein Dateisystem klickt (version)

Zum SMB Zugriff:
Klappt es denn wenn man in einem Windows Dateifenster direkt per ip zugreift, also in der Art \\192.168.1.2

Mit der direkten Eingabe der IP im Explorer klappt es leider auch nicht.
 
Und wie ist die

Poolversion (28 oder 5000)
die ZFS Version der betroffenen Dateisysteme (5 oder 6)
die OmniOS Version
 
Zuletzt bearbeitet:
Poolversion ist 28: pool_version.jpg
Omniosversion ist 151006: omnios_version.jpg
ZFS Version ist: Wo sehe ich das denn?
ZFS_Info.jpg
 
Zuletzt bearbeitet:
Poolversion ist 28: Anhang anzeigen 402107
Omniosversion ist 151006: Anhang anzeigen 402108
ZFS Version ist: Wo sehe ich das denn?
Anhang anzeigen 402109

Da kann ich nur einen Rat geben
OmniOS auf 151022 updaten (in Schritten über 014, 018, 020, 022) oder neu installieren
Pool auf v5000 updaten
- dann sieht man weiter

siehe Seite 6 von http://www.napp-it.org/doc/downloads/setup_napp-it_os.pdf

ZFS v28 ist ca 7 Jahre alt. Alle Verbesserungen in der Zwischenzeit fehlen.
Selbst die Kompatibilität mit Solaris ist kein Argument denn auch Solaris bietet seine Features erst mit ZFS v37

OmniOS 151006 is ca 4 Jahre alt mit gleicher Aussage
ZFS Version wird wohl noch nicht angezeigt. ZFS v6 kam erst später mit Solaris 11

Interoperabilität von Open-ZFS mit Solaris is dann aber nicht mehr möglich.
Alles dann entweder Solaris oder Open-ZFS
 
@gea
Alles klar, ich brauche es nur noch mal um meine Daten vom alten NAS (N54L) mit deinem Napp-IT One auf das neue NAS mit Solaris 11.3 zu bekommen. Ist halt bei ca. 10TB 'ne arge Kopiererei über 1GBit.
 
Die Objektnummer erscheint auch wenn die zugehörige Datei zwischenzeitlich gelöscht wurde und die Poolfehler noch nicht gelöscht wurden. Ist was denn so gelaufen? Prinzipiell könnte man ein zpool clear machen, dann neue Backups reinkopieren.

Die Anzahl der Fehler macht mich halt stutzig.
Ich würde da ein Fragezeichen hinmachen und die Platte häufiger per Scrub prüfen.

Langsam wird's echt komisch:

Zuerst hatte ich ein "zpool clear backup-usb-2" gemacht und dann denn Scrub noch mal gestartet.
Hierbei kamen aber dann die Fehler wieder.

Dann noch mal ein "zpool clear backup-usb-2" und anschliessend alles aus dem Dataset "/pve" verschoben in ein anderes Dataset.
Hierbei traten keinerlei Fehler auf und auch ein "zpool status backup-usb-2" zeigte danach keine Fehler.

Als nächstes noch mal sicherheitshalber ein "zpool clear backup-usb-2" ausgeführt und erneut ein Scrub gestartet.
Nun kommen die Fehler aber trotzdem wieder, wie kann dass denn sein!? Das DS ist doch jetzt komplett leer!?

Igentlich kann ich ja jetzt nur noch das Dataset löschen und neu anlegen, oder?
 
Ein Scrub läuft nicht auf ein Dateisystem sondern auf den Pool insgesamt - inkl. aller Dateisysteme, Zvols und Snapshots.
Ich würde jetzt den kompletten Pool neu anlegen, eine neue Sicherung starten und wenn dann wieder Fehler auftreten, das USB Gehäuse/ Kabel/ Power verdächtigen. ZFS Prüfsummenfehler sind tatsächliche Datenveränderungen. Das Backup ist damit definitiv Schrott.
 
Im ersten Schritt hab ich jetzt mal das Dataset "/pve" gelöscht, "zpool clear backup-usb-2" ausgeführt und den Scrub noch mal gestartet. Aber die Fehler bleiben bzw. gibt es noch weitere:
Code:
zpool status backup-usb-2 -v
  pool: backup-usb-2
 state: ONLINE
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: [url="http://zfsonlinux.org/msg/ZFS-8000-8A"]ZFS Message ID: ZFS-8000-8A[/url]
  scan: scrub in progress since Tue May 30 15:18:48 2017
    1.80G scanned out of 1.35T at 49.8M/s, 7h53m to go
    0 repaired, 0.13% done
config:

        NAME                                        STATE     READ WRITE CKSUM
        backup-usb-2                                ONLINE       0     0    11
          ata-WDC_WD30EZRX-00D8PB0_WD-WCC4N7JUZJCL  ONLINE       0     0    44

errors: Permanent errors have been detected in the following files:

        <0x2a>:<0xe>
        <0xffffffffffffffff>:<0xe>

Das stimmt mich jetzt alles nicht so freudig :(

Da die andere Platte am gleichen USB-Kabel und Netzteil ohne Probleme läuft und diese hier beim WD-Test keine Fehler brachte, kann es ja nur der USB-Controller sein, oder? Was aber ja auch seltsam ist, weil bei dem WD-Test der USB-Controller ja auch dazwischen hing :hmm:
 
Nicht nur das Dateisystem löschen sondern den kompletten Pool und dann neu anlegen.
Wenn die Fehler bleiben, dann ist die USB Einheit zumindest an diesem System unbrauchbar.
 
Ich habe jedenfalls mit ESXi/Solaris gute Erfahrungen mit diesem Controller gemacht: Sedna Zubehör

Mehrere Replikationen und Scrubs bisher ohne Auffälligkeiten (allerdings immer mit single Drive Pools).
 
Das kann ich nachvollziehen. Dennoch ;)

Es ist a) sehr gut beschrieben und b) nicht sonderlich viel Aufwand. Je nachdem, welche Variante Du wählst (bis hin zur "Clone auf eine SSD and you are ready to go").

Darüber hinaus durch gea sehr gut supported. Auch hier. Und ein bissl muss man sich ja sowohl als auch einlesen. Und ob FreeNAS dann einfacher ist, k.A. ...
 
ZFS + SMB3 = bestenfalls ein Linux bzw. nur mit SAMBA, und dann würde ich immer noch bei SMB-Multichannel mal ein fettes Fragezeichen dran machen. Und das dann noch per GUI konfigurieren? Vergiss es lieber.

Verabschiede dich also eher von ZFS (jedenfalls wenn Du die Vorteile davon auch nutzen willst). Nimm einen Windows-Rechner, hau' da ReFS mit Parity- oder Mirror-Raid drauf und fertig...
 
Ok, ich will mal etwas detaillierter werden. Ich habe folgenden Controller für den es vermutlich keine Unterstützung von FreeNAS gibt mangels Treibers.
PMC Adaptec HBA 1000-16i

Da bleibt wohl nur Windows oder Linux
LSI/ Avago wäre die bessere Wahl gewesen. Da gibts überall Treiber

Ich möchte zu hause einen Fileserver über SMB3 nutzen (Win10 Clients) möglichst mit SMB-Multichannel. Der Server sollte alles AES-verschlüsseln. Das Ganze möchte ich überhaupt um endlich höhere Schreib und Lese-Raten zu erreichen.

Da bleibt wohl sinnvollerweise nur Windows.
Wobei ich vermute, dass 10G die wesentlich schnellere Option ist

Und es sollte alles möglichst GUI bedient werden können.
Ich habe letztens versucht Nextcloud in eine Hyper-V VM mit Ubuntu LTS Server zu installieren und bin dann irgendwann gescheitert. Alle Ausflüge in die-Linux-etc.-Welten sind für mich jedes mal zum Kotzen gewesen, deswegen wirklich out-of-the-box, kostenlos und GUI, sonst nicht. :xmas:

Windows Storage Management per Windows GUI ist nicht trivial, eigentlich kaum verständlich.
Es ist sogar um Größenordnung komplizierter als übliche ZFS Storage Appliances mit Web-GUI

Dies ist der ZFS Stammtisch.
Die Zuverlässigkeit, Performance und Datensicherheit von ZFS erreicht Windows (noch) nicht, auch wenn ReFS in die richtige Richtung geht. Auch ist es bei Windows normal, alle zwei Wochen kritische Updates aufzuspielen (mit Neustart).

Synology wäre die "habe alles mit Web-UI" Komfort Alternative.
Ist aber normales Linux mit Web-GUI, nicht die Klasse von ZFS wenns um Datensicherheit geht. Auch sind die billigeren Modelle langsam und nutzen einfachste Hardware.

Alle Optionen abzudecken, geht nicht.
An nahesten mit ZFS (Performance, Verschlüssellung, ZFS Sicherheit, Windows ACL und Previous Versions) wird vermutlich Oracle Solaris 11 kommen. Kann man frei downloaden. Für kommerzielle Nutzung werden aber 1000 USD/Jahr fällig.

Installation ist wie bei Windows, DVD einlegen und installieren (GUI/Desktop Version). Für einfacheres Storagemanagement per Browser biete ich mein napp-it als add-on (freie Version reicht at home). Ist mit einem Konsolebefehl installiert.

http://www.napp-it.org/doc/downloads/setup_napp-it_os.pdf
Owncloud etc unter Linux oder Unix (Solaris ist Unix) ist immer kompliziert...
 
Zuletzt bearbeitet:
Multichannel hat ja auch den Nachteil dass du eben 2 Kabel brauchst, und auch 2 Ports an einem Switch und selbst dann haste "erstmal" nur 2Gbit/s.
Vermutlich wirds da mit der 2,5G und 5G Ethernet Geschichten schneller gehen als auf MS zu warten, wobei worauf willst du da genau warten?

Was ich aber bei Multichannel durchaus auch praktisch finde ist dass es zwischen Ethernet und WLAN umschalten kann und einen Filetransfer nicht über WLAN versuch zuende zu bringen wenn man schon das Ethernetkabel drangesteckt hat.

Auch finde ich jetzt ganz persönlich dieses "MS Modell" irgendwo auch etwas merkwürdig:

Erst musste Platten zusammenfassen zu einem Pool.Dann erzeugste da virtuelle Festplatten/Datenträger. Dann musste noch ne Parition erstellen und dann noch ein Dateisystem.
Auch habe ich damit mal rumgespielt und gemerkt dass es zumindest damals noch nen Problem damit gab den Speicherplatz wieder freizugeben wenn Daten gelöscht wurden. Hatte es mal geschafft nen komplett vollen Pool zu haben ohne Daten drin, klar man hätte die virtuellen Festplatten formatieren können, bzw neu erstellen, aber auch irgendwo witzlos.
Ferner ist auch das Konzept mit den SSDs zu Beschleunigung schlechter gelöst als bei ZFS.

Wenn du warten kannst/willst, würde ich eher darauf warten bis die Produktauswahl bei 10G 5G und 2,5G größer wird. Interesant wird sicher auch sein wie groß der Preisvorteil von 5G und 2,5G zu 10G sein wird.
Mit 2,5G wärst du schon schneller als mit 2x1G samt Multichannel. Und mehr als 2 Kabel pro Client wird wohl in den wenigsten Fällen sich lohnen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh