Moin moin,
hier mal was nützliches zum Thema 4K Cluster Platten. Da ich das Gefühl hatte, dass ich wegen der defekten SSD (die im Mac mini übrigens tadellos läuft, vielleicht ein inkompatibilität) Fehler mit den 3x1.5TB WD15EARS bekam, habe ich diese gestern Abend nochmal angehängt, einen RAIDz1 drauf gemacht und mit einigen Daten gefüttert.
Ergebnis: über 230GB geschrieben, keine Fehler
Bei der WD15EARS handelt es sich um Platten mit 4KByte statt 512Byte Clustern, damit bekommt WD leichter mehr Daten auf die Platten weil die Informationsspuren am Anfang und Ende eines Clusters nicht nach 512Byte, sondern erst alle 4000Byte geschrieben werden, das macht natürlich einen großen Unterschied.
Wie traditionelle RAID Controller (egal ob Adaptec, Areca, 3ware, HP etc), hat auch ZFS so seine liebe Not mit diesem "ungewöhnlichen" Format der Cluster.
Es gibt einige Patches, die dem ZFS sagt dennoch alle 512Byte die Informationen zu schreiben, habe ich aber noch nicht probiert und dürfte dann natürlich zu deutlich weniger Kapzität führen.
Nichts desto trotz funktionieren diese Platten (anscheinend) mit ZFS, sind aber langsamer.
Mit einer 160GB WD "Blue" IDE HD als Systemplatte für das Nexenta Core bekomme ich von den 3x WD15EARS im scrubbing Modus (zpool scrub poolname) Werte um die 100MB/s.
223GB gemischter Daten (in meinem Falle mein Fotoverzeichnis) (von kleinen JPEGS bis zu 30GB Libraries ist alles dabei) benötigten beim Kopieren von einem Pool in den anderen 48 Minuten. Das entspricht einer Rate von ~78MB/s.
Das lesende Volume ist der andere RAIDz1 mit 5x1.5TB Samsung HD154UIs (der scrubbt hier mit über 330MB/s). Der "Flaschenhals" ist hier also die 4k Cluster-Platte.
Ich denke mit 100MB/s rum kann man diese aber für meinen Zweck durchaus sehr gut einsetzen (reines Backup) - und ja - ich weiß dass ich auch snapshots machen kann und mir daher
eigentlich ein Backup sparen kann, aber ich mache es lieber doppelt
Gleich sollte meine Kingston SSD endlich ankommen, dann werde ich das Nexenta Core darauf mal installieren, die pools importieren und schauen wie sich die Performance steigert. Nach meinen bisherien Erfahrungen waren die Schreib- & Lesegeschwindigkeiten bei der "defekten" SSD deutlich höher (bis zu 600MB/s im Samsung RAIDz1).
Code:
root@gigi:/export/home/dieta# zpool status mediapool backup
pool: backup
state: ONLINE
scan: scrub in progress since Tue Nov 9 00:11:16 2010
163G scanned out of 347G at 106M/s, 0h29m to go
0 repaired, 46.90% done
config:
NAME STATE READ WRITE CKSUM
backup ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c3t1d0 ONLINE 0 0 0
c3t2d0 ONLINE 0 0 0
c3t3d0 ONLINE 0 0 0
errors: No known data errors
pool: mediapool
state: ONLINE
scan: scrub in progress since Tue Nov 9 09:05:16 2010
243G scanned out of 3.51T at 340M/s, 2h48m to go
0 repaired, 6.76% done
config:
NAME STATE READ WRITE CKSUM
mediapool ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c0t0d0 ONLINE 0 0 0
c0t4d0 ONLINE 0 0 0
c0t5d0 ONLINE 0 0 0
c0t6d0 ONLINE 0 0 0
c0t7d0 ONLINE 0 0 0
errors: No known data errors