[Sammelthread] ZFS Stammtisch

@barnacle2k

Vielen vielen Dank! Genau sowas hab ich gebarucht *g

Drei kleine Fragen hätte ich noch:
Was macht mehr sinn, NexentaStor oder Nexenta + Napp-It?
Dann habe ich gesehen, dass es für die Commercial-Edit. für NexentaStor ein iSCSI Plugin namens COMSTAR gibt... Den Sinn des ganzen habe ich aber noch nicht wirklich verstanden, iSCSI ist doch schon in NexentaStor mit drin oder nicht?
Und zu guter letzt habe ich mich mal durch ein paar Guides gelesen und bin auf diesen hier gestoßen... Was mir noch fehlt ist eine Übersicht welches Raidz-Setup sinnvoll für verschiedene Einsatzgebiete ist.. Also wie bei mir, lieber ein Raidz1 oder nen Spiegel für die vmdk's? Achja gibt es auch das pendant zu nem RAID 0+1 oder 10? Raidz1,2 ist ja sowas wie ein Raid5 bzw 6...

Sorry für meine granzen Fragen hier, aber dieses NexentaStor Forum sagt mir irgendwie nicht zu *g*
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schön zu lesen was ihr hier schon an Wissen zusammengetragen habt.
Bin die Tage mal auf die Idee gekommen mir rein interessehalber Nexenta-Stor anzuschauen weil das auf den ersten Blicke eine einfach zu administrierende durchgängige Storagelösung ist die alles kann was ich brauch .

Mir missfällt nur, dass es wohl immer noch nicht möglich zu sein scheint ein RAID-Z nachträglich zu erweitern.
Nur der Pool lässt sich durch nachträgliches hinzufügen eines weiteren RAID-Z gleicher Konfiguration erweitern.

Auch die AD-Integration hat auf Anhieb geklappt (ein Punkt an dem ich bei meinen Openfiler-Versuchen bisher immer gescheitert bin).

Was mir jetzt nicht ganz klar ist:
Ich hab mir von dieser Seite NexentaStor Project - CommunityEdition - NexentaStor Project das VMWare Image geladen und werde beim ersten Start nach einem Lizenzschlüssel gefragt. Den bekommt man auch sehr unkompliziert, allerdings bin ich mir nicht sicher ob das was dabei raus kommt nun die Community Edition oder die kommerzielle Trialversion ist.
Die "About" Seite der Web-GUI spricht zwar unter "Model" von "ZFS Storage Appliance (Community Edition)", etwas weiter jedoch unten unter "License Type" von "EVAL" und unter "License Maximum Size" "4096 GB of total used space", das sollten bei der Community nach aktuellem Stand aber je nach Quelle 12 TB oder 18 TB sein.

Vielleicht ist die VM die man sich da ziehen kann auch - obwohl so ausgewiesen - nicht die normale Community Edition wie sie sich von der ISO installieren lässt, die hab ich mir noch nicht angeschaut.
 
@Sumatrabarbe
Erstmal hier ein Link zu nem Haufen Benchmarks die dich interisieren dürften.

Also für eine Produktivumgebung kann es nur Nexentastor sein.
In der Standardversion ist ISCSI abgeschaltet und muss dazugekauft werden.
(vermutlich ließe es sich per Konsole irgentwie zu Aktivieren dann aber auch nur über dieselbige zu Administrieren)
Zum Plattenlayout:
Für VMs immer ein Pool aus Mirror devices [RAID10]
Biete beste IOPS. RAIDZs sind eher für Sequentiellen Zugriff zu gebrauchen.

Übrigens ZFS Liest Bei Mirror configs von Beiden Platten
und macht somit bei z.b. 2 Platten die Doppelte Leserate.

ZFS Organisiert die dinge so:
IMMER Striping über alle im Pool vorhandenen VDEVs. [RAID0]
Diese VDEVs können sein:
Einzelne Festplatten []
mirror beliebiger Breite [RAID1]
RAIDZ1-3 [RAID5,6,N]

Herraus kommt dann ein RAID0 bis RAID60 oder auch andere abstruse Kombinationen.
Die Redundanz wird immer durch das Schwächste glied bestimmt.
 
Zuletzt bearbeitet:
S

Mir missfällt nur, dass es wohl immer noch nicht möglich zu sein scheint ein RAID-Z nachträglich zu erweitern.
Nur der Pool lässt sich durch nachträgliches hinzufügen eines weiteren RAID-Z gleicher Konfiguration erweitern.

Ein Pool lässt sich mit beliebigen vdevs (Basic, Raid1, Raidz1-3) erweitern.
Bei einem Raid-Z lässt sich mittels der Pool-Eigenschaft Autoexpand die Kapazität vergrößern, indem die Platten reihum gegen größere Platten getauscht werden und das Raid dann resilvered wird. Nachdem die letzte Platte getauscht ist, steht die größere Kapazität zur Verfügung. Über den Sinn läßt sich streiten- wohl nur wenn kein Platz für weitere Platten da ist.

Ansonsten war die Planung wohl "Big Enterprise" mit Pools mit mehreren Dutzend Platten, aus Performancegründen in kleinere Raidsets/ vdevs aufgeteilt (siehe SUN Thumber)

Gea

---------- Beitrag hinzugefügt um 22:47 ---------- Vorheriger Beitrag war um 22:29 ----------

Dann habe ich gesehen, dass es für die Commercial-Edit. für NexentaStor ein iSCSI Plugin namens COMSTAR gibt... Den Sinn des ganzen habe ich aber noch nicht wirklich verstanden, iSCSI ist doch schon in NexentaStor mit drin oder nicht?
Und zu guter letzt habe ich mich mal durch ein paar Guides gelesen und bin auf diesen hier gestoßen... Was mir noch fehlt ist eine Übersicht welches Raidz-Setup sinnvoll für verschiedene Einsatzgebiete ist.. Also wie bei mir, lieber ein Raidz1 oder nen Spiegel für die vmdk's? Achja gibt es auch das pendant zu nem RAID 0+1 oder 10? Raidz1,2 ist ja sowas wie ein Raid5 bzw 6...

Comstar ist die iSCSI-Umsetzung von SUN/ Oracle. Sie ist wirklich schnell und sehr flexibel. Sie ist daher Bestandteil jedes Betriebssystems, das darauf aufbaut (Nexenta*, Opensolaris, OpenIndiana, Schillix, Eon, Solaris) . Die Bedienung erfolgt über CLI-Tools bzw bei napp-it auch über eine Web-Gui.

Das besondere an NexentaStor ist neben der komfortablen Bedienung über die Web-GUI und diversen Plugins vor allem, dass es kommerziellen Service und Support, sowie zertifizierte Hardware gibt.

Zu den Raid-Leveln kann man sagen, dass es sich schlicht um die Frage schnell (=mehrere gestripte Raid1, entspricht bei 2 vdevs einem Raid-10 - aber es lassen sich beliebig weitere Spiegel hinzufügen, Performance geht dann locker in Bereiche von 1 GB/s=10GBe Netz) oder möglichst viel Platz (Raid-Z) geht. Bei vielen Platten oder hohen Ansprüchen an Datensicherheit empfiehlt sich bei Raid-Z immer ein Raid-Z2 oder Raid-Z3.
 
Hallo,

Ich bin schon seit längerem (ca. Juni) dran mir ein NAS, mit ZFS als Dateisystem, zu bauen. Am Anfang hatte ich Festplatten mit 4K Sektoren, mittlerweile habe ich auf "herkömmliche" 512Byte Festplatten gewechselt.
Ich habe auch schon viele Anleitungen, Blogs, Projekte gelesen (auch bezüglich der Arbeit von Solarismen bei der 4K Problematik), aber ich komme nun nicht mehr weiter.

Zu meiner verwendeten Hardware:

MB: Intel Mainboard DQ57TM
CPU: Intel Core i5 650
RAM: 8GB 1333MHz DDR3
LAN: zusätzliche Intel PCIe (1x) Netzwerkkarte
HDD's: 3 x 2TB WD20EADS (für Daten)
1 x 80GB SATA (für System)
1 x 60GB SSD - OCZ Vertex 2 (als L2ARC - Cache)
Controller: zusätzlich einen 1-Port SIL 3531 PCIe Controller
Gehäuse: Lian Li Q08

Ich habe die letzten Monate schon unzählige Male das System installiert und konfiguriert, z.B.

- VMware ESXi 4.1 als Host-OS und NexentaCore + Napp-it, bzw. Openindiana + Napp-it als VM. Dabei die Daten-HDD's am Onboard-Controller und die PCIe Intel LAN-Karte mit Passthrough (vt-d) durchgereicht. Ich hatte die Daten-HDD's auch schon per RDM (RawDeviceMapping - CLI über SSH) für die jeweilige VM konfiguriert.

- NexentaCore + Napp-it direkt auf System-HDD installiert
- NexentaStor direkt auf System-HDD installiert.
- NexentaCore oder OpenIndiana per KVM unter Ubuntu Server zu virtualisieren war nicht erfolgreich (Die Aktionen waren aber leider sehr zeitintensiv :()

Nun zu meinem Problem:

Ich bekomme den Datendurchsatz über CIFS (Gigabit Netz auf Windows 7 Client) nicht höher als ~55MB (+-5MB). Dabei verwende ich weder Kompression noch Dedub. Ich habe ein Raidz1 Pool (3x2TB) mit der 60GB SSD als L2ARC Cache konfiguriert. Ich habe auch schon "primarycache=metadata" und "secondarycache=all" versucht, ohne Besserung. Die Daten in dem Pool sind überwiegend 3 bis 8GB gross.

Was mache ich falsch?
Wie würdet Ihr dieses System installieren?
Was kann / muß ich ändern, um an die 90-110MB/sec Gesamtdurchsatz zu kommen ( bei 2 maximal 3 gleichzeitigen Zugriffen entsprechend geteilt)?

Ich hoffe ich habe nichts wichtiges an Info's vergessen.

Ich würde mich freuen wenn Ihr mir helfen könnt.

Gruß
mlampe
 
Diese Hardware sollte einen Gigabit Link Problemlos sättigen können.

Hast du das Netzwerk gebencht?
Schon versucht mal ein Volume per iSCSI oder das FS per FTP zu Benchen?
 
Per iSCSI oder FTP habe ich das noch nicht probiert.
Das ist eine gute Idee! Ich werde das mal testen.

Wie benche ich denn das Netzwerk?
Mit Linux kenne ich mich "nicht so gut" aus, mit Solaris noch weniger. Leider!

Ich bin aber lernbereit und möchte diesen Umstand auch ändern.
 
Ich hatte mit den WD Green-Platten auch schon erhebliche Performance-Probleme und dabei festgestellt, dass es einen erheblichen Unterschied ausmacht, ob der Rechner 4 oder 8 GB Ram hat. Auch bremst das Raid-Z. Die schnellste Lösung wäre ein Raid-10

Mein Tipp:
Ein Raid-10 bauen (zur Not mit Hilfe der SSD oder der HD80 als 4. Festplatte) um herauszufinden was maximal geht. Nach Möglichkeit die Onboard Sata im AHCI Modus benutzen (SIL ist nicht die erste Performance-Wahl)

Wenn Nexenta virtualisiert werden soll, dann auf jeden Fall >=4 GB Ram zuweisen und den Storagecontroller samt Platten per PCI-Passthrough durchreichen. Esxi-Storage oder RAW-Device ist nicht sinnvoll. Die Netzwerkkarte besser von Esxi verwalten lassen.

Um die Netzperformance zu messen bietet sich iperf an. Das hat einen Client und Servermode. Einfach mal googeln. Iperf ist bei napp-it dabei.

Gea
 
Zuletzt bearbeitet:
@Gea
habe da ein Paar anmerkungen zu Napp-It:

[Wir sollten mal einen Eigenen Sammelthread zu Napp-It erstellen]

Power Management:
Bei meiner AMD CPU funktioniert das Power Management nur wenn ich poll-mode
an den cpupm eintrag anhänge. Sieht bei mir nun So Aus:
Code:
cpupm enable poll-mode
cpu-threshold 5s
Könntest du da so eine Checkbox einbauen für Poll Mode?

Allgemein:

Währe cool wenn du die aktuellen werte auf der aus den Config Files ausließt.
Damit in den Textboxen die aktuell eingestellten Werte stehen.

Ausserdem währe es Klasse wenn du die Paketeinstallation von Blastwave.org für
bonnie++ und smartctl mit in das Setup einbauen könntest.
 
Zuletzt bearbeitet:
@Gea
habe da ein Paar anmerkungen zu Napp-It:

[Wir sollten mal einen Eigenen Sammelthread zu Napp-It erstellen]

Power Management:
Bei meiner AMD CPU funktioniert das Power Management nur wenn ich poll-mode
an den cpupm eintrag anhänge. Sieht bei mir nun So Aus:
Code:
cpupm enable poll-mode
cpu-threshold 5s
Könntest du da so eine Checkbox einbauen für Poll Mode?

Allgemein:

Währe cool wenn du die aktuellen werte auf der aus den Config Files ausließt.
Damit in den Textboxen die aktuell eingestellten Werte stehen.


kann ich bei Gelegenheit machen.
Ich habe aber in der aktauellen 0.405 eine Editiermöglichkeit für die power.conf eingebaut.

Ausserdem währe es Klasse wenn du die Paketeinstallation von Blastwave.org für
bonnie++ und smartctl mit in das Setup einbauen könntest.

Nexenta hat angekündigt, dass es mit der nächsten Version Illumos benutzt. Das Packetmanagement wurde offengelassen; es hiess aber dass es wieder mehr "Solaris-konform" sein soll. Ich warte hier noch etwas ab.

Aktueller Punkt, an dem ich arbeite ist die asyncrone Replikation/ Syncronisierung zweier Rechner mit zfs-send. Erst anschliessend kann ich mich darum kümmern. Ein getestetes Shellscript für *Solaris*, das bonnie und smartmontools installiert und eventuell ein Menue, das es konfiguriert (smartmontools), wuerde ich aber jederzeit gerne übernehmen und einbauen.
(siehe aktuelle Version 0.405: menue extend)

gea
 
Nein.

Verschlüsselung ist in ZFS erst seit ein paar Tagen mit Solaris Express 11 verfuegbar. Das ist aber nur für Tests und Demobetrieb frei. Bis Verschlüsselung als Pool-Eigenschaft in den freien Distributionen wie etwa NexentaCore oder OpenIndiana enthalten ist, kann es aber noch etwas dauern.

gea
 
um deine frage nach Hardwarebeschleunigung zu beantworten,
die ZFS-Crypto von Solaris 11 Express unterstützt AES-NI.
Und wenn sie in Nexenta ankommt sehr wahrscheinlich auch.
 
Zuletzt bearbeitet:
Hallo,

Ich habe nun mal NexentaCore direkt auf die 80GB SATA-HDD installiert
und das Netzwerk mittels iperf zu meinem Windows 7 Client gemessen.
Dabei habe ich die beiden Rechner einmal über den D-Link Switch (diesen hier)
und einmal per CAT6 Kabel die Netzwerkkarten direkt verbunden.

Ich bin in beide Richtungen auf 28-30MB/sec gekommen. :confused: :heul:
Ich habe auch die Firewall schon deaktiviert, mit deaktiviertem "QoS" (Windows)
habe ich allerdings noch nicht gemessen.

Ich werde weiter berichten...

Gruß
mlampe


EDIT:
Nach einer neuen Installation von NexentaCore 3.0 incl. Upgrade und "online Installation" von napp-it 0.409
komme ich nach jedem Neustart nicht mehr auf das Webgui.
Wenn ich dann nochmal "wget...." aufrufe und damit quasi "aktualisiere / drüber installiere", funktioniert der
Zugriff bis zum nächsten Reboot von Nexenta.

Was kann das sein?

Gruß
mlampe
 
Zuletzt bearbeitet:
ich vermute mal, dass ein aelterer snapshot aktiviert ist und er bei jedem Neustart mit einem frueheren Snapshot startet.

gea
 
@gea (wo du schonmal hier bist... ;)
bonnie++ gibts unter OpenIndiana und Solaris 11 Exp als paket.
Kannst du also direkt in den Installer übernehmen.

Code:
pkg install bonnieplus

greets
 
danke fuer den Hinweis,
ich werde es in die 0.410 übernehmen.

gea
 
Hallo,

@gea: Vielen Dank für den "Denkanstoß". Ich habe die letzten Snapshots gelöscht und
"svcadm enable nwam" ausgeführt, da ich auch mit den Netzdaten Probleme hatte.
Die zweite Netzwerkkarte will zwar noch nicht so wie ich es gerne hätte, aber daran arbeite ich noch.

So komme ich nun ersteinmal weiter.
Ich melde mich wieder.

Gruß
mlampe
 
So, nun mal Butter bei die Fische:

Nachdem ich vorhin den netten Stromverbrauch von 2010 erfahren habe, :fresse: habe ich mir gedacht, dass nun wirklich der 3ware Controller raus fliegt. Könnt ihr mir mal eure Meinungen zu den Möglichlichkeiten geben?

Erste:
5x1,5TB behalten und 3x2TB dazukaufen. Jeweils ein RaidZ und die zu einem Pool zusammenbauen --> ~10TB Netto

oder die Zweite:
5x1,5TB verkaufen und 6xTB kaufen. Ein RaidZ --> ~10TB Netto

Vorteil bei der zweiten Konfiguration wäre, ich bräuchte erstmal keinen neuen SAS-Controller. Nachteil ist allerdings, dass ich etwa 50% Werverlust innerhalb von 16 Monaten an den 1,5TB Platte habe.

Habt ihr konstruktive Argumente für oder gegen eine Lösung?
 
Zuletzt bearbeitet:
also den 3ware wirst du so oder so rauswerfen müssen.
"Richtige" Raidcontis sind für nur Passthrough meistens schlecht geeignet.
Da sollte wirklich ein 1-2x LSI1068E oder LSISAS2008 her.
Zudem benötigst du ja Temporär platz für deine aktuell vorhandenen Daten.
würde also zu der 6x2Tb Lösung Tendieren.

Als 2Tb platte ist mein Favorit immernoch die 2Tb von Hitachi.
Ist nach erfahrung die noch stabilste im RAID.
(ausser echten Raid Edition platten)
ZFS tut sich noch schwer mit der 4k Sektor emulation aktueller 2TB Platten.
(wenn die Plattenhersteller endlich die 4k sektoren ohne emulation rausgeben würden... :grrr: )
Allerdings bin ich da nicht auf dem Aktuellsten stand.
Wenns WD sein soll - EADS nicht die EARS.

HW mässig:
Einfach 4-8gb Ram dazukaufen.
Es sei denn du möchtest auch noch Verschlüsselung dafür darfs dann doch etwas mehr CPU sein.
 
Zuletzt bearbeitet:
Okay, das ist ja mal ne Aussage. Danke!
Ich habe bereits die Hardware ausgesucht, die es werden soll (Intel SASUC8I). Der 3ware fliegt unter Anderem deshalb raus, weil >2TB und 4k nicht möglich sind an dem. Beim RAM weiß ich auch, dass ich >4GB verwenden sollte. Zur Zeit denke ich darüber nach ein Ubuntu Hostsystem zu installieren auf dem virtualisiert Nexenta und nochmals Ubuntu laufen. Das ginge allerdings nur, wenn ich auch einen Controller dazu kaufe. Teurer Spaß!
 
naja für vernünftige performance von
Virtualisierten file servern soll man doch den SATA-Controller direkt an das Gastsystem weiterreichen. (PCI-Passthrough)
Ob das unter Xen auch ohne VT-D oder eine IOMMU geht kA.
(zumindest bei Linux Kerneln als DomU gings glaube ich, ob Solaris als Unixoid das auch mag...)

Controllerkosten:
Und die LSI1068 Basierten Contis kosten unter 100eur bei e*ay.
Da ist es egal obs ein gebrandeter oder original ist.

Zur platform für VT-D oder IOMMU:
AMD: 890Fx Motherboard+CPU deiner Wahl.
Intel: "Richtiges" Serverboard + Xeon CPU
 
Zuletzt bearbeitet:
Ja, der Controller soll dann per PCI-Passthrough durchgereicht werden. Kannst du mir mal gebrandete Controller nennen? Ich finde die LSI nur aus den USA für umgerechnet 80€+Shipping+Zoll. Dann kann ich auch den Intel nehmen, der hat den gleichen Chipsatz.
Virtualisiert werden soll mit KVM und die Hardware des bestehenden System wird dann komplett ausgetauscht:
AMD x2 250
ASUS M4A78LT-M Board
Und mal schauen wie viel Ram es wird. Beobachte gerade ein paar Angebote. 6GB mindestens.
Serverboard und Xeon scheiden ganz klar aus. Der Spaß wird mir dann zu teuer und ich wollte ja mal etwas auf den Stromverbrauch achten. Ich müsste dann sogar, habe ich gelesen, den Controller abschalten können. Wär schon nett, wenn das ginge, da ich bisher nicht mal mein Array in den Schlaf schicken kann. :(

Edit: Argh! IOMMU kann das Board natürlich nicht. Nochmal umplanen. Ich glaube, ich verlege das ganze auf meine Semesterferien. Könnte ja etwas umfangreicher werden... Muss ich mir nur überlegen wie ich mit dem Platz des Raids auskomme...
 
Zuletzt bearbeitet:
Infos zu IOMMU:
VTdHowTo - Xen Wiki

Also ich habe im prinzip das gleiche vor wie du.
1. Ich möchte einen Fileserver mit ZFS
2. er soll auch noch virtualisierung machen.

Meine Versuche bisher:

1. ESXI 4.1 + Asus 890FX Board
Passthrough hat soweit funktioniert.
Leider konnte ich mit ESXI (Free) nicht 6 Kerne an die VM weitergeben.
Schlechter HW Support vom ESXI.

2. Citrix Xenserver
Unterstützt kein Passthrough

3. Proxmox VE
Kein paravirtualisiertes Netzwerk
Passthrough entwas Kompliziert :confused:

4. Solaris 11 Express + Virtualbox für die Gastsysteme
Definitiv nicht die einfachste Lösung.
system tut aber bisher was es soll :fresse:


LSI Basierte Controller:
Perc 5IR
Perc 6IR

HP SC44Ge
HP SC08Ge

Intel SASUC8I

LSI 3081E-R
LSI 9211-8i
LSI 9201-16i

IBM Serveraid-BR10i
 
Zuletzt bearbeitet:
Danke für die Liste! :)

Also durch das Problem mit IOMMU überlege ich nun, ob ich nicht einfach nur die Festplatten durch reiche. Die Mainboards, die IOMMU können, fangen erst bei 120€ und sind wahrscheinlich dann auch nicht gerade stromsparend. Hast du zufällig mal getestet ob die Performence sehr stark in den Keller geht?

Oder ich verzichte auf ECC-Ram und baue mir nen i5. Wird ebenfalls erschwinglicher...
 
Performance ohne Passthrough:
Wenn man einen Paravirtualisierten Controllertreiber für das Gastsystem benutzen kann, ist die Performance recht gut.
Leider unterstützt OpenIndiana/Solaris Express KEINE VIRTIO Treiber.
-> Schlechte Netzwerk und IO-Performance.

VMWare Paravirtualisierte Treiber werden seltsamerweise aber Unterstützt.

Virtualisierung unter Solaris:
Solaris Express/Indiana Unterstützen xVM das ist XEN mit Solaris als Dom0
Leider findet man recht wenige Infos dazu.

Oder mein weg: Virtualbox unter Solaris.
Ist auch recht gut per Shell zu administrieren.
Remotezugriff per Windows RDP :cool:

Ich habe hier zwei Boards für meine Testplattform
Asus M4A785TD-V EVO
Asus ASUS M4A89TD Pro/USB3 (IOMMU)
CPU: Phenom X6 1055T

Idle verbrauch: 100W mit Disks im Spindown mit
10Gigabit NIC und LSI1068E Controller

Das board mit IOMMU wird wohl über sein da ich mich
ja für Solaris direkt auf Hardware entschieden habe.
 
Zuletzt bearbeitet:
KVM kann, wie VMware den e1000 Treiber bereitstellen, welcher laufen sollte und keine Perfomenceprobleme macht. Ich kann mir nur nicht vorstellen ob die HDDs, wenn ich sie als RAW-Device durchreiche, langsam werden. Hab ein vergleichbares Projekt gefunden, eigentlich die beste Lösung. Nur, dass ich keine ARK2-Cache SSD habe.
Klick

100W sind mir eigentlich zu viel ;) Danke schon mal für deine vielen Infos!
 
Hallo,

ich bin grad dabei etwas aufzurüsten und hab testweise 5 neue 2TB WDEARS Platten zu einen Raidz-Array zusammengefasst und ein bisschen getestet.


Code:
  pool: test
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        test        ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            c0t5d0  ONLINE       0     0     0
            c1t4d0  ONLINE       0     0     0
            c1t5d0  ONLINE       0     0     0
            c1t6d0  ONLINE       0     0     0
            c1t7d0  ONLINE       0     0     0

errors: No known data errors

WRITE:
Code:
root@enterprise:/test# dd if=/dev/zero of=zerofile.002 bs=10M count=3200
3200+0 records in
3200+0 records out
33554432000 bytes (34 GB) copied, 100.44 seconds, 334 MB/s

READ:
Code:
root@enterprise:/test# dd if=zerofile.002 of=/dev/zero bs=10M
3200+0 records in
3200+0 records out
33554432000 bytes (34 GB) copied, 198.229 seconds, 169 MB/s

Wie kann es sein, dass die Werte so unterschiedlich sind?! Vorallem der READ ?? ich kenn das nur umgekehrt ...
 
Zuletzt bearbeitet:
Was für Platten sind eigentlich für ZFS empfehlenswert? Ist das System hier bzgl. Desktop-Platten ähnlich selektiv wie manche Hardware-RAID-Controller oder kann man diese problemlos einsetzen?
Wie sieht es mit TLER aus? Klar, bei den RAID-Editions ist es sowieso aktiviert, aber falls ich meine EADS einsetzen würde, sollte ich dann TLER besser wieder deaktivieren?

Besten Dank
Oliver
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh