Problem mit Western Digital WD20EARS (Schreibrate zu gering)

nachträglich Festplatten hinzufügen geht aber nur bei richtigen controllern oder?
habe zumindest keine option dafür beim ich10r gefunden...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Intel Controller ist flexibler als viele Add-On Controller und kann auch RAIDs erweitern:

In der Matrix Storage Console das RAID auswählen und dann auf "Volume bearbeiten" gehen, dort einen Haken rein bei "Volumekapazitätserweiterung" und "eine oder mehr Mitglied-Festplatten hinzufügen" auswählen und dann auf "Weiter" ...

Wieso sollte der Intel Controller eigentlich kein richtiger Controller sein?

Die Zeit zum Initialisieren ist doch eigentlich nebensächlich. Man kann den Computer ja nebenher ohne Einschränkungen verwenden, nur runterfahren kann man ihn nicht. ;)
 
Zuletzt bearbeitet:
Wieso sollte der Intel Controller eigentlich kein richtiger Controller sein?
Als "richtigen" (= Hardware) Controller bezeichnet man üblicherweise Controller, die Paritätsberechnungen selbst durchführen (und über einen eigenen Cache verfügen).
 
Mir ist schon klar was damit gemeint war, ich hab mich nur an der prejorativen Formulierung gestört. Der Intel Controller ist schließlich durchaus auch ein "richtiger" Controller oder macht der irgendwas falscher als andere?
 
Die Zeit zum Initialisieren ist doch eigentlich nebensächlich. Man kann den Computer ja nebenher ohne Einschränkungen verwenden, nur runterfahren kann man ihn nicht. ;)
naja, obs 10h oder 40h dauert, ist schon ein gewisser Unterschied. wenn du mal an ne LAN willst und das RAID vorher initialisieren, füllen, verifizieren und bei nem Plattenausfall innert nützlicher Frist rebuilden willst und nochn Virenscan durchboxen musst, spielts schon ne Rolle, obs innert 2-3 Tagen geht oder ob du 1-2 Woche für alles einplanen musst, hehehe.

ein Hardware-Controller kostet zwar ne Stange Geld, aber spart auch viel Zeit und steigert dadurch die Verfügbarkeit bei voller Einsatzbereitschaft, bzw vollem Speed
 
nur runterfahren kann man ihn nicht.

Also in der Rapid-Storage-Software steht:

Der Initialisierungsvorgang kann je nach Anzahl und Größe der Festplatte eine Weile dauern. Während dieses Vorgangs können Sie weiterhin mit Array-Festplatten und anderen Anwendungen arbeiten. Das Schließen der Anwendung, Herunterfahren oder Neustarten des Computers hat keine Auswirkung auf diesen Vorgang.
 
Das hört sich ja gut an. Dann kann man offenbar doch den Rechner beim Initialisieren zwischendurch runterfahren. Ein Pluspunkt mehr für den Intel Controller. Falls du es ausprobierst würde mich mal interessieren ob das auch funktioniert, also ob er dann auch wirklich an der Stelle weiter macht statt wieder von vorne anzufangen.
 
Mir ist schon klar was damit gemeint war, ich hab mich nur an der prejorativen Formulierung gestört. Der Intel Controller ist schließlich durchaus auch ein "richtiger" Controller oder macht der irgendwas falscher als andere?

Hmm.. so wie "richtig" verstehe: wenn ich einen richtigen "Hardware RAID Controller" habe, dann benötige ich auch nur einen Treiber, mit dem ich die "logischen" Laufwerke des Controllers meinem OS bekannt mache. Dabei ist es egal was sich dahinter verbirgt, ob RAID 0,1,10,5,6,50,60... das erledigt der Controller ganz alleine! Bei den "falschen" Controllern erledigt einen Großteil der Arbeit der Treiber, nämlich aus verschiedenen Laufwerken ein RAID X zusammenzusetzen. Mit der Konsequenz, dass meine CPU einen Teil der Arbeit übernehmen muss, die sonst der Controller erledigt.
 
Das hört sich ja gut an. Dann kann man offenbar doch den Rechner beim Initialisieren zwischendurch runterfahren. Ein Pluspunkt mehr für den Intel Controller. Falls du es ausprobierst würde mich mal interessieren ob das auch funktioniert, also ob er dann auch wirklich an der Stelle weiter macht statt wieder von vorne anzufangen.

also absichtlich probieren werd ichs nicht, aber wenns nen stromausfall gibt werd ich Meldung machen!
 
Mit der Konsequenz, dass meine CPU einen Teil der Arbeit übernehmen muss, die sonst der Controller erledigt.

Über so ein bisschen XOR Rechnerei können heutige Multi-Core CPUs nur müde lächeln und ganz ohne Treiber funktionieren auch Controller mit XOR-Prozessor nicht, da ist es im Alltag eigentlich auch egal was der Treiber alles macht oder nicht macht. Der eigentliche Vorteil ist eher, dass die zusätzlichen Daten zur Berechnung der Parity bei einem Controller mit XOR-Prozessor nur bis zum Controller müssen und dort direkt verarbeitet werden können, wohingegen sie für die Berechnung mit der CPU erst mal dahin und dann wieder zurück müssen. Aber seit solche Controller über PCIe angebunden sind ist das auch nicht mehr so ein Flaschenhals wie früher zu PCI-Zeiten.

Edit: hier hab ich als Orientierung noch einen alten Benchmark von einem RAID-5 an einem ICH10R mit 6 WD10EADS (1TB Green Power) Platten. Die CPU war ein E8500.
 

Anhänge

  • IMR5_6xEADS_HDTpro.png
    IMR5_6xEADS_HDTpro.png
    18,8 KB · Aufrufe: 74
Zuletzt bearbeitet:
Über so ein bisschen XOR Rechnerei können heutige Multi-Core CPUs nur müde lächeln und ganz ohne Treiber funktionieren auch Controller mit XOR-Prozessor nicht, da ist es im Alltag eigentlich auch egal was der Treiber alles macht oder nicht macht. Der eigentliche Vorteil ist eher, dass die zusätzlichen Daten zur Berechnung der Parity bei einem Controller mit XOR-Prozessor nur bis zum Controller müssen und dort direkt verarbeitet werden können, wohingegen sie für die Berechnung mit der CPU erst mal dahin und dann wieder zurück müssen. Aber seit solche Controller über PCIe angebunden sind ist das auch nicht mehr so ein Flaschenhals wie früher zu PCI-Zeiten.

Solange es nur simples XOR ist, mag das stimmen. Aber im Normalfall hört XOR bei RAID 5 auf und mit 6 ist man dann bei Reed-Solomon. Ich bin gerade am Basteln mit einem ZFS-System und ich bin echt schockiert, was ein RAIDZ2 an CPU-Power kostet. Mein Dual-Core Athlon ist beim Schreiben über GBit-LAN zu 60% ausgelastet.
 
@x4u: Was hast du da bei dem Screenshot für eine Stripesize gesetzt?

@DarkDeveloper: Na freu dich doch das der CPU mal gefordert wird. Die meisten Prozessoren von Homeservern idlen sich eh zu Tode...
 
@x4u: Was hast du da bei dem Screenshot für eine Stripesize gesetzt?

@DarkDeveloper: Na freu dich doch das der CPU mal gefordert wird. Die meisten Prozessoren von Homeservern idlen sich eh zu Tode...

Mein nicht so kleines Synology NAS hat auch nur mit RAID 5 schon lange alle Viere von sich gestreckt:d
Aber es kommt zum Glück nicht so oft vor, dass ich größere Datenmengen rüberschaufeln muss.
 
Zuletzt bearbeitet:
Naja, für RAID-6 muss man aber schon ein leichten Hang zum Pessimismus haben und da werden dann ja auch noch mal mehr Daten durch die Gegend geschaufelt als bei RAID-5. Wer sowas will/braucht, wird auch das Geld für einen entsprechenden Controller zahlen wollen. ;)

@Lebedev: Die Stripesize war 64kB.
 
Raid 6 macht erst ab 10 Festplatten Sinn denke ich...

Sollte man die Stripesize und die Größe der Zuordnungseinheit identisch einstellen?
 
Lebedev schrieb:
Raid 6 macht erst ab 10 Festplatten Sinn denke ich...

Sollte man die Stripesize und die Größe der Zuordnungseinheit identisch einstellen?

Das würde ich eher unabhängig voneinander betrachten. Die Verwaltungseinheiten meines Filesystems orientiere ich daran, was für Daten ich dort ablegen möchte. Je größer die Dateien, desto größer können die Einheiten sein. Ansonsten verliert man unter Umständen zu viel Kapazität.
Die Stripesize orientiere ich daran, ob ich eher sequentiellen Durchsatz benötige oder Random IO. Wobei die beiden Faktoren durchaus zusammenhängen können.
 
Keine Ahnung ob man das sollte, aber ich habe bisher immer höchstens 4kB für NTFS verwendet weil darüber die NTFS Komprimierung nicht mehr funktioniert. 64 oder 128kB große Dateisystemblöcke halte ich aber schon für arg groß, außer man hat vor fast ausschließlich sehr große Dateien darauf zu schreiben.
 
hm, also bei meinem Kumpel sind es überwiegend HD Filme und DVD Images, also in der Regel ~10 GB Dateien.
Aber auch viel Kleinkram wie Serien wo jede Folge nen paar hundert MB groß ist.
 
Naja, alles über 1MB zählt in dem Kontext schon zu den großen Dateien. ;) Bei sowas stören größere Filesystemblöcke nicht und können sogar minimal bessere Performance und marginal mehr Plattenplatz bringen. Problematisch wird es wenn du außerdem auch viele Dateien mit wenigen Kilobytes Größe drauf speichern willst, denn (fast) egal wie klein die Dateien sind, sie brauchen jeweils mindestens einen Dateisystemblock. Außerdem bleibt auch bei größeren Dateien im Durchschnitt jeweils ein halber Block am Ende übrig und ist damit verschwendet. Nur bei ganz kleinen Dateien (wenige Bytes) macht Windows bzw. NTFS eine Ausnahme und speichert sie einfach direkt im Inhaltsverzeichnis.

Auf eine 2TB Platte bekommst du mit 4kB Blöcken z.B. 500 Millionen Dateien mit jeweils 1kB Größe und verschwendest dabei 75% des Plattenplatzes. Mit 64 kB Blöcken bekommst du von den gleichen Dateien nur noch 30 Millionen drauf und verschwendest schon 98,5% des Plattenplatzes.

Größere und somit weniger Blöcke bedeuten aber dafür weniger Verwaltungsinformationen und somit mehr Platz für Nutzdaten und auf Dauer logischerweise auch weniger Fragmentierung. Aber diese Effekte dürften im Alltag kaum spürbar sein. Du kannst es ja mal ausprobieren und benchen. Ich persönlich war bisher mit 4kB NTFS-Blöcken immer zufrieden, auch bei 10TB Partitionsgröße.
 
Am Ende bleibt aber wohl immer noch die miese Performance bei Schreibzugriffen. Selbst bei Vista udn Windows 7. Sowohl mit der 2TB als auch mit der 1TB-Version.

Ich habe deshalb zur WD20EADS gegriffen.
 
Selbst wenn richtig formatiert/gejumpered (egal ob unter XP oder Win7), EARS Reihe ist in manchen Fällen beim schreiben sehr langsam, vor allem mit kleinen Dateien. Der Grund dafür ist interne 512B Sektor Emulation.
Ein Winrar Test (8118 Datein Entpacken) zeigt das deutlich:

Roundup: New Hard Disk Drives with 1 TB and 2 TB Storage Capacities (page 15) - X-bit labs

RAID 5 kann so wieso Performance-einbüßen mit schreiben haben und dazu noch kombiniert mit o.g. Problematik ...
 
Zuletzt bearbeitet:
So, die Initialisierung des Raids ist nun endlich nach 54 Stunden abgeschlossen aber gebracht hat es gar nichts!

Allerdings nachdem ich diese Optionen aktiviert habe:

irstl5eo.png


siehts nun so aus:

hdtune2q5eh.png


hdtunet59k.png


Echt krasse Reaktionszeiten, aber immerhin nicht mehr nur 5-15MB/s Schreibrate...
Meint Ihr das ist akzeptabel oder soll mein Kumpel die Festplatten gegen andere tauschen?
 
Zuletzt bearbeitet:
Da man den Intel ICH10 Raidcontroller nicht mit einem "richtigen" Raidcontroller vergleichen kann, würde ich sagen das ist so ok und der Controler kann einfach nicht mehr.
Ansonsten müsste er zu einem Raidcontroller greifen der in einen PCIe 4-8x Slot gesteckt wird, und eigenen Cach und eine XOR Einheit hat.
Das mit dem besten PLV sind glaube immer noch die refurbished Dell Perc 5/i die es ab und zu bei Ebay gibt.
 
Also ein bisschen mehr sollte da schon noch gehen. Was mich etwas verwundert, ist das da bei Größe des physischen/logischen Sektors was von 512 Byte steht. Müsste da bei der EARS nicht was von 4kB stehen? Ich kenne mich mit den neuen 4kB-Sektor Platten nicht aus, aber vielleicht bremst da ja die 512 Byte Emulation. Auch dass das Initialisieren so lange gedauert hat ist suspekt. Aber das kann natürlich auch mit dem ausgeschalteten Cache zu tun haben. Ich stelle schon aus Gewohnheit bei neuen Platten für ein RAID immer gleich erst mal alle Caches an und das AAM ab bevor ich überhaupt anfange ein RAID zu erstellen. Solange der Server stabil läuft sind die Caches unkritsich. Nur ein Stromausfall ist heikel, aber da gehen dann sowieso Daten verloren wenn gerade geschrieben wurde. Mit angeschalten Caches gehen dann evtl. noch ein paar mehr kürzlich geschriebene Daten drauf.

Ich hab grad noch mal in alten Backups rumgesucht und dabei noch einen Screenshot mit Bechmarks von meinem 6fach WD10EADS RAID-5 mit dem ICH10R gefunden (siehe Anhang, der HDTune-Screenshot da drin ist wertlos, HDTune 2.55 hat mit dem RAID nur Murks gemessen). Das Initialisieren hat bei mir damals 14 Stunden gedauert. Die Zeit für's Initialisieren hängt vor allem von der Größe der einzelnen Platten ab, weniger von der Anzahl. Es hätte bei dir also in spätestens 28 Stunden erledigt sein sollen.

Falls du dich entschließt es noch mal mit anderen Parametern zu probieren, würde ich dir empfehlen erstmal zum Testen nur kleine RAIDs von vielleicht 100-200 GB zu erstellen. Die sind dann wesentlich schneller initialisiert.
 

Anhänge

  • IMR5_6xEADS.png
    IMR5_6xEADS.png
    80,6 KB · Aufrufe: 59
Also ein bisschen mehr sollte da schon noch gehen. Was mich etwas verwundert, ist das da bei Größe des physischen/logischen Sektors was von 512 Byte steht. Müsste da bei der EARS nicht was von 4kB stehen?

Die EARS Laufwerke melden sich alle mit 512 Byte Sektoren, damit sie voll kompatibel bleiben. Der ATA-Standard wurde auch nicht modifiziert, d.h. keine neuen Kommandos etc. eingeführt. Allerdings gibt es eine Erweiterung im Identity-Device. Dort ist einmal ein Bit reserviert, das anzeigt, das ein physischer Sektor auf mehrere logische aufgeteilt wird, und ein Bitfeld, das die Anzahl der logischen Sektoren pro physischem Sektor definiert. Die EARS scheinen nach meinen Recherchen diese Bits jedoch nicht korrekt zu setzen, so das selbst ein OS mit optimaler Unterstützung keine Möglichkeit hat, diese Platten korrekt zu adressieren.
 
also sind die Dinger schrott...

Lieber die Black Serie kaufen!
 
Die EARS Laufwerke melden sich alle mit 512 Byte Sektoren, damit sie voll kompatibel bleiben.

Aber kann man die nciht auch auf 4k stellen, also auch extern? Windows 7 sollte die ja so ansprechen können. Diese Emulation von 512b auf 4k so wird von einigen ja vermutet bremst die Platte.
 
Solange das Alignment stimmt, wird die Platte nicht gebremst. Lässt sich auch gut mit Iomerter nachvollziehen ("Align requests on...")

Bei SSDs ist es nicht anders (nur das manche Controller dort sogar ein falsches Alignment transparent korrigieren können).
 
Zuletzt bearbeitet:
Korrektes Alignment ist das A und O um die maximale Performance aus den Platten rauszuholen.
Wenn ich mit allerdings die teilweise unterirdischen Benchmark-Ergebnisse beim Schreiben sehr kleiner Files ansehe, muss da doch noch was anderes passieren. Möglicherweise schreibt Windows trotz 4k Clustergröße in NTFS doch weniger Sektoren am Stück, z.B. wenn die Daten kleiner als 4k sind und direkt in der MFT landen. Das würde dann natürlich zu vielen Read-Modify-Write Zyklen führen und die schlechten Werte erklären.

---------- Beitrag hinzugefügt um 11:04 ---------- Vorheriger Beitrag war um 10:51 ----------

Zum Benchen würde ich bei einem RAID auch auf IOMeter setzen. Mit HDTune habe ich da auch schon öfters Mist gemessen.
Was bei einem RAID evtl. noch zu Problemen führen kann, ist, wenn der Controller am Anfang der Platten einen Konfigurationsbereich reserviert. Je nachdem wie groß dieser ausfällt, könnte das natürlich ein ausgeklügeltes Alignment wieder zunichte machen. Mein 3Ware z.B. reserviert sich wohl genau 9MB am Anfang jeder Platte, das macht zum Glück beim Alignment keine Probleme.
 
und zu was sollte ich meinem Bekannten nun raten...?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh