Unterschiedliche hdd-Cache-Größe in einem RAID-Verbund relevant?

pf1

Neuling
Thread Starter
Mitglied seit
16.07.2013
Beiträge
28
Hallo.

Vor mir liegen fünf 2TB-WD-hdds:
- 3x WD20EARS (64MB Cach)
- 1x WD20EARX (64MB Cach)
- 1x WD20EACS (16MB Cach)
Alle stammen aus optisch identisch aussehenden externen WD-USB2-Gehäusen (alle gekauft vor der "Flut" 2011), entsprechend verwundert war ich über die Modell-Streuung.

Meine Frage:
Spielt es in einem Raid-Verbund OS- und dateisystemunabhängig eine Rolle, ob auch der Festplatten-Cach einheitlich groß ist?

Mein Dank im Voraus. ;-)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Je nach dem, was du für Settings fährst, unter Umständen ja...
Denn bei aktivem HDD Cache in den Raidoptionen wird die mit 16MB unter Umständen den Speed limitieren.
 
"mehr" als Performance Nachteile wird das denke ich nicht geben
 
Angedacht ist erst einmal ein 6hdd NAS4Free-Server mit ZFS-Dateisystem.

Einen Performance-Nachteil mit langfristig erhöhtem Ausfallsrisiko der 16MB-Cach-HDD durch Mehrbelastung würde ich auch annehmen.
Die Chaches bei alles Festplatten zu deaktivieren, dürfte bei allen zu einer noch höheren Mehrbelastung und Ausfallrisiko führen.
 
mehr belastet wird da eher nichts... Zumindest kann man das nicht so benennen... -> der Cache ist ja nur dafür da, als schneller Zwischenspeicher zu arbeiten. Und wenn die eine HDD dort weniger hat, werden die Daten halt schneller/eher auf die Platte geschrieben. Nur das passiert so oder so immer irgendwann, egal wie groß der Cache ist.
Es wird wohl eher so sein, das beim Schreiben auf die HDDs eben diese 16MB Cache Version den Schreibvorgang etwas einbremst. Wenn du beispielsweise immer wieder die gleichen Teilbereiche beschreibst/liest, müsste die 16MB Version eben dort mehr Daten direkt von den Platters holen. Wärend die anderen viermal mehr Daten im Cache behalten können.
 
Rein aus der Theorie würde ich sagen kann das Array u.U. deutlich langsamer werden.
Wenn es blöd läuft, warten die Platten mit dem großen Cache auf die kleine genau so lange, dass der Lesekopf gerade am nächsten freien Sektor vorbei ist/war.
Also sprich die großen Platten drehen natürlich weiter und gerade wenn die kleine Meldet "es kann weiter gehen" ist der freie Sektor der großen Platten am Lese-/Schreibkopf schon vorbeigedreht und man muss im worst-case noch fast eine ganze Umdrehung warten.

Wie gesagt, alles Theorie. Ganz falsch liege ich damit bestimmt nicht, ob man es durch die ganzen Caches in Platten und Controller gepaart mit den hohen Umdrehungen der Platte überhaupt merkt ist die andere Frage...
 
Es gibt keine weiteren Auswirkungen, ausser die der etwas schlechteren Performance. In wie Weit das diese wirklich beeinträchtigt, kann keiner sagen, da dazu so eine Konstellation mal getestet werden müsste. Ich denke, wenn es sich nur um eine Test- und Entwicklungsumgebung für dich selbst handelt, gibt es keinen Grund der gegen den Einsatz der Platten im RAID spricht ;-)
 
Ja dazu passend noch eine Frage.
Ich überlege mir folgende Platten zu holen:
4x Seagate Momentus XT 500GB, SATA II (ST95005620AS) Preisvergleich | Geizhals Deutschland
für ein RAID-5 Array für VMs als Anbindung übers Netzwerk. - Ist es dann sinnvoller ein Software-Raid5 zu machen oder ein Hardware-RAID5
welchen Performance-Vorteil bekommt man davon? - oder bringt das so eigentlich garnichts und eine riene Caching-SSD wäre hier sinnvoller?

sonst schon wer Erfahrung zu den Platten im Raid?
 
Also ein Hardware-RAID ist einem Software-RAID je nach Anwendungsfall deutlich überlegen.
Bei einem Software-RAID wird die Steuerung und Berechnung von der CPU übernommen, die nebenbei noch eine Menge andere Aufgaben übernehmen muss. Beim Hardware-RAID wird die Berechnung dediziert vom RAID-Controller übernommen. Etwas simpler Vergleich ist die Grafikberechnung, die auf einer dedizierten Grafikkarte deutlich schneller ist, als wenn diese durch die CPU (ohne Grafikeinheit) mit übernommen wird.

Für deine Anforderungen im Bereich der Virtualisierung würde ich zunächst das Hardware-RAID bevorzugen, aufgrund der genannten Performance.
Außerdem solltest du von einem RAID 5 Abstand nehmen. Bei einem RAID 5 aus 4 Platten, hast du nur 3 Platten verfügbar. Die 4. wird für die Berechnung der Paritätsdaten reserviert. Das kostet ordentlich Performance. Wenn du Virtualisieren willst, solltest du über ein RAID 10 nachdenken. Du benötigst viel Leseperformance und ausreichend Schreibperformance. RAID 10 bietet dir beides und gerade in Virtualisierten Umgebungen stärker verbreitet.
RAID 10 bedeutet leider auch 50% Kapazitätsverlust, RAID 5 25% Kapazitätsverlust.

Letztendlich musst du deine Anforderungen (welche Hypervisor, was für eine Art von VMs) besser eingrenzen um das passende RAID-LEvel auszuwählen. Ein kleiner Vergleich zwischen RAID 5 und RAID 10.
 
Zuletzt bearbeitet:
Also ein Softwareraid muss nicht per se langsamer sein, als ein Hardware Raid...
Denn es kommt schlicht auf die Konstellation an. Und ebenso, was man für "Software" verwendet.

Ein Windows Softwarraid ist oftmals grottig lahm. Wärend beispielsweise ein Softwareraid durch nen Controller (und dessen Treiber) durchaus fix sein kann.

Auch zählt massiv, was an Cachesettings eingestellt ist. Beispielsweise ist ein Hardware Raid im Write Through Mode idR auch grottig lahm. Den Write Back Mode erkauft man sich durch den Cache auf dem Controller -> gleichzeitig erhöht sich aber das Risiko massiv bei einem Stromausfall nur noch Datenmurks zu haben. Nämlich wenn die Daten, die im Cache lagen nicht mehr auf die Platten geschrieben werden können.

Unterm Strich kommt es aber auch noch dazu drauf an, was man für Hardware verwendet. Wer beispielsweise vier (oder mehr) schnelle SSDs im Raidverbund betreibt, braucht schon einen sehr fixen und anständigen Controller um die Datenmengen zu bändigen.
Wohingegen ein Softwareraid hier oftmals keine Grenzen setzt, denn dort reichen simple Controllerkarten mit anständiger Anbindung an den Rest des Systems (PCIe, möglichst neu und breit).
Je nach Raidlevel bietet hier zwar der Hardware Controller mit eigener XOR Einheit mehr Bumms bei der Paritätsdatenberechnung -> bringt einem nur nix, wenn die Karte intern limitiert :fresse: oder die Anbindung zu schmal ist.
Und nutzt man keine Paritätsdatenberechnung (Raid 1, 10) so macht die XOR Einheit des Controllers sowieso nix.
 
Naja, ich hab nen Controller mit BBU als auch ohne BBU - P400 sinds.
-> als OS soll entweder Openfiler oder FreeNAS zum einsatz kommen, die Frage ist halt, ob jemand mit diesen SSHD's schon mal Erfahrung gemacht hat? - bringt der Extra SSD-Cache etwas, oder ist es ggf. sinnvoller eine Caching-SSD ins System einzubauen? - reine SSDs für den VMware Speicher wäre auch noch eine Möglichkeit aber nicht zwingend notwendig.

Und ja, es wird ein RAID5 werden - ggf. auch ZFS RAID-Z1 - werd ich mir dann eben nochmal anschauen, doppelte Parität brauch ich eigentlich nicht, und ob ZFS dafür soviel besser ist weiß ich nicht - bei der Dateiablage auf jedenfall.

Betreiben werd ich darauf auch nur die Infrastrukturdienste - Die Dateiablage ist direkt auf dem Filer geregelt. - ich brauch kein AIO-Wunder - lieber dann 2 oder 3 ESXi noch, und ein zentrales Storage (plus Backup-Storage) - aber die Backup-thematik ist was anderes.

also, wie schauts mit den Disks nun aus?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh