RAID Controller für SSDs

Ja sicher, werd ich machen. Meine Infra Läuft jetzt auch ziemlich gut, nur ich hab halt im Hinterkopf immer das Mulmige Gefühl vom RAID0 und selbst mit Backups ist das ... naja
Also noch einmal Investieren, RAID10 und dann feddich.

Zum Testen hab ich noch andere Server :)

Hab jez auch nicht so die Zeit um da auf Benchmark Punkte etc. zu achten wie manche, will mich auf mein MCSA und MCSE Vorbereiten :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber auch dort habe ich das Problem - welches ich noch nicht verstanden habe. Wenn ich eine 50GB große VM von den SSDs auf das RAID6 koppiere, dann sind die ersten GB schnell und dannach 20-50 MB/s. Write Cache ist aktiviert, allerdings selbst mit Deaktiviertem im RAID Controller und in Windows ändert sich nichts. Das kann ich nicht so ganz nachvollziehen.
Die meisten Consumer SSDs sind bei Dauerschreibzugriff extrem lahm. Wenn man länger als eine 15-30 Minuten auf sie kontinuierlich schreibt, implodiert die IOPS Zahl dramatisch. Schau Dir bitte einen Server SSD Review als Vergleich an.

Bei den SSDs tendiere ich eher auf ein RAID10 umzusteigen, da ich schon die hälfte der Platten habe und mich jede weitere 180 kostet.
Mit hoher Wahrscheinlichkeit wird ein RAID10 Dein Problem nicht lösen. Schau erstmal nach wie häufig das System auf die SSD schreibt. Passiert dies kontinuierlich führt der Weg an einer Server SSD nicht vorbei.

Dieser Test dürfte sinnvoller sein als der erste Toshiba PX02SM Series Enterprise SSD Review | StorageReview.com - Storage Reviews
 
Zuletzt bearbeitet:
So, ich habe nun das RAID am laufen und hatte es mit Stripe Size 4k erstellt. Meine Überlegungen zur Stripe Size waren, dass ich möglichst viele IOPS erreichen möchte und deshalb die geringste Stripe Size wähle. Auch mit googlen kann ich wie seit je her nur schwer gute Infos zu dem Thema holen. Nachdem alle VM's umgelagert waren hab ich zwei VMs noch laufen und auf einer Hyper-V VM ein ATTO Benchmark gemacht. Ergebnis:

attomhszo.png

capturehbjqf.png


Das Migrieren von VMs vom RAID6 auf das RAID10 geht im vergleich zur anderen Richtung nicht all zu schnell. Also etwa ~100 MB/s würd ich sagen. Kann man ja aber sehen dass die Write Geschwindigkeit nicht der Hit ist. Kann ich da mit der Stripe Size noch dran rütteln bzw was würdet ihr Empfehlen?

PS: Das Intel Rapid Storage Tool um das RAID in Windows neu zu machen gibts noch nicht für Server 2012 R2 oder?
 
Zuletzt bearbeitet:
Ich weiß dass du drauf hingewiesen hast aber was soll ich denn bitte machen? Klar ich könnte jez auf S3500 oder S3700er umsteigen aber ich kann auch kein Geld scheißen und das ganze ist ein Home Server. Da laufen keine Kritischen Applications oder VMs. Test System und Heim Server wär schön(!) wenns fix läuft aber muss nicht zwangläufig.

Ich werd noch mal mit der Stripe Size rumtesten. Ggfs. ändert sich da etwas.
 
Ich weiß dass du drauf hingewiesen hast aber was soll ich denn bitte machen?

Was du machen sollt? Ganz einfach, dich mit der eingeschränkten Geschwindigkeit arrangieren. Ich habe zwei WD Reds im Raid 1 als VMPool und je nachdem von wo nach wo ich kopiere bei laufenden VMs auch nur 50-100 MB/s. Das ist einfach mal ein Fakt und daran wird sich auch nicht ändern solange man keine Enterprise SSDs oder Festplatten mit entsprechender Anzahl und Konfiguration nach den Anforderungen der VMs einsetzt. Wenn man wie du nicht soviel Geld hat oder wie in meinem Fall nicht soviel Geld investieren will unter Berücksichtigung des Einsatzgebietes (es ist nun einmal ein nur ein Homeserver), dann muss man diese, wie ich finde doch verschmerzbare Einschränkung halt einfach hinnehmen. Die VMs laufen bei mir dank Cache flott und das ist die Hauptsache. Mich stört das nicht, wenn die paar Kopiervorgänge, die ich vom Fileserver auf die VMs oder zwischen den VMs mache mit 50 statt z. B. 300 MB/s laufen. Es kommt bei mir wirklich so selten vor, dass riesige Files kopiert werden, da sehe ich einfach nicht ein warum ich soviel Geld in SSDs stecken soll aber kaum einen Vorteil davon habe.
 
Zuletzt bearbeitet:
Ja ich werde mich damit arrangieren. Es ist wie es ist aber jetzt ist die Verfügbarkeit zumindest gewährleistet. Ich werd noch Optimierungen suchen aber langsam wär's alles in allem eigentlich nicht...
Passt.
 
Nutzt du jetzt eine SSD als Cache oder hast du lediglich ein RAID10 von 4 Festplatten?
 
Dann kann deine Schreibgeschwindigkeit niemals stimmen. Ich hatte letztens 4x 7200rpm HDDs im RAID10 und schaffe über 400MB/s im seq. schreiben. Das sollte mit SSDs besser klappen. Stripe Size war glaube ich 64k, bin aber nicht sicher.
 
@NiclasM

Hast Du nicht auch bei Delwi bestellt ? Nutzt die aktuell für das hier erwähnte Serversystem ?
 
Hatte ich, allerdings verwende ich mit den SSDs ein X10SLL-F mit Intel Xenon 1230v3 und 32GB DDR3 ECC
 
Hmm, versteh ich jetzt aber nicht so ganz. Wenn ich schon für "echte" Serverhardware Geld ausgebe warum dann nicht auch Profi-SSD's für den Serverbereich kaufen. Also ich sag immer "ganz oder gar nicht". Halbe Lösungen sorgen immer für irgendwelche Unzufriedenheiten
 
Die verbaute Backplane hat aber nur 3Gb/s; damit bremst Du die SSD´s natürlich enorm aus !
 
Enorm?
3 Gbps sind doch etwa 360MB/s Brutto, und das mal 4. Dabei geht's aber nur um die Sequenzielle Übertragung. Ich werd die Stripe Size mal hochsetzen auf 32k oder 64k.
 
Die hast 4 SSD @ Raid 10. Du *verschenkst* pro SSD knapp die hälfte an Geschwindigkeit. ( Brutto )
Im gesamten wird man das sicherlich benchen können und auch praxisnah ist der Verlust an Durchsatz nicht zu vernachlässigen.
In meinen Augen ist der Flaschenhals die Backplane und nicht das Board.

Hast Du die SSD im Chassis verbaut ?
Wenn ja: Bau sie aus und häng sie mal direkt an den SAS Anschluß, oder onboard SATA ohne die Bremse über die Backplane.
 
Zuletzt bearbeitet:
Natürlich *verschenke* ich die hälfte, aber dafür habe ich eine durchaus erhöhte Verfügbarkeit bei Ausfall.
Werd ich mal testen denn ich Zeit habe.
 
Mach das !
Du kannst die SSDs ja auch oberhalb der Der Backplane ablegen und dann entsprechend verkabeln.
( hab ich auch so )
 
Ich weiß dass du drauf hingewiesen hast aber was soll ich denn bitte machen?
Die SSDs aufteilen und nicht im RAID 10 laufen lassen? Das Problem sind die konkurierenden Zugriffe auf die Devices. Damit sinkt die Zahl der IOPS pro SSD ab, und es könnte besser werden.
 
Von welcher Backplane reden wir denn hier? Sorry, aber ich sehe leider nirgendwo, um welche es genau geht. Es kommt auf den genauen Aufbau der Backplane im Detail an, aber oft können alte Backplanes auch mehr als 3 GB/s. Wenn es eine Backplane ist, die direkt SATA Steckern an den Festplatten Anschlüssen hat, dann wird die wohl kaum auf 3 GB/s beschränkt sein, auch wenn sie offiziell nicht dafür ausgelegt ist. Bei so kurzen Signalwegen ist das den Leitungen egal, welches Protokoll darüber geht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh