LSI MegaRaid und Dell Perc 5/6 SAS/SATA PCIe [5]

Für die Liste: Gigabyte GA-890GPA-UD3H mit dem Perc 5i funktioniert ohne Pinmod.
edit: im 1sten x16 pcie slot
lg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Perc 5i: Win 7 bootet nicht mehr mit GPT-Platte im System

hi!

hab seit kurzem einen Perc 5i mit 8x 2TB platten als raid5 im einsatz. gesplittet ist das array (controllerintern) in folgende virtuelle laufwerke:

VD0 = 500gb (MBR, System, Aktiv)
VD1 = 500gb (MBR)
VD2 = 500gb (MBR)
VD3 = 12TB (nicht initialisiert)

solange VD3 nicht mit GPT initialisiert ist, lässt sich wunderbar windows 7 vom perc5 starten. sobald ich sie aber mit GPT initialisiere kommt beim booten der fehler "disk boot failure. insert system disk..."
als boot-platte ist die VD0 im perc5 ausgewählt.

board ist ein DFI X38 ohne UEFI

jemand ne ahnung woran das liegt?
 
Zuletzt bearbeitet:
als boot-platte ist die VD0 im perc5 ausgewählt.

[...]

jemand ne ahnung woran das liegt?

Dell-Bios? Ändere mal das Boot-Laufwerk in VD1, 2 oder 3. Gab da mal nen Bug, daß der Controller die VDs durcheinandergewürfelt hat, und von einer anderen bootet, als eingestellt ist...
 
ja, hab atm das aktuelle dell bios drauf. mit dem aktuellen lsi bios gibts das problem so aber auch.

die boot-VD im controller wechseln werd ich mal versuchen. hab da aber nicht viel hoffnung, wüsst nicht wieso es dann geht, wenn die platte nicht initialisiert ist - dürft für den controller ja egal sein, oder?
 
hab da aber nicht viel hoffnung, wüsst nicht wieso es dann geht
Weil es ein Bug ist! Vertraue den Experten.

Ich hatte auch mal 2 VDs. Habe ich VD1 eingestellt, so hatte er versucht von VD2(GPT) zu booten. Habe ich aber VD2 eingestellt, so bootete er korrekt von VD1. Wie das bei 4 VDs ist weis ich nicht. Einfach mal alle 4 durchprobieren.
 
Zuletzt bearbeitet:
Hat jemand Erfahrungen mit diesen Platten !?? Seagate Barracuda Green 5900.3 2000GB, SATA 6Gb/s

Außerdem würde mich mal interessieren welche Firmware man am besten nutzen sollte..... So wie ich das jetzt verstanden habe sollte man bei über 4TB eine Dell nehmen ist das richtig !??
 
Zuletzt bearbeitet:
Mein Raid ist seit heute *degraded* da Platte Nr.1 scheinbar defekt ist. Werde das Raid dennoch weiter laufen lassen, mir eine 2TB-Platte (Hitachi Deskstar 7K3000 2TB) bestellen und die Daten sichern.

Keine Ahnung ob die Platte ein Schuß hat, oder evt. ein Kabeldefekt besteht. Ich werde aber unabhängig vom Plattenbefund, demnächst alles auflösen und verkaufen.
 
Zuletzt bearbeitet:
so hier mal ein update zum bootproblem:

wenn man 2 VDs hat, eine MBR und eine GPT, dann gibt es tatsächlich den bug, dass man die VD mit GPT auswählen muss, damit von der VD mit MBR gebootet wird.
hat man allerdings mehr als 2 VDs, so klappt dieser trick nicht mehr - ein booten ist nicht mehr möglich, egal welche VD im controllerbios ausgewählt ist.

vielleicht sollte man das mal im 1. post ergänzen...

und danke für den hinweis :)
 
Ich würde an deiner Stelle das Ganze eh anders aufziehen .. OS+Programme komplett auf eine eigene HDD packen, das stört nur auf dem RAID. Denn dahin gehören mMn nur Daten bzw. das Datenlager.
Mit einem großen RAID Set lässt sich zu dem einfacher arbeiten .. Stichwort Migration und Partition verändern.
 
Zuletzt bearbeitet:
naja die problematik seh ich jetzt nicht so. schließlich ist es ja nur ein raidset, das in "partitionen" bzw. virtuelle festplatten unterteilt ist.

und performen tut das raid auch wesentlich besser als eine einzelne festplatte!
 
Hallo Leudde... ;)

Was macht ihr eigentlich bzw. worauf achtet ihr, wenn ihr euren LSI Megaraid firm- und softwaremäßig aktualisieren wollt? Da gibt es ja eine ganze Latte an Auswahl- und Kombinationsmöglichkeiten, also Firmware, Treiber und StorageMananger. Leider hatte ich wohl zu Anfang genau in die *piep* gegriffen...

Optimistisch wie ich war, habe ich mir natürlich die letzten Versionen mit den höchsten Versionsnummern usw. aus dem massigen Angebot rausgepickt.

Konfig: Server2K8 R2, LSI 9260, Raid1@2x 5K3000, 64K-Stripes

Meine 1. Wahl:

Firmware 12.12.0-0048 (APP-2.120.63-1242), 15-APR-11
Treiber 5.1.78, 04-MAR-11, SIGNED
StorageManager 9.00-01, 11-MAR-11

Ergebnis der 1. Wahl: Vergleichsweise schlechte Leseraten, vor allem bei Atto, h2testw-Probleme ("Datenträger schneller als erwartet voll!), trotz keiner Raid-Fehler laut LSI-SM... Screenshots s.u.

Meine 2. Wahl:

Firmware 12.12.0-0048 (APP-2.120.63-1242), 15-APR-11
Treiber 4.33, 04-MAR-11, UNSIGNED
StorageManager 9.00-01, 11-MAR-11

Ergebnis der 2. Wahl: Deutlich bessere Leseraten, h2testw läuft noch...

Also irgendwie können die bei LSI doch nicht ganz knusper sein, am selben Tag einen signierten und unsignierten Treiber rausbringen, wobei der unsignierte auf den ersten Blick deutlich schlechter ist... Vor allem: Wie soll sich "Otto-Normalverbraucher" da zurechtfinden, wenn man als halbwegs versierter Anwender da schon Probleme hat...? Das ist ja fast wie Glücksrad, um eine ordentliche Softwarekombination zu bekommen. Kennt eigentlich jemand den Unterschied zwischen "Megaraid Release 4.6" und "Megaraid Release 5.0" Muss/sollte man da immer nur Software einer Version verwenden, kann man das mischen oder wie ist das eigentlich...? Auf diese Frage findet man leider keine Antwort...
 

Anhänge

  • 1. Wahl.png
    1. Wahl.png
    8,8 KB · Aufrufe: 84
  • 1. Wahl 2.png
    1. Wahl 2.png
    16,8 KB · Aufrufe: 88
  • 1. Wahl 3.png
    1. Wahl 3.png
    14 KB · Aufrufe: 80
  • 1. Wahl 4.png
    1. Wahl 4.png
    18,1 KB · Aufrufe: 74
  • 1. Wahl 5.png
    1. Wahl 5.png
    6,2 KB · Aufrufe: 98
Hier die ersten Screens der 2. Wahl...
 

Anhänge

  • 2. Wahl.png
    2. Wahl.png
    16,7 KB · Aufrufe: 83
  • 2. Wahl 1.png
    2. Wahl 1.png
    17,2 KB · Aufrufe: 77
  • 2. Wahl 2.png
    2. Wahl 2.png
    8,9 KB · Aufrufe: 83
  • 2. Wahl 3.png
    2. Wahl 3.png
    13,8 KB · Aufrufe: 77
hat jemand eine ahnung ob man bei der LSI firmware vom perc5 die bootzeit noch irgendwie verringern kann außer durch die beiden spinup befehle im megacli?

bin da auf folgendes über google gestoßen:

disableBootCLI = 0 # 0=enable pre boot CLI tool, 1=disable pre boot CLI.
delayPOST = 0 # intentional delay to be introduced during FW POST. Possible coded values: 0 to 7,which gives a value of 0,15,30,45,60,75,90,105 seconds

sollen irgendwelche einstellungen in einer .ini sein...
 
Zuletzt bearbeitet:
Erfahrungsbericht PERC 6/E

Hallo PERC-User und LSI Fans ;)

Ich hab viel durch diesen Threat gelernt, deswegen möchte ich auch mal was zurückgeben.

Konkret geht es um einen Erfahrungsbericht zum PERC 6/E mit allem drumm und dran, inkl. RAID5 Erweiterung mit zusätzlicher Festplatte.

1. Stabilität
Ich hab den PERC seit nun fast einem Jahr auf einem ASUS P5W-DH Deluxe ohne PIN-Mod am laufen. Angefangen habe ich mit 3x2GB Festplatten:

Seagate ST32000542AS (bisher keine Probleme trotz aktiviertem Patrol Read!)

Performance war steht's gut.

Nun wurde Ende März die 4TB voll und ich musste entweder nen neues Raid aufbauen oder das bestehende erweitern. Da ich kein 2.Raid hab, welches ich für einen Backup heranziehen konnte, musste die Erweiterung mit einem Rebuild klappen. Als Student hatte ich auch kein Geld für 3 neue Festplatten, also gabs nur eine Lösung:

Raid um eine Festplatte erweitern.

Es wird überall davon abgeraten, und die Daten waren mir nun auch nicht gerade egal. Außerdem sollte man immer ein Backup machen, wenn man es kann. Habs ohne gemacht und nach knapp 48h war es geschafft.

Hier eine kleine Anleitung mit dem neue LSI MegaRaid Storage Manager:

Voraussetzungen:
- Betriebssystem sollte nicht auf dem Raid laufen, wenn das der Fall ist, andere Festplatte einbauen und dort ein kleines Win installieren.

- neustes LSI MegaRaid-Storage Tool installieren

- neustes Firmware-Update fürn Controller aufspielen. Vorher aber die Raidconfiguration abspeichern!

Vorgehensweise:

1. In der Computerverwaltung von Windows unter Datenträgerverwaltung die Raidfestplatte Offline stellen. Menüpunkt findet man mit rechte Maustaste auf Datenträger xyz => Offline

2. Im LSI Storage-Manager unter Logical mit der rechten Maustaste auf "Drive Group 0" => "Modify Drive Group" Hier öffnet sich dann der Assistent.

3. Dann auswählen, in was ihr Rebuilden wollte. Ihr müsst so oder so hier eine Angabe machen. Man kann so auch ein Raid5 in ein Raid6 Konvertieren. Wenn ihr beim Raid5 bleiben wollte, einfach Raid5 angeben.

4. Festplatten auswählen, die hinzugefügt werden sollen.

5. Finish. Nun müsst ihr nur GAAAAANZ viel Geduld haben und ihn machen lassen. Dabei kann man unter dem Reiter "Dashboard" sehen, wie weit er ist.

- Stromausfall ist tödlich! Außer ihr habt ne BBU und alles funktioniert! -

6. Nach dem Rebuild einfach im Datenträgermanager von Windows Platte wieder online stellen und die bestehenden Partitionen erweitern. Geht bei Windows mit einem Assistenten.

FERTIG


Falls ihr Fragen habt, schreibt mir ne PM. Ich kann nur sagen, der PERC ist super und ein sehr robuster (Datensicherer) Raidcontroller!

Gruß,
Steffen
 
Hmm...hat niemand mehr einen 9260? Ist doch kein schlechter Controller... Also wie der h2testw-Fehler zustande kam, weiß ich bisher nicht... Jetzt tritt er jedenfalls nicht mehr auf. Ob da Windows im Hintergrund was gemauschelt hat...

Was mich aber etwas wundert, ist, warum die Hitachis bei 128Kb bis 512Kb etwas einbrechen. Das kann man auch nur am Atto sehen. Es ist zwar nicht dramatisch, aber sichtbar. *wunder*
 
@mediajunkie

klasse freut mich, dass alles geklappt hat, allerdings hättest Du Dir das off- und online stellen sparen können UND Du hättest sogar mit den Daten während der Erweiterung arbeiten können :) die sind weiterhin verfügbar.
 
naja die problematik seh ich jetzt nicht so. schließlich ist es ja nur ein raidset, das in "partitionen" bzw. virtuelle festplatten unterteilt ist.

und performen tut das raid auch wesentlich besser als eine einzelne festplatte!

Es gibt noch ein Vorteil wenn man nur eine VD hat. Man kann das Raid erweitern, also 1,2,... Platten anschließen, Rebuild und man hat ein größeres Raid. Hat man 2 VDs, so geht das nicht.

Zu dem Beschleunigen des Bootvorganges. Da fällt mir nur ein Strg+E drücken wenn dieses PowerEdge.. sichtbar ist. Der überspringt dann die Platten einzubinden. Wenn Windows hochfährt werden die dann aber natürlich erkannt. Klar geht das nur wenn man eine separate Boot Platte hat, also bspw von SSD bootet.
 
Es gibt noch ein Vorteil wenn man nur eine VD hat. Man kann das Raid erweitern, also 1,2,... Platten anschließen, Rebuild und man hat ein größeres Raid. Hat man 2 VDs, so geht das nicht.

ich vermute (!) mal, dass es mit mehreren VDs auch möglich ist, das array zu erweitern. man muss dann halt für jede VD einen seperaten rebuild machen.

und vom perc booten find ich mittlerweile ganz nett. von der performance zwar lang nicht so gut wie mein revodrive (welches nicht sauber mit dem perc5 zusammen lief), aber trotzdem deutlich schneller als eine einzelne 7200upm platte - für mich völlig ausreichend (video-encoding, paar games).


welche stripesize würdet ihr eigentlich für ein raid5 mit 8 platten jeweils für OS bzw. datengrab (eher größere files) nehmen?
nach längerem rumprobieren mit verschiedenen stipesizes und clustergrößen bin ich mittlerweile soweit, dass ich sagen kann 1MB stripe ist am besten und die clustergröße ist ziemlich egal und sollte daher nicht zu groß gewählt werden.
 
Zuletzt bearbeitet:
Ich vertrete die Meinung, dass das OS nichts auf dem RAID verloren hat.

Deine Aufteilung ist sogar eher kontraproduktiv .. das System arbeitet eigentlich immer irgendwie auf der HDD bzw bei der dem RAID herum und stört so die anderen Volumes.
Die Leseköpfe können halt nicht an zwei Stellen gleichzeitig sein.
Parallel arbeiten wird so fast unmöglich .. schonmal einen Virescan laufen lassen und versucht nebenbei ein Programm zu starten und Daten zu kopieren :fresse:
Mehere Volumes auf einem RAID Set sind dazu noch extrem unflexibel in der Handhabung .. das eine ist irgendwann zu klein und auf dem anderem ist noch TB-Weise Platz.

RAID Migration bei mehreren Volumes war soweit ich mich erinner nicht möglich.

Stripe-Size für RAID sind je nach Anwendungsgebiet unpassbar .. da die meisten aber ein RAID für große Dateien oder direkt als Datenlager nutzen wird hier auch ca 128-256k empfohlen, um eine gute Aufteilung der Daten zu erhalten.
Die Cluster-Size bzw Größe der Zuordnungseinheiten vom NFTS File-System sollte man auf default (4096 Byte) belassen. Das wird erst interessant, wenn man Partitionen größer 16TB erstellen will.

Meine Empfehlung:
SSD für Windows und Programme
Perc = RAID5 über alle HDDs mit großem GPT Volume als Daten- bzw. Arbeitstorage (Ordner sind deutlich flexibler als Partitionen und von der Ordnung macht das keinen Unterschied)
Wenn du viel video-coding betreibst wären 2x RAID5 aus jeweils min. drei HDDs deutlich optimaler um von RAID zu RAID Daten schieben zu können.
 
Deine Aufteilung ist sogar eher kontraproduktiv .. das System arbeitet eigentlich immer irgendwie auf der HDD bzw bei der dem RAID herum und stört so die anderen Volumes.
Die Leseköpfe können halt nicht an zwei Stellen gleichzeitig sein.
Parallel arbeiten wird so fast unmöglich .. schonmal einen Virescan laufen lassen und versucht nebenbei ein Programm zu starten und Daten zu kopieren

ich versteh schon was du meinst, aber 99% der zeit wird nur ein client auf die daten bzw. die platten zugreifen. daten kopieren auf dem gleichen array läuft mit 150-200mb/s, für mich mehr als genug. selbst mit virenscan (der eh nicht lang dauert), ist die performance gut.

Mehere Volumes auf einem RAID Set sind dazu noch extrem unflexibel in der Handhabung .. das eine ist irgendwann zu klein und auf dem anderem ist noch TB-Weise Platz.

RAID Migration bei mehreren Volumes war soweit ich mich erinner nicht möglich.

ich hab die VDs schon so eingeteilt, dass sie mir lang genug reichen. 500gb für OS, programme, games und arbeiten (encoding) reicht mir dicke. der rest ist vorsorglich truecrypt verschlüsselt, deshalb kann ich die platte auch nicht wirklich zum arbeiten verwenden (miese leseperformance - schreibperformance super, warum auch immer).
migration ist für mich kein thema, hängen ja schon 8 platten dran. und wenn ich mal "aufrüste", leih oder kauf ich mir nen perc5 zum rüberziehen aufs neue array.

Stripe-Size für RAID sind je nach Anwendungsgebiet unpassbar .. da die meisten aber ein RAID für große Dateien oder direkt als Datenlager nutzen wird hier auch ca 128-256k empfohlen, um eine gute Aufteilung der Daten zu erhalten.

ich hatte erst die aktuelle dell firmware, die nur 128kb erlaubt - und miese performance beim kopieren. mit 1MB stripe (und wechsel auf lsi 7.0.0-0051) hat sich die geschwindigkeit etwa verdreifacht bis vervierfacht.
momentan hab ich fürs OS und das datengrab 1MB stripe und kann von VD0 auf VD1 mit ~145mb/s dauerhaft kopieren (bereinigt = ohne gespeicherte daten im perc-cache).
 
Womit hast du das denn eigentlich gemessen während der 128k Stripe-Size?
HD Tune Pro -> Block-Size in den Benchmark Einstellungen auf 8MB hoch geschraubt?!
 
jetzt wo du es sagst...

ich weiß ehrlich gesagt nicht mehr womit ich das gesehen habe. als hauptübeltäter der verlangsamung hat sich nämlich im nachhinein teracopy herausgestellt (das programm bremst echt höllisch!).

ich hatte zu testzwecken 4 VDs erstellt, je 10GB. je zwei mit 128kb stripe und 1MB stripe. kopieren war von 1MB auf 1MB stripe am schnellsten, von 128kb auf 128kb wars langsamer (glaube so um die 40mb/s weniger).
werte im HDTune waren total komisch (nur eine der VDs hatte 350mb/s, die anderen ca. 70mb/s), ziemlich egal bei welcher blocksize. nur atto hat "realistische" werte bei allen VDs angezeigt.

aber was ich sicher sagen kann: allein der wechsel von dell auf lsi firmware hat die performance erhöht (zumindest laut atto, speziell bei kleiner blocksize).

...du hast nicht zufällig ne idee warum ich vom truecrypt volume nur mit ca. 80mb/s lesen kann, aber mit rund 250mb/s schreiben? liegt das evtl. an der höheren I/O rate, die durch den schreibcache bedingt ist?
 
Zuletzt bearbeitet:
Der Cache wird schon eine Menge auffangen, insbesondere wenn es kleine Blöcke sind, die er erstmal sammelt um diese dann in einem Rutsch wegzuschreiben.
Welche Platten hast du denn am Perc hängen?
Wie sieht der Rest der RAID Settings aus?
 
sind 8x 2TB samsung F4 mit 5400upm

settings der VDs sind immer "write back" und "adaptive read ahead". bbu ist installiert und funktioniert (d.h. write back ist aktuelle richtlinie).

auf dem alten linux-sys mit kernel-raid5 aus 4 platten und verschlüsselung gabs auch miese performance (35mb/s schreiben und 65mb/s lesen). schreiben mit "schluckauf" ggf. wegen dem write back - aber hier war wenigstens die leserate nicht so komisch niedrig...
 
Hej Leute.. seidem mein NAS gegen voll geht, gehen mir immer Partitionen verloren..

die Daten sind durchweg mit Testdisk oder auch R-Studio lesbar, aber Windows erkennt sie nicht mehr... ist ein selbstbau mit 6x2 Tb und Windows 7.. Perc 5i... 9,3 Netto/ über 8Tb belegt.. hat jemand eine Idee?

Das NAS lief ein Jahr ohne Probleme.. vor 2 Wochen waren sie weg.. hatte sie mittlerweile wieder hergestellt und nun sind sie wieder weg, nachdem ich das NAs nach der Arbeit gestartet habe.. der Controller zeigt keine Fehler und im Grunde sind alle Daten vorhanden und auch lesbar wiederherstellbar.. wodran kann das liegen?
 
Brauch keiner hier einen intakten Dell Perc 5i, die Datensicherung ist abgeschlossen. Mache den Verbund platt, und checke die Platte Nr.1 die *defekt* sein soll.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh