[Sammelthread] Adaptec 5405/5805 und 2405

Hallo,

also ich habe den Kontroller auf dem MSI 975 PowerUP Editition Board nicht zum laufen bekommen, der Adaptec Support hat nur gemeint man solle das neueste Bios für Board und Kontroller verwenden, das hatte ich aber schon, und mich dann an MSI verwiesen.

Mitterweile habe ich Board CPU und RAM gewechselt und ein neues Problem.
Board ist jetzt ein MSI P54D3 Platinum mit 2x2GB Corsair, und einem Q9550 Prozessor.

Im Spiel TF2 habe ich jetzt plözlich Ruckler, alle paar Sekunden und immer dann wenn ein neuer Sound der vorher noch nicht gespielt wurde auftaucht, wie z.B. nachladen... dann Freezed das Bild ca. 0,5-1 sec. und der Sound looped. Als Soundkarte habe ich diese SB X-Fi.

Das seltsame ist auf den Screenshot. Wenn ich die X-Fi im Gerätemanager deaktiviere habe ich ca. doppelt so schnelle Zugriffszeiten auf dem RAID. Ist ein Raid 5 mit 5x WD 1TB Green + Hot standby.
Auf den Raid ist auch das BS aber es ist nicht so das die X-Fi eine Plattenlast erzeugt. Bei dem Test ist keine Musik gelaufen o.ä.
Mir ist dann aufgefallen das die Soundkarte, Raidcontroller und Grafikkarten den IRQ 16 belegen, ich habe dann durch rumprobieren die X-Fi auf IRQ 17 bekommen was aber keinen Unterschied macht.

Mir kommt das schon etwas komisch vor.
Vielleicht hat jemand einen Tipp.

viele Grüße
Andy
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na glaubst du den HD Tune Werten wirklich? Auf 4.irgendwas ms kommt nicht einmal meine 10000er HDD von meiner Dell T5400@work. Auch mein Raid6 mit 6x320er RE3`s hat min ca. 12.xxx ms. Da können deine 5400er Platten nie drunter bleiben. Das hilft dir zwar auch nicht bei deinen Rucklern. Die liegen wohl eher an dem Board. Warum kaufst du dir auch gleich wieder ein MSI, wenn schon auf dem ersten MSI der Controller nicht lief. Auf meinem ASUS mit dem i975 läuft der Controller auf jeden Fall.

Ich habe mir jetzt einmal dein Board genauer angeschaut. Da teilen sich ja die beiden PCIe-Slot 16 Lanes. Also bekommt deine Graka nur noch 8 Lanes. Eventuell ist der Graka das doch zu wenig.

A6
 
Hallo,

früher hatte ich immer Asus boards, bin dann aber mal auf MSI umgestiegen als Asus nicht mer das gelbe vom Ei war, ok das ist schon etliche Jahre her, gut möglich das dies jetzt anders ist.

Das Problem ist ja nicht der PCI-E bus, Graka und Kontroller vertragen sich, es läuft alles bestens mit dem Onbardsound, nur wenn die X-Fi eingebaut ist bzw. aktiviert ist ist das Problem mit den Rucklern und der verminderten Performance.

Mit welchem Tool kann man die Zugriffszeit besser testen ?

viele Grüße
Andy
 
Zuletzt bearbeitet:
@ Back2Live

Von diesem ähnlichen Problem hab ich letztes Jahr erfahren, wenn mit SLI + X-FI benutzt.
Aus welchem Grund auch immer saugen die Graka´s (PCIe) der X-FI (PCI) die Daten weg.
So wird es wohl auch mit dem COntroller sein. Ka, ob es da einen Patch gibt.
Wenn alles rumprobieren nicht hilft, kommst du wohl an Onboard-Sound oder an einer neuen X-FI (PCIe x1) kaum vorbei.

Zumin. hat sich bei den Usern mit X-FI (PCIe x1) das Problem mit dem Soundstottern gelöst.

Check das mal... http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6718100&highlight=latenz#post6718100

http://www.forumdeluxx.de/forum/showpost.php?p=9786143&postcount=101
 
Zuletzt bearbeitet:
@Snoopy69

So in der art kommt mir das auch vor, wobei es aber keinen Unterschied mach ob ich im Hintergrund eine 4GB Datei kopiere, die Ruckler treten dann nicht öffter oder verstärkt auf. Ich werde evtl. mit einer PCI-e X-Fi testen und hoffen.

... teilen sich ja die beiden PCIe-Slot 16 Lanes. Also bekommt deine Graka nur noch 8 Lanes.

Ist bei Asus aber das gleiche, muß wohl am P45 liegen.

Andy
 
Zuletzt bearbeitet:
Ist bei Asus aber das gleiche, muß wohl am P45 liegen.

Ich meinte das auch so, dass es besser ist, der Graka einen Slot zu gönnen, der volle 16 Lanes hat. Du bräuchtest also ein Board, wo noch ein anderer Slot drauf ist, welcher sich keine Slots mit dem Graka-Slot teilt oder eben einen X38/48 mit 2x PCIe x16. Wobei mein 5805 im Moment auch mit x4 auskommen muss, was ihn aber nicht sonderlich stört. OK bei Benchrekorden schon, aber für mich reicht es, wenn ich mein Gbit-LAN mit permanent 125+ Mb/s versorgen kann. Und das kann der 5805 mit 6 HDD`s auch auf x4. Bei meinem Server ist zwar die Grafikleistung egal, da da die Graka reine 2D-Aufgaben hat, aber ich habe die Karten trotzdem so gesteckt, das die Graka x16 hat und der 5805 x4.

A6
 
Hab gerade mal im Adaptec Storage Manger mein RAID0 (4x32GB A-DATA 300 SSDs) um eine weitere fünfte A-DATA 32GB SSD erweitert.

Das RAID ist ca. zu 40% belegt (45GB).

Wie lange dauert so eine reconfiguration erfahrungsgemäß ?

Hab zwar gerade Zeit aber mich stört, dass ich keine Zeit oder Prozentangabe für den Vorgang im Storage Manger finde .

Oder gibt es die Info im Command Line Utility ?


Update1: nach 45 minuten fsind 45 GB von RAID0 mit 4 SSDs nach 5 SSDs konvertiert.

Update2: nach weiteren 45 minuten ist nun ein Raid 0 aus 6 x 32 GB A-DATA SSD fertig konvertiert.
 
Zuletzt bearbeitet:
Da mir hierzu wohl keiner antworten kann/wird, frag ich mal hier die Leute mit dem aktuellen Controller. Wie bzw. wo könnt ihr die Zeit einstellen bis die Platten ausschalten ?
Hoffe ja immer noch das ich meinen Controller nicht wegen diese (evtl nicht existenten) Features verkaufen muss.
 
Da mir hierzu wohl keiner antworten kann/wird, frag ich mal hier die Leute mit dem aktuellen Controller. Wie bzw. wo könnt ihr die Zeit einstellen bis die Platten ausschalten ?
Hoffe ja immer noch das ich meinen Controller nicht wegen diese (evtl nicht existenten) Features verkaufen muss.

nein das geht nicht hat aber schon mal wer gefragt nur bei
2405 bzw 2045
5405 bzw 5445
5805 bzw 5085
51245
51645
52445
 
Zuletzt bearbeitet:
Kann man eigentlich ein bestehendes RAID0 mit z.B. 6 Platten wieder "runter" konvertieren auf RAID 0 mit 5 Platten bzw. zu einem RAID 5 mit 6 Platten konvertieren ?

Im Adaptec Storage Manager kann man wohl Platten hinzufügen aber wohl leider keine entfernen.
Platz wäre theoretisch noch genug vorhanden, da die genutzte Partition nur die größe von 4 Platten hat und die Kapazität von zwei weiteren Platten noch vorhanden ist.

Müßte ich tatsächlich das logische Device im ASM löschen und komplett neu als RAID 0/5 mit 5/6 Platten anlegen ?
 
Ich wüsste jetzt keinen Controller bei dem das gehen sollte ("runter" konvertieren).
Über die Sache muss man sich schon vorher im Klaren sein. Man sieht ja was es laut Manager für Möglichkeiten gibt.

Mit "logischem Device" meinst du sicher eine Single-HDD, die man vorher im Manager konfigurieren muss, damit sie unter Windows sichtbar wird, oder?

Unter Areca ist das der Pass Through-Modus. Wenn ich da in archttp auf "Delete Pass Through" gehe, wird das Drive nur für WIN unsichtbar. Die Daten bleiben aber noch alle drauf.

Aber auch das hättest du vorher testen können. ;)
Ich würde dir raten alle Möglichkeiten und Ernstfälle durchzutesten (gerade bei Raid 5/6).
Ich hatte das ca. 1 Woche lang gemacht bevor die Daten entgültig draufkamen.
So weiss ich wie ich im Ernstfall zu reagieren hab...
 
Das man von RAID0 mit 6 SSDs nicht einfach wieder per ASM auf RAID 0 mit 5 SSDs oder RAID 5 mit 6 SSDs umstellen kann hatte ich, sagen wir mal, "erwartet".
Es hätte ja sein können das das geht, wie man eben auch einfach im laufendem Betreib mit ASM weitere SSDs dem RAID 0 hinzufügen kann.

Es ist kein Problem es gibt eh eine Sicherung des RAID0 SSD verbundes (ist aktuell mein Boot OS Vista).
Um mal kurz die RAID5 Performance zu checken wäre es halt "nett" gewesen wenn man einfach so mit ASM umstellen und testen kann.
 
Der Controller "weiß" nichts von den Partitionen oder wie viel von dem Array tatsächlich genutzt wird - für ihn sind das 100% Nutzerdaten und da kann er nicht einfach ein Teil von wegwerfen.

Die RAID 5-Performance sollte etwa der von 5 SSDs entsprechen (wenn du 6 benutzt). Random writes werden etwas langsamer sein, reads könnten sogar fast an die performance von 6 SSDs im RAID 0 rankommen. Falls du das ausprobierst, nimm mal die default stripe size (256KB).
 
Zuletzt bearbeitet:
Die Controller hätte man aber so intelligent machen können, dass die Daten bei sehr viel freiem Platz @ Raid 5 von der zu entfernenden HDD auf die übrigen HDDs verteilt werden. Eben nur um gekehrt (von Expand). Das müsste auf jeden Fall technisch machbar sein. ist ja nur ein umsortieren/verteilen auf HDDs.

Aber ich denke, dass so eine Option fast nie benutzt wird und deshalb weggelassen wurde.
 
Zuletzt bearbeitet:
Das man von RAID0 mit 6 SSDs nicht einfach wieder per ASM auf RAID 0 mit 5 SSDs oder RAID 5 mit 6 SSDs umstellen kann hatte ich, sagen wir mal, "erwartet".
Es hätte ja sein können das das geht, wie man eben auch einfach im laufendem Betreib mit ASM weitere SSDs dem RAID 0 hinzufügen kann.

Es ist kein Problem es gibt eh eine Sicherung des RAID0 SSD verbundes (ist aktuell mein Boot OS Vista).
Um mal kurz die RAID5 Performance zu checken wäre es halt "nett" gewesen wenn man einfach so mit ASM umstellen und testen kann.

Du könntest das Raid 0 Clonen auf eine andere HDD dann auf Raid X um stellen und wieder zurück clonen.
Das geht z.B mit Paragon Partition Manager 9
 
Nutzt hier jmd Raid 6?
Möchte wissen inwieweit Raid 6 schlechter performt als Raid 5.
Und ob es in der Praxis auffällt. Ansonsten würde ich statt nur eine gleich 2 HDDs integrieren. Also von Raid 5 mit 4 HDDs auf Raid 6 mit 6 HDDs statt nur 5.
Allerdings reichen mir aber 3TB netto. Will aber auf jeden Fall Raid 6. Das beruhigt mich eher ;)
 
Zuletzt bearbeitet:
Bei der Read-Performance oder sequenziellen writes wirst du mit 6 Platten keinen Unterschied feststellen. Bei vielen random writes ist die Performance geringfügig schlechter, weil bei read-modify-write Operationen von 3 Platten gelesen und auf 3 Platten geschrieben werden muss statt nur 2 Platten.
 
Writes gehen erst in den Cache, also wirst du im Normalfall überhaupt nichts von mitbekommen. Mit IOmeter könntest du es messen, aber spüren wirst du es nicht.
 
Hab ich doch erklärt: die ersten paar hundert MB random writes gehen in den Cache, so lange merkst du Null Unterschied. Alles was darüber hinaus geht, ist 20-30% langsamer. So lange du also nicht exzessiv random darauf rumschreibst wirst du keinen Unterschied bemerken. Erklärung genug? :-)
 
Zuletzt bearbeitet:
Dann würde das in Wiki aber nicht stimmen. Wieso sollten sie dort den Cache mit einbeziehen? Deshalb die Frage.
 
Steht doch drin, dass writes langsamer sind:
"Für alle RAID 6 Implementierungen gilt gemeinsam: Der Performance-Malus bei Schreiboperationen (Write Penalty) ist bei RAID 6 etwas größer als bei RAID 5,..."
 
In der grafischen Tabelle aber nicht ("="-Zeichen)
Und bei Raid 5 "+" für read und "-" für write...

Jetzt klar? ;)
 
Ok das mit dem RAID5 lasse ich erst mal, ist auch nicht so wichtig.
Die SSD Konfig wird sich hier in nächste Zeit sicher noch des öfteren ändern.


Für alle die es interessiert hier mal ein paar Vergleichswerte von RAID 0 mit 4,5 und 6 A-DATA 300 SSDs (32GB Version).
Das RAID0 ist meine OS Platte = Vista 64. System siehe Signatur.

Crystalmark hat hier und da durchaus Schwankungen bzw. der ein oder andere Wert geht etwas nach oben oder unten...

Werte für 4,5 und 6 SSDs im RAID0 stripesize 128KB @ Adaptec 5805 mit write Cache:

attachment.php
attachment.php
attachment.php


Werte für 4,5 und 6 SSDs im RAID0 stripesize 128KB @ Adaptec 5805 mit write Cache:

attachment.php

attachment.php

attachment.php
 

Anhänge

  • ssd-raid0-os-4x32gb-1000mb.jpg
    ssd-raid0-os-4x32gb-1000mb.jpg
    31,9 KB · Aufrufe: 160
  • ssd-raid0-os-5x32gb-1000mb-2.jpg
    ssd-raid0-os-5x32gb-1000mb-2.jpg
    33,9 KB · Aufrufe: 155
  • ssd-raid0-os-6x32gb-1000mb-3.jpg
    ssd-raid0-os-6x32gb-1000mb-3.jpg
    32 KB · Aufrufe: 158
  • hd-tune-access-Raid0-4-SSDs.jpg
    hd-tune-access-Raid0-4-SSDs.jpg
    67,9 KB · Aufrufe: 163
  • hd-tune-access-Raid0-5-SSDs.jpg
    hd-tune-access-Raid0-5-SSDs.jpg
    67,6 KB · Aufrufe: 166
  • hd-tune-access-Raid0-6-SSDs.jpg
    hd-tune-access-Raid0-6-SSDs.jpg
    67,6 KB · Aufrufe: 170
Zuletzt bearbeitet:
Hier fällt stark auf, dass Raid 0 @ 4k mit 5 + 6 SSDs auch nicht mehr bringt als mit 4 SSDs (also unwesentlich). Liegts am Controller oder an den SSDs?
 
Hier fällt stark auf, dass Raid 0 @ 4k mit 5 + 6 SSDs auch nicht mehr bringt als mit 4 SSDs (also unwesentlich). Liegts am Controller oder an den SSDs?

Das werden wir wissen, wenn ich 3 Super Talent Ultradrive oder 3 OCZ Vertex angeschlossen habe.

P.S. Noch was seltsames. HD-Tune Basic und auch Pro kommen beim "Benchmark" (Read) mit 4,5 und 6 Platten immer auf ähnliche Werte von 450-500 MB/s.
HD-Tune Pro zeigt aber mit der Monitor Funktion durchaus auch höhere Werte an z.B. wenn Crystalmark läuft.
 
Mit welcher IO-Tiefe arbeitet CrystalDiskMark?
Ich vermute mal, mit nur einem IO. In dem Fall wäre es vollkommen egal ob eine oder 10 SSDs angeschlossen sind, weil immer nur von einer gelesen wird.

@hacky: probier mal 256KB stripes, könnte sein dass die sequenziellen Raten noch einen kleinen Tick hoch gehen.
 
Bei SSDs ist die Anzahl der Outstanding IOs quasi egal. SSDs skalieren anders als HDDs.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh