Speedproblem

N-Traxx

Neuling
Thread Starter
Mitglied seit
18.05.2009
Beiträge
119
Hi,

Ich bin am verzweifeln, ein Kunde hat einen Server den ich persönlich zusammengestellt habe. Nun ist das Ding so unglaublich langsam das ich nur noch eine Lösung weiß.

Kurz die Eckdaten:
2x Quadcore 2,66GHz Sockel 771
8Gb RAM DDR2-667
2x HDD RAID 1 SAS 15.000U/min 150Gb System
3x HDD RAID 5 SAS 15.000U/min 350Gb Daten

So nun das große Problem, die SQL DB die auf dem Server läuft hat ca.50Gb monatliches Wachstum ca. 2Gb. Nun hab ich das Problem das die komplette Auslastung von dem Server im Keller ist. Es rührt sich absolut garnichts und die DB ist unglaublich langsam. Es muss ca. einmal die Woche eine Verarbeitung aufgerufen werden die ca. 5000 kleinigkeiten erledigt. Ich habs gestern diese verarbeitung mal gestartet und hab endlich rausgefunden warum das 1. ewig dauert und 2. der Server dabei müde lächelt.
Die DB liegt wie geplant auf dem RAID 5 mit 3 Platten, nun ist es so das das Programm lauter sehr kleine Datensätze in der DB abruft. Das heist die Platten suchen sich zu tode, ich hab eine durchschnittliche R/W auslastung der Platten von 1Mb/s. Die Platten schafen aber ca. 120Mb/s :-S, die CPU`s dümpeln irgendwo bei 5-10% und der RAM füllt sich mit gigantischen 2Gb`s
Das selbe ist es im normalen Betrieb wenn ca. 50 Leute in dem Programm arbeiten.
Das Problem ist das die Platten garnicht genug Daten zum Lesen oder Schreiben bekommen um mal richtig Gas zu geben und das dauernde abgreifen von kleinigkeiten frist unglaublich Performance. Jetzt sieht die Lösung, die mir übrigens nicht gefällt, so aus. Das die einzige Möglichkeit um hier Geschwindigkeit zu erlangen ein RAID 01 mit 10 SAS Platten. Also 5 Platten auf RAID 0 und die dann Spiegeln.

Jetzt ist die Frage fällt euch noch was ein wie ich die Geschwindigkeit/Auslastung erhöhen könnte?
Und ist es egal ob jetzt 70Gb oder 150Gb Platten laufen ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ad viele kleine files

Hi!

Ein Kumpel von mir hatte (wenn auch in kleinerem Rahmen) ein ähnliches Problem:

Ständiges Lesen und Schreiben von vielen kleinen Datensätzen schafft jeden Raid Array egal welches Größe(wenn man das so pauschal sagen kann)!
Dein Problem ist, dass die Platten nur wenige inputs/outputs pro sekunde schaffen, wenn du nur winzige Schnipsel immer lesen bzw. schreiben willst! Das Problem haben alle Festplatten und es liegt an der Zugriffszeit, die die Köpfe zur Positionierung brauchen!

Lösungsansätze:

1.statt nem Raid 5 die Daten auf Datenbank auf mehrere Festplatten aufteilen und so verhindern, dass alle Aufträge nacheinander abgearbeiten werden, sondern wenigstens einiges parallel läuft!
Vorteil: geht schnell und ist relativ billig
Nachteil: du hast kein Raid mehr => eventuell Raid 1 der für jeden Teil der Datenbank machen

2.du verwendest ssds für deine Problemstellung, weil das genau eine Aufgabenstellung für performante ssds ist!
Vorteil: Viele Inputs/Outputs pro Sekunde + geringste zugriffszeiten
Nachteil: Preis!!!(immenser Nachteil)


und...
Ich glaube nicht, dass ein raid 10 mit noch mehr platten dich viel weiter bringen wird in punkto performance

mfg ottidsl
hoffe mein beitrag hilft dir etwas
 
Hi

1.statt nem Raid 5 die Daten auf Datenbank auf mehrere Festplatten aufteilen und so verhindern, dass alle Aufträge nacheinander abgearbeiten werden, sondern wenigstens einiges parallel läuft!
Vorteil: geht schnell und ist relativ billig
Nachteil: du hast kein Raid mehr => eventuell Raid 1 der für jeden Teil der Datenbank machen
Hier ist das Problem das es auch bei Paralellen ablauf sehr langsam wird, wi ich auch geschrieben habe tritt das Problem nicht nur bei der Batchverarbeitung auf sondern auch im normalen Betrieb wenn ca. 50 User damit arbeiten.

2.du verwendest ssds für deine Problemstellung, weil das genau eine Aufgabenstellung für performante ssds ist!
Vorteil: Viele Inputs/Outputs pro Sekunde + geringste zugriffszeiten
Nachteil: Preis!!!(immenser Nachteil)
Wenn du mir welche sagen kannst die für 24/7 betrieb freigegeben sind und auf einem SAS Controller laufen ? Geld ist das kleinere Problem, aber es geht halt auch nicht das sich alle paar Monate die nicht ganz billigen SSD Platten verabschieden.

Ich glaube nicht, dass ein raid 10 mit noch mehr platten dich viel weiter bringen wird in punkto performance

Wenn die DB über ein RAID 0 verteilt auf 5 Platten liegt werden die zugriffzeiten schneller, jetzt natürlich nicht von den einzelnen Platten. Aber es suchen gleichzeitig 5 Leute die Regale ab anstatt nur 3, es sollte schon was bringen. Aber ob es nun das gewünschte Ergebnis bringt bezweifle ich auch ein bischen, sonst gäbe es ja den Thread nicht. ;)
 
Zuletzt bearbeitet:
Hi!

ad ssds:
bei ssds gibts natürlich welche mit 24/7 reliability z.b.: die mtron pro serie!
die sind zwar nicht neuste highend technik in punkto ssd, dafür kriegst du brauchbare performance und 5 Jahre Garantie(für nen ziemlich hohen Preis leider)


und ad 50 User arbeiten auf der datenbank:
So was seh ich als random read/write an! da bricht dir ein hdd array beinahe genauso extrem eine wie eine einzelne Platte! da würde dir die Aufteilung auf mehrere Platten schon weiterbringen,weil dann z.b: 5 User auf Platte A zugreifen und 12 User auf Platte F zugreifen und wieder 8 User auf Platte C und so weiter und so verteilt sich die Last und es geht etwas schneller wie wenn jetzt 30 User alle auf ein und denselben Raid zugreifen wollen
 
Hi!
und ad 50 User arbeiten auf der datenbank:
So was seh ich als random read/write an! da bricht dir ein hdd array beinahe genauso extrem eine wie eine einzelne Platte! da würde dir die Aufteilung auf mehrere Platten schon weiterbringen,weil dann z.b: 5 User auf Platte A zugreifen und 12 User auf Platte F zugreifen und wieder 8 User auf Platte C und so weiter und so verteilt sich die Last und es geht etwas schneller wie wenn jetzt 30 User alle auf ein und denselben Raid zugreifen wollen

Also mit RAID 0 die DB über viele Platten Strippen und noch ein RAID 1 drüber wegen der Datensicherheit. Oder meinst du jetzt einen Cluster ausmehreren Servern ?
 
nein ich meine einfach: datenbank auf einzelne Platten aufteilen(non Raid) und mit jeder einzelnen Platte, dann (aus Gründen der ausfallsssicherheit) jeweils nen Raid 1 machen!

ad ssds: es gäbe auch noch sehr zuverlässige von Intel(z.b: die X25e) oder von Memoright(is halt etwas teuer) und die Indilinxdrives mit SLC wären eventuell auch noch interessant!
 
Ich würde hier auch die SSDs aus Intels X25-E Reihe empfehlen - davon 2 als Raid1 oder 4 als Raid10 (je nach Platzbedarf) für die Datenbank verwenden und mit etwas Glück ist das Problem Geschichte.

---------- Beitrag hinzugefügt um 11:38 ---------- Vorheriger Beitrag war um 11:13 ----------

Als Nachtrag - ich habe noch ein paar interessante Benchmarks wiedergefunden:

Random Read/Write Performance von verschiedenen SSDs im Vergleich: http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=25

Ausführlicher Test im Bezug auf Datenbank Performance zwischen Intel X25-E SSDs und SAS 15k Platten: http://it.anandtech.com/IT/showdoc.aspx?i=3532
 
Ich würde hier auch die SSDs aus Intels X25-E Reihe empfehlen - davon 2 als Raid1 oder 4 als Raid10 (je nach Platzbedarf) für die Datenbank verwenden und mit etwas Glück ist das Problem Geschichte.

---------- Beitrag hinzugefügt um 11:38 ---------- Vorheriger Beitrag war um 11:13 ----------

Als Nachtrag - ich habe noch ein paar interessante Benchmarks wiedergefunden:

Random Read/Write Performance von verschiedenen SSDs im Vergleich: http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=25

Ausführlicher Test im Bezug auf Datenbank Performance zwischen Intel X25-E SSDs und SAS 15k Platten: http://it.anandtech.com/IT/showdoc.aspx?i=3532

Der Bench hate mich schon überzeugt *g*

http://www.tomshardware.com/reviews/intel-x25-e-ssd,2158-5.html

Aber ihr habt recht, sau teuer. :fresse:
Um den Speed noch zu topen würde ich auf jedenfall ein RAID 01 bei den SSD machen. ABER um den Speicherplatz zu sichern, 6x 32Gb für 2100€ oder 4x64Gb für 2900€ :fire:
Da sind ja 10x 70Gb SAS Platten mit 15.000U/min bei ca.1500€ mal richtig günstig. :asthanos:
 
Ich würde dann eher auf viele kleine SSDs setzen (solange der Controller das mitmacht und du dauerhaft nicht deutlich mehr als 100 GB brauchst).

Eventuell wäre (je nachdem, ob der Controller dafür gut geeignet ist) ein Raid-6 auch eine Lösung - dann fallen dir nur 2 SSDs an Speicherkapazität weg.
Ob das dann allerdings wieder zur Performance Bremse wird, ist eine andere Sache...

Und ein kleines Trostpflaster ist ja, dass die SSDs wenigstens kaum Strom verbrauchen und eine lange Lebenszeit haben ;)
 
Ich würde dann eher auf viele kleine SSDs setzen (solange der Controller das mitmacht und du dauerhaft nicht deutlich mehr als 100 GB brauchst).

Speicherplatz, momentan 50GB mit konstanten Wachstum von 2+GB/Monate. Allerdings haben die schon wieder von weiteren nutzungen bei dem Programm gesprochen wo sich das monatliche Wachstum verdoppeln könnte.
Aber ich Sprech das mal mit denen ab und drücke sehr in richtung SSD, was mir ja eigentlich schon länger im Kopf rumschwirrt, nur dacht ich es gibt noch keine für den Servereinsatz.
 
wenn du richtung ssds willst dann mach dich auch bezüglich controller schlau!
meines wissens nach gibts zur Zeit außer areca kaum hersteller, bei denen die Performance stimmig ist!

Wünsch dir viel Glück, dass du in Zeiten der Finanzkrise mit deinen nicht grade billigen Vorschlägen durchkommst!:coolblue:

---------- Beitrag hinzugefügt um 12:24 ---------- Vorheriger Beitrag war um 12:13 ----------

nachtrag: diese ssd könnte sehr interssant für dich sein! gleiche performance wie die intel x25-e, weit besserer Preis, selbe Garantielänge und was man in ssd unterforum hört ebenfalls sehr zuverlässig!

64Gb Variante für 479€, wenn du zwei nimmst und nen guten controller wie z.b. den Areca ARC-1210 oder wenn genügend Geld vorhanden den etwas besseren 1231ML

mit dieser Kombi sollte sich den speedproblem in luft auflösen und das Ganze für rund 1200€(mit dem 1210 gerechnet)

(Backup oder ähnliches fehlt da natürlich noch => dafür gingen aber die "alten" SAS Platten super)
 
nachtrag: diese ssd könnte sehr interssant für dich sein! gleiche performance wie die intel x25-e, weit besserer Preis, selbe Garantielänge und was man in ssd unterforum hört ebenfalls sehr zuverlässig!

64Gb Variante für 479€, wenn du zwei nimmst und nen guten controller wie z.b. den Areca ARC-1210 oder wenn genügend Geld vorhanden den etwas besseren 1231ML

mit dieser Kombi sollte sich den speedproblem in luft auflösen und das Ganze für rund 1200€(mit dem 1210 gerechnet)
Hast du da ein paar Links oder wenigstens den Hersteller der Platten ? ;-)

(Backup oder ähnliches fehlt da natürlich noch => dafür gingen aber die "alten" SAS Platten super)
Naja, alt ist relativ. Die sind 6 Monate alt. :fresse:

EDIT: Wegen dem Controller, bei dem Datenwachstum. Tendiere ich eher zu einem mit 12 oder 16 Ports. Aber da hat Areca ja auch was im Angebot.
 
Zuletzt bearbeitet:
tut leid Link vergessen:
http://geizhals.at/eu/?cat=hdssd&so...e+aktualisieren+&xf=1035_Super+Talent~220_SLC

Gibts auch von anderen Herstellern beinahe baugleich(alle mit Indilinxcontroller), aber Supertalent hat nicht nur den besten Preis, sondern auch den besseren Ruf!:wink:

Controller von Areca, die mit ssd besonders gut funktionieren:
http://geizhals.at/eu/?cat=iosataraid;asuch=areca;v=e;sort=artikel&xf=613_PCIe+x8~601_12~601_16

(wichtig haben alle den Intel IOP341 Prozessor, der am besten für ssds geeignet ist zur Zeit)
 
Ich würde in dem Fall auch zu SSDs raten, denn aufgrund der extrem geringen Zugriffszeit wirst du hier massive Vorteile spüren...

Von einem Raid 0, 1 oder 10 würd ich aber dennoch absehen.
Mach ein Raid 5 + Hotspare oder ein Raid 6 + Hotspare... Einfach aus dem Grund, das die Zuverlässigkeit von SSds nach wie vor nicht an die HDDs ranhalten kann. Vor allem was die Anzahl der Schreibzugriffe angeht.

Raid 10 oder 0 bringen dir nur brauchbare Vorteile, wenn schreib/leserate gebraucht wird, was aber in deinem Fall nicht zu sein scheint. Daher mindestens Raid 5, besser Raid 6 und die Hotspare je nachdem, wie hoch du die Verfügbarkeit ansetzt.
 
@fdsonne:

meinst du, dass 3x ultradrive le 64 GB(vom link oben) + passendem Areca controller reichen?

---------- Beitrag hinzugefügt um 12:57 ---------- Vorheriger Beitrag war um 12:54 ----------

im raid5 mein ich natürlich
 
Abhilfe bringt das schon, es kommt halt immer auf die Größe der Datenbank an...
Bei 3x64GB im Raid 5 wärst bei 128GB nutzbarem Platz, wenn ihm das reicht, dann sollte das funktionieren... Ob du nun 3 oder 30 SSDs im Raid zusammen steckst, die Zugriffszeit bleibt recht identisch, steigt vllt minimal. Und da es auf hohe Transverraten beim zusammenhängenden Kopiervorgängen eher nicht anzukommen scheint, müssten es nicht unbedingt viele kleine SSDs sein, sondern es würden auch wenige große (je nach Platzbedarf) reichen...

Aber ich würde in jedemfall noch ne Hotspare SSD mit dran klemmen um bei nem Ausfall automatisch und schnell reagieren zu können... (Meine Meinung, wenn nicht benötigt, dann gehts auch ohne)
Also mein Tip, 4x64GB Raid 5 + Hotspare, oder wenns mehr Platz sein soll, 4x128GB Raid 5 + Hotspare...
Bzw. 5x64/128GB Raid 6 + Hotspare (wenns noch sicherer sein soll)
 
Zuletzt bearbeitet:
Von einem Raid 0, 1 oder 10 würd ich aber dennoch absehen.
Mach ein Raid 5 + Hotspare oder ein Raid 6 + Hotspare... Einfach aus dem Grund, das die Zuverlässigkeit von SSds nach wie vor nicht an die HDDs ranhalten kann. Vor allem was die Anzahl der Schreibzugriffe angeht.

Bist du dir da Sicher? Wiki sagt ganau bei meinem Problem ist RAID 5 nciht so dolle, bei der übermässigen Verarbeitung von kleinigkeiten wäre RAID0 besser.

RAID 5: Leistung + Parität [Bearbeiten]

RAID Level 5RAID 5 bietet sowohl gesteigerten Datendurchsatz beim Lesen von Daten als auch Redundanz bei relativ geringen Kosten und ist dadurch die beliebteste RAID-Variante. In schreibintensiven Umgebungen mit kleinen, nicht zusammenhängenden Änderungen ist RAID 5 nicht zu empfehlen,
http://de.wikipedia.org/wiki/RAID
 
Es kommt auf den Controller an, mit günstigen Controllern oder Onboardlösungen und Softwareraid bist du schnell am Ende des machbaren...
Die Performance bricht stark ein... Hast hingegen nen ordentlichen Controller, was ja gegeben ist, steht der Sache eigentlich nix im Weg...

Und wie schonmal oben angesprochen, das Hauptproblem hier ist die Zugriffszeit der HDDs derzeit, nicht primär das Raidlevel oder der Controller.
Meine Erfahrungen zeigen mir, das ich bis jetzt im Raid 5 + Hotspare auch bei massiver Datenbanknutzung immer gut gefahren bin ;)
 
Ok, also RAID5 + Hotspare oder RAID 01/10 kann ich ja dann Testen da es eh min. 4x64GB Platten werden. Ich aus meiner Sicht die bessere Lösung als viele 32er. Sonst muss man immer so schnell neue Platten kaufen, aber das liegt eh nciht in meiner Entscheidung. Ich kann nur sagen, das sind die Möglichkeiten.
 
Ja genau so, aber verlass dich bei deinem Test nicht auf irgendwelche Benchprogramme, sondern teste Highlive an der Datenbank...
 
Naja, ich halte es nicht für sehr Klug in einem Produktiv Server mit SSDs zu experimentieren, da man ja nicht weiß wie lange die Dinger wirklich halten bzw. ob Sie im Dauerbetrieb zuverlässig arbeiten.. Regelmäßig SSDs tauschen ist ja auch nicht gerade lustig.....

Ansonsten sehe ich folgende Probleme:

Selbst zusammengefrickelter Server in einer Produktivumgebung mit 50 Clients.....
Ein Raid 5 mit 3 Platten ohne Hotspare.... Kann ja nicht sonderlich schnell sein bzw. was für ein Controller ist momentan verbaut... Wenns ein onBoard ist würds mich auch nicht wundern das alles lahm ist..
 
An was für einem Kontroller hängen denn die Platten?
Hat der Controller eigenen Cache und eine BBU?
Ist das Logical Drive auf Write-Back konfiguriert?

Nur 3 HDDs für eine RAID5 finde ich auch suboptimal, 4 besser 5 sollten es schon sein.

Mike
 
Naja, ich halte es nicht für sehr Klug in einem Produktiv Server mit SSDs zu experimentieren, da man ja nicht weiß wie lange die Dinger wirklich halten bzw. ob Sie im Dauerbetrieb zuverlässig arbeiten.. Regelmäßig SSDs tauschen ist ja auch nicht gerade lustig.....

Ansonsten sehe ich folgende Probleme:

Selbst zusammengefrickelter Server in einer Produktivumgebung mit 50 Clients.....
Ein Raid 5 mit 3 Platten ohne Hotspare.... Kann ja nicht sonderlich schnell sein bzw. was für ein Controller ist momentan verbaut... Wenns ein onBoard ist würds mich auch nicht wundern das alles lahm ist..

Deshalb hab ich ja auch die X25e weitergegeben, die sind speziel für Server entwickelt worden und haben 5 Jahre Garantie.

Also Tagsüber sind 50 Leute dauernd drauf, effektiven Zugang haben ca 120 Leute. Ich weis nicht ob es ein OnBoard Controller ist, aber da die dauerhafte Read/Write auslastung der Platten bei 1Mb/s liegt glaube ich nicht das der Controler da bremst. Auf jedenfall nicht beim Datendurchsatz.

Das Problem sind einfach die Zugriffzeiten also die Positionierung der Köpfe, vergleichsweise wenn man dauernd in ein anderes Eck von einem Zimmer rennen muss um von überrall eine andere Schraube zu hohlen dauert das einfach länger. Oder Stop and Go mit einem F1 Wagen in der Stadt.
Es kommt garnicht die Datenmenge/Strecke zusammen so das die Platten mal richtig Gas geben können. Und wenn mehr Platten drinnen sind ist es klar das 5 Äffchen die Schrauben schneller in die mitte Tragen als nur eins. ;)
 
Nur 3 HDDs für eine RAID5 finde ich auch suboptimal, 4 besser 5 sollten es schon sein.

Mike

Nein, das bringt keine Punkte in dem Fall, weil mehr HDDs nur mehr Datenrate bedeuten würden, aber das ist hier nicht der Falschenhals.
Wie oben schon geschrieben kommts auf die Zugriffszeit an und nicht auf die Datenrate, und die Zugriffszeit sinkt bei steigender HDD/SSD Anzahl nicht!

Und wenn mehr Platten drinnen sind ist es klar das 5 Äffchen die Schrauben schneller in die mitte Tragen als nur eins. ;)

Nein eben nicht...
Da in deinem Beispiel mit den 5 Äffchen alle 5 eine einzige Schraube zusammen tragen würden, bzw. wenn die Datenmenge zu klein ist, sich nur eins der 5 Äffchen bewegt und die anderen 4 nix machen...
Dein Beispiel geht auf, wenn du 5 einzell HDDs einsetzt, aber dann musst du gewährleisten, das immer 5 Schrauben gleichzeitig benutzt werden können.
Sprich du müstest deine Datenbank hier im Beispiel in 5 Teile splitten und die User auf diese 5 Teile aufteilen. Dann könnten auch 5 Affen gleichzeitig laufen...
 
Sprich du müstest deine Datenbank hier im Beispiel in 5 Teile splitten und die User auf diese 5 Teile aufteilen. Dann könnten auch 5 Affen gleichzeitig laufen...

Genau deshalb meine ich ja ein RAID 0, wenn die DB über 5 Platten verteilt liegt. Müsste eigentlich nur immer die Platte anspringen wo das entsprechende Dateisegment liegt.

---------- Beitrag hinzugefügt um 15:08 ---------- Vorheriger Beitrag war um 15:06 ----------

An was für einem Kontroller hängen denn die Platten?
Hat der Controller eigenen Cache und eine BBU?
Ist das Logical Drive auf Write-Back konfiguriert?

Kann ich dir erst Montag beantworten, muss ich den Admin fragen.
 
Zuletzt bearbeitet:
Genau deshalb meine ich ja ein RAID 0, wenn die DB über 5 Platten verteilt liegt. Müsste eigentlich nur immer die Platte anspringen wo das entsprechende Dateisegment liegt.
Das hast du wohl falsch verstanden...
Bei Raid 0 liegen alle Dateien auf allen Platten (im Normalfall) - daher müssen sich im Normalfall für einen Zugriff alle Platten bemühen.
Das, was du meinst, würde z.B. bei einem Raid 1 zutreffen, wenn der Controller auf verschiedene Dateien auf verschiedenen Platten parallel lesend zugreifen kann (unterstützt aber nicht jeder Controller).

Was fdsonne aber meint ist, dass du die Datenbank auf verschiedene Platten aufsplittest (z.B. über verschiedene Tabellen, die jeweils auf unterschiedlichen Platten liegen).
Ob das funktioniert hängt aber vom Datenbanksystem und -design ab.


Insgesamt also Raid-5 aus 3 64GB X25-E SSDs :)
 
Genau deshalb meine ich ja ein RAID 0, wenn die DB über 5 Platten verteilt liegt. Müsste eigentlich nur immer die Platte anspringen wo das entsprechende Dateisegment liegt.

Nein, so läuft das leider nicht...

Du musst dir das so vorstellen:

Du hast 5 Bereiche, jeder Affe hat seinen eigenen Bereich und kann nicht auf den Bereich anderer Affen zugreifen und sich dort Schrauben holen.
Besteht dein Datenpaket nun aus einer bestimmten Größe, überschreitet er den Bereich eines Affen und liegt somit gleichzeitig in 2, 3, 4 oder allen 5 Bereichen.
Bei einer derart großen Datenmenge rennen alle 5 Affen los und holen die Schrauben der jeweiligen Datenmenge aus ihrem Bereich, sprich du hast theoretisch fünffache Leistung.

Bei einer extrem kleinen Datenmenge wie bei Datenbanken üblich, kommt es nicht allzuselten vor, das die Datenmenge nur in einem der jeweiligen Teilbereiche liegt. Sprich es muss nur ein Affe losrennen und die Schraube holen, die anderen machen quasi gar nix in der Zeit.
Das hat den Grund, das soweit mir bekannt pro Aktion nur (also hole Datenmenge X) immer alle Affen zusammenarbeiten müssen, du kannst also nicht dem einen Affen sagen, hole Datenmenge A und dem anderen gleichzeitig, hole Datenmenge B...
Das geht soweit ich weis nicht... Und das auch der Grund, warum dir ein Raid 0 aus mehreren HDDs oder SSDs hier nix bringt...


Ist die Datenmenge groß und vor allem zusammenhängend, dann spielt ein Raid 0 seine stärken aus, weil halt gleichzeitig alle Affen Schrauben von der selben Datenmenge holen können...


Ich hoffe das war soweit verständlich ;)
 
Das hast du wohl falsch verstanden...
Bei Raid 0 liegen alle Dateien auf allen Platten (im Normalfall) - daher müssen sich im Normalfall für einen Zugriff alle Platten bemühen.
Das, was du meinst, würde z.B. bei einem Raid 1 zutreffen, wenn der Controller auf verschiedene Dateien auf verschiedenen Platten parallel lesend zugreifen kann (unterstützt aber nicht jeder Controller).

RAID 0 = Striping
RAID 1 = Spiegeln

RAID 0 bietet gesteigerte Transferraten, indem die beteiligten Festplatten in zusammenhängende Blöcke gleicher Größe aufgeteilt werden, wobei diese Blöcke quasi im Reißverschlussverfahren zu einer großen Festplatte angeordnet werden. Somit können Zugriffe auf allen Platten parallel durchgeführt werden (engl. striping, was „in Streifen zerlegen“ bedeutet, abgeleitet von stripe, der „Streifen“). Die Datendurchsatz-Steigerung (bei sequentiellen Zugriffen, aber besonders auch bei hinreichend hoher Nebenläufigkeit) beruht darauf, dass die notwendigen Festplatten-Zugriffe in höherem Maße parallel abgewickelt werden können. Die Größe der Datenblöcke wird als Striping-Granularität (auch chunk size oder interlace size) bezeichnet. Meistens wird bei RAID 0 eine chunk size von 64 KB gewählt.

Quelle Wiki
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh