Raid Controller schuld?

webjunkie23

Neuling
Thread Starter
Mitglied seit
15.06.2006
Beiträge
291
Hi,

Bin in einem Laden beschäftigt, wo sich eine andere Abteilung u.a. mit Videoschnitt mit Premiere 1.5 und Audition beschäftigt. Bis jetzt wurden die DV Bänder direkt via Firewire auf die Schnittrechner aufgespielt und bearbeitet, jetzt kam jemand auf die Idee einen Server aufzusetzen und alle Rechner zu vernetzen damit man die Daten nicht mehr mit einer externen 1TB Platte rumschleppen muss.

Transfertests haben jetzt ergeben das die Transferrate "unterirdisch" ist. 5GB dauerte über 2h. Ich habe behauptet das das u.a. an dem verbauten Promise SATA Raid5 Controller (Software Raid) liegt und nicht an dem zu langsamen P4 2,8Ghz wie alle anderen meinten. Ich glaube der Server hat 1GB RAM. Es sollen mind. 6 Schittrechner an dem Server hängen und dort ihre Daten ablegen. Über den Server soll später auch der Internetzugang für 6 weitere Rechner realisiert und 5 Powerpointrechner ihre Daten austauschen. Als Board haben sie irgendein P4 Sockel 478 Board verbaut was nicht mehr gebraucht wurde. :haha:

Irgendwelche Profis hier, die mal über den Daumen kalkulieren könnten welche Hardware in einem System mindestens verbaut sein müsste damit man damit arbeiten kann?

Danke
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Um festzustellen ob RAID-Controller eine Bremse ist oder nicht, kannst Du einfach die CPU-Auslastung während eines Tranfers beobachten. Und eigentlich P4-2,8 GHz hat genug Dampft um sowas zu realisieren.

Andererseits beim ziehen ist es scheissegal wie schnell die CPU ist, da muss er nichts berechnen sondern nur lesen. Im Gegenteil beim Schreiben, da muss er die Parität berechnen und sie wegschreiben.

Als erstes würde ich schauen, ob Netzwerkkarten richtig eingestellt sind. 40 MB/min erscheinen mir doch extrem niedrig.

'cuda
 
Sorry die CPU Auslastung hatte ich vergessen, dieist beim Transfer immer am Anschlag, und da hingen zum Testen nur zwei Rechner dran....


MfG
 
Welcher Promise-Controller mit welchen Disks in welchem RAID-Mode und in welcher Transferrichtung?

Software RAID 5 ist sehr langsam beim Schreiben der Daten auf die Disks, aber auch ein Hardware RAID 5 ist im allgemeinen schreibend deutlich langsamer als lesend.

& Workstations mit Video-Daten zu versorgen erfordert nicht nur eine hohe Performance des Disk-Systems, auch das Netzwerk muss natürlich entsprechende Transferraten erlauben.
 
Sie benutzen PCI GbLAN Karten mit Realtekchip.

Eine Karte die die Daten rauscshaufelt aus dem Server eine die die Daten reinbaggert und eine dritte für dien I-Net Traffic.

Das ganze unter W2K Server.

Mal ne Frage Kann W2K Server überhaupt mit drei Netzwerkarten umgehen?
Meine mal gehört zu haben das das nicht funzt.
 
W2k kann mehr als zwei Netzwerkkarten verwalten (maximale Anzahl kann ich mich nicht erinnern).

Gut Realtek LAN-Karten sind preiswert, haben aber eigentlich nichts in einem Server zu suchen und PCI GBit ist auch nicht das Richtige. Wenn der Disk-Controller auch nur ein PCI-Controller ist, behindern sich Disk-Controller und GBit-LAN-Karte sehr massiv, beide benötigen eigentlich die gesamte mögliche PCI-Bus Transferrate.

Nochmals: Welcher Promise-Controller und welche Disks? Ineressant wäre auch noch der Mainboard-Type!

Auch wenn die Server-Hardware nicht gerade optimal ist, ca. 1,5MByte/min (ca. 5GByte/2h) Datentransferrate zwischen Server und Workstation ist deutlich zu gering. Da ist wohl einiges bei der Konfiguration falsch.
 
H... Als Board haben sie irgendein P4 Sockel 478 Board verbaut was nicht mehr gebraucht wurde. :haha:
...
Und das hat wohl noch nicht mal OnBoard-Gigabit-LAN ?
Also hier gehört ein Board mit nem ordentlichen Gigabit-LAN hin der nicht am PCI-Bus hängt - also am besten ein Intel-Chip. Oder ein modernes PCI-Express-Board nehmen - da gibt's meist sogar Dual-Gigabit Onboard - aber leider braucht man dann alles neu (CPU,RAM, am besten auch nen PCIe-RAID-Controller).

Wenn ich lese "6 Schnittrechner" dann dürfte das aber normalerweise auch viel zu wenig sein, wobei sich hier die Frage stellt wieviel darf's eigentlich kosten ? Da muß ein ordentlicher Server mit einem ordentlichen RAID hin - der Promise-PCI-RAID-Controller ist da wohl eher Spielerei !
 
fuer die gestellten anforderungen kommt im prinzip nur ein server-chipsatz in frage, weil oft genug nur diese arten von chipsaetzen genuegend pci-kanaele haben (bzw. PCI-X). RAID und LAN gehoeren in PCI-X bzw das PCI-Express-Aequivalent!
 
Sie benutzen PCI GbLAN Karten mit Realtekchip.

Eine Karte die die Daten rauscshaufelt aus dem Server eine die die Daten reinbaggert und eine dritte für dien I-Net Traffic.

Das ganze unter W2K Server.

Mal ne Frage Kann W2K Server überhaupt mit drei Netzwerkarten umgehen?
Meine mal gehört zu haben das das nicht funzt.

ersetzte realtek mit intel netzwerkkarten oder andere hochwertige geräte dann flutscht es auch im lan. selbst ein p3 mit ein paar mhz sollte mit gbit lan ordentlich was packen.

software raid ist auchnochmal so eine sache... ein hw-raid controller wäre bei der beanspruchung auf jedenfall empfehlenswert.
 
also auf meinen p4 3ghz im server hab ich max. 5% cpulast beim schreiben. ich hatte auch erst ne realtek nic drin, den hab ich dann auch gegen nen "teueren" intel getauscht und es hat wirklich was gebracht, aber nur 100mbit. ;)

beim mir dauern 5gb @ lan ~5min. :xmas:

mfg deep
 
...
beim mir dauern 5gb @ lan ~5min. :xmas:

mfg deep
Ist aber sehr optimistisch. Theoretisch dauert das mit 100 MBit/s 6:40 min praktisch würde ich mit 7 bis 8 min rechnen.

@Ruede

Wenn aber ein Software-RAID5 auch am PCI hängt flutsch da nix mehr. Und die Schreibrate ist mit Software-RAID5 sowieso völlig im Keller.

Wenn man nur die Netzwerkdaten auf die Platte (ohne RAID) schaufelt über den Chipsatz-Controller der nicht am PCI hängt dann flutscht das sicher ganz ordentlich.
 
jni
hab hier ne pci intel NIC und ne hitachi sata.

selbst da gehn noch über lan ~ 40mbyte/s nforce2 chipsatz. also alles über den pci bus. bei pci express dürfte die sache noch besser aussehn :)
 
Ist aber sehr optimistisch. Theoretisch dauert das mit 100 MBit/s 6:40 min praktisch würde ich mit 7 bis 8 min rechnen.

haja, ich wollte es halt mal verdeutlichen. ;)

Wenn aber ein Software-RAID5 auch am PCI hängt flutsch da nix mehr. Und die Schreibrate ist mit Software-RAID5 sowieso völlig im Keller.

also ich hab nen promise fasttrak tx4310 @ pci und da geht auch alles ohne probs. ;) ich hab ~95mb read und ~80mb writh.

mfg deep
 
Kann es sein, dass sich der RAID-Controller sowie die GBit Netzwerkkarte den kompletten PCI-Bus teilen müssen?

Nähere Angaben zur verwendeten Hardware und Konfiguration wären sehr hilfreich ;)
 
...
also ich hab nen promise fasttrak tx4310 @ pci und da geht auch alles ohne probs. ;) ich hab ~95mb read und ~80mb writh.

mfg deep
Das geht aber schon theoretisch nicht, wenn der LAN-Controller am PCI hängt - max. sind für alle Geräte 128 MByte/s möglich. :confused: Außerdem wird die Schreibrate mit RAID5 deutlich geringer sein, oder hat der ne Hardwareunterstützung für das XOR ?

40 MByte/s sind hingegen möglich, wenn das System ordentlich läuft. Mit PCI-Express muß das noch besser gehen, da die Geräte sich nicht einen Bus teilen müssen.
 
Genau das ist das Problem alle Karten hängen am PCI Bus und teilen sich die 133MB/s.

Das will mir da aber keiner glauben, alle behaupten JEDEM PCI Slot ständen 133MB Transferrate zur Verfügung.

Hat vielleicht mal jemand eine URL wo das verständlich erklärt wird das sich die 133MB alle teilen müssen.

Danke
 
Das ist prinzipiell so, alle "Geräte" an einem PCI-Bus müssen sich insbesondere die Daten- und Adress-Signalleitungen teilen, deshalb heißt das auch (PCI-)Bus und deshalb findet man auf Server-Mainboards oft auch mehrere getrennte PCI-Bus-Systeme. Das war schon bei dem ISA-Bus so und erst bei PCIe hat jeder Steckplatz exklusiv seine eigenen "Daten- und Adressleitungen", so dass sich da nichts gegenseitig behindert.

Schon eine einzelne GBit-LAN-Karte "lastet" den PCI-Bus praktisch vollständig aus. Genauso sieht es mit einem RAID-Controller aus, wenn der gleichzeitig von mehreren Disk lesen oder darauf schreiben will. Aber das erklärt noch nicht vollständig, warum letztlich nur ca. 1,5 MByte/min Datentransfer möglich ist, auf so ca. 40 MByte/sec sollte man schon kommen können.
 
Ich denke, man muss schauen, auf welcher Ebene das Problem auftritt.

Zum ersten sind die die Festplatten:
Du schreibst, dass ein software raid5 verwendet wird. Dieses erzeugt eine hohe CPU-Last, was an sich kein Problem ist. Allerdings haben die letzten Messungen der c't gezeigt, dass (in weiten Teilen) unabhängig von der CPU ein Limit existiert, über welches die Software-raids nicht hinüberkommen. Das waren so 30-60MB/s. Wenn du da noch das eventuell ungünstige Dateisystem mit Fragmentierung hinzurechnest... Auch musst du beachten, dass im Random-Access die Datenübertragungsrate unterirdisch ist. Da hilft nur messen, wenn die Festplatten nicht genug liefern dann wird's durch Lan auch nicht besser.

Zum Zweiten gibt es das Lan.
Da wäre auch eine Messung angebracht. Wenn dort die Engstelle liegt... Wie die anderen auch schon beschrieben haben, wäre zu überprüfen, ob die Netzwerkkarte überhaupt mit genug Daten versorgt wird (PCI-Bus liefert z.B. bei einfachen via-chipsets ~70MB/s). Intel NICs sollen besser sein als realtek NICs. Samba, bzw. die Windows Netzwerkfreigabe ist auch nicht die performantaste Lösung. FTP wäre schneller ;) . Google auch mal nach Jumbo-frames.

Was die anderen hier geschrieben haben, stimmt. Aber ich würde an deiner stelle den Flaschenhals herausfinden und dann ansetzen, anstatt wild drauflos zu optmieren.
 
RAID 0 ist natürlich nichts für den produktiven Einsatz, da RAID 0 keinerlei Redundanz hat. In einem Server kann man aber mit einem RAID 0+1 sehr hohe Datenraten beim Lesen und beim Schreiben erreichen. Ein Software RAID 0+1 mit vier älteren 80GByte Hitachi S-ATA Disks an einem Promise TX150 PCI-X Controller kommt scheibend auf ca. 100 MByte/sec und lesend auf ca. 200 MByte/sec, wobei die CPU-Auslastung eines P4/2,8GHz bei unter 5% liegt.

Mit irgendeiner "Sparversion" (gerade vorhandenes Dasktop-Mainboard, PCI-Disk-Controller, 08/15 PCI GBit NIC) bekommt man keine Performance. Eigentlich sind in dem Bereich der Bildverarbeitung spezielle, dafür geeignete Server üblich. Um dennoch "kostengünstig" einen PC-basierenden Server für diese Zwecke nutzen zu können, muss es schon ausgewählte Hardware sein.

Grundsätzlich muss man also ein Mainboard mit PCI-X oder PCIe Slots, einen entsprechenden PCI-X/PCIe Disk-Controller, ein oder mehrere RAID 0+1 Disk-Systeme, mehrere PCI-X/PCIe GBit NICs nehmen. Um hohe Performance für alle Workstations realisieren zu können, muss man einen GBit-Switch mit Port-Trunking nehmen (und passenden LAN-Controllern im Server) oder mit mehreren, load-balanced GBit NICs im Server verbunden sein (siehe: http://www.mcseboard.de/windows-forum-lan-wan-32/port-trunking-zwei-netzkarten-win2k-xp-100677.html). Natürlich müssen die Workstations auch über vernünftige GBit LAN-Controller (moderner Chipsatz oder PCIe) verfügen.

An dem jetzt "verkorksten" Server "rumzubasteln" ist Zeitverschwendung, alles nochmal (Anforderungen und deren Realisierung) genau überlegen und dann erst einen entsprechenden Server konfigurieren. Für einen reinen File-Server reicht jedenfalls jede x-beliebige, halbwegs aktuelle CPU, also auch ein P4/2,8GHz locker (wird wohl durchschnittlich nie auf mehr als ca. 10% CPU-Auslastung kommen).

Gruß

Rimini
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh