billiges kleines RAID für sequentielle Zugriffe Gesucht

uLmi

Enthusiast
Thread Starter
Mitglied seit
09.02.2006
Beiträge
162
Ort
Köln
Hallo Zusammen,
ich brauche für eine Lanparty einen kleinen Fileserver für viele Zugriffe.

bisher habe ich folgendes in Erfahrung gebracht:
wichtig ist - hohe Umdrehung für niedrige Zugriffszeiten.

Ich brauche keinen Großen Speicher also 40 - 80 GB aber es müssen halt 10 - 20 leute mit guter Leistung ziehen können.

Bisher dachte ich an alte SCSI Platten mit 10000 Umdrehungen...

Warscheinlich scheitert es dann am RaidController bzw. am PCI Bus.

Habt ihr alternativen.

vielleicht SSD oder so ..

Gruß

uLmi
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke mal, dass bei deinem Plan die Anbindung dieses Fileservers bedeutender ist als die Plattenwahl.
 
Wenn du GBit LAN hast bekommste theoretisch max 120MB/s zustande .. dürfte tatsächlich aber eher 80-90MB/s sein.
Also jede normale "moderne" Platte schaft das, z.b.: WD3200AAKS oder WD6400AAKS
 
@ Indiana, das stimmt aber nur wenn ich eine Große Datei ziehe

wenn viele leute mehrere Dateien ziehen schaffen diese Platten nicht mal 40 mb / s
 
Da hilft dann aber ein Raid 0 auch nicht viel da Raid 0 ja auch nur bei sequestiellen zugriffen gut ist.
Also doch SAS Server Platten ^^
 
ich will doch ein raid und es soll für sequentielle Zugriffe sein ??!?!?
 
Was willst du jetzt eigentlich? RAID 0 wird dir mit normalen Sata-Platten nichts bringen, da bereits eine einzige die Lanverbindung auslasten kann.

Also bleibt höchstens ein RAID 0 aus SCSI-oder SAS-Platten, notfalls auch ein WD Raptor.
 
würde in soner situation nichn torrent gut sein?
 
oder einfach zwei oder drei sata kaufen und dann über 3 ordner freigeben. so können sich die user aufteilen.

dazu dann aber noch die richtige netzwerkkarte (z.b. Intel dualport PCIe) oder - wenn das board 2x marvell gigabit hat - diese per teaming zusammenschalten.

und: finger weg vom PCI-bus. der bremst nur. wenn darüber eine der onboard gigabitkarten läuft ist der eh zu.
 
Zuletzt bearbeitet:
der Server ist zu teuer wäre aber genau das richtige ...

ich habe noch ein NFORCE 4 board und wollte da drauf aufbauen..

naja son aufwand für andere zu betreiben lohnt sich glaube ich nicht..

wie verteilt ihr den auf lanparty große images .... ?
 
Du widersprichst dich!
Wenn 20 Leute drauf zugreifen sollen ist das alles andere als Sequentiell!
Auser alle 20 wollen genau zur selben zeit die selben informationen, dann brauchste aber auch kein Raid da das Netzwerk dann nurnoch 6MB/s pro Person schaft, und das schaft jede HDD :-P
 
Meistens saugen die Leute von irgendjemanden, der das Image schon hat und dann wird von dem wieder gesaugt. Geht auch ziemlich schnell, da bei modernen switches jedes "Paar" die vollen 1GBit/s zur Verfügung hat.
Allerdings endet das dann meistens so: "Aaaah das ruckelt, saugt jemand noch was von mir?!! ::shot::

Wenn du trotzdem einen Server für die Lan-Party bauen willst, nimm erstmal das, was du da hast und/oder was du von deinen Freunden bekommen kannst. Meistens ist eh das Netzwerk das langsamste. Schon ein Raid0 aus 2 älternen Platten ist immer schneller als Gigabit Ethernet. Viel Speicher hilft auch wenn alle das gleiche Image ziehen, denn dann ist der größte Teil eh im Cache.
 
ich dachte wenn viele auf den server zugreifen herrschen sequentielle zugriffe, selbst wenn alle die selbe datei ziehen... ziehen sie alle nen anderen teil weil der eine weiter ist als der andere.

ich dachte ja schon an broadcast aber das müsste ich erstmal was programmieren (das liegt mir net so)

ansonsten dachte ich das 2 sata mit 7200 im raid 0 immer noch zu hohe zugriffzeiten haben.
 
Besser wäre es wenn du den Inhalt auf zwei Platten direkt verteillst.
Also 10 saugen von hdd 1 und die anderen von hdd 2, engpass ist aber immer noch das Netzwerk.
Wenn du Linux drauftust könnte das das gut durch den filecache abfangen, da wäre raid 0 sogar wieder eine überlegung wert.
 
http://sequenziell.informatik-info.net/

Saugt man also ein (großes) File spricht man sequentiell, da hier die Teile der Datei step by step gesaugt werden.
Saugen viele eine Datei muß die Platte immer zwischen den einzelnen Teilen hin und her springen, somit ist das nicht mehr sequentiell sondern ehr Random(wenn auch in klar definierten Grenzen).

Wenn also wirklich mehrere Leute parallel saugen, dann brauchst du (wenig)Zugriffszeit, also 10k oder 15k Platten und nich so nen Kinderspielzeuge wie 7,2k.
 
http://sequenziell.informatik-info.net/

Saugt man also ein (großes) File spricht man sequentiell, da hier die Teile der Datei step by step gesaugt werden.
Saugen viele eine Datei muß die Platte immer zwischen den einzelnen Teilen hin und her springen, somit ist das nicht mehr sequentiell sondern ehr Random(wenn auch in klar definierten Grenzen).

Da spielt dann auch Defragmentierung wieder eine große Rolle. Allerdings nicht bei Linux ;)
 
Genau für den parallelen, aber einzel betrachtet sequenziellen, Zugriff gibt es read ahead, IO/Scheduling, NCQ und Caches. Die funktionieren genau in diesem Fall am besten. Das ist weit entfernt vom typischen random access, wo die Vorhersage des nächsten Plattenzugriffes kaum besser als pures Raten ist.
Einfacher Test: Kopier mal eine große Datei von einer Platte auf die selbe Platte, dabei hast du fast 100% der Plattenleistung (50% lesen, 50% schreiben).

Edit:
Die Festplatte ist jetzt nicht die schnellste und der Cache bringt hier nicht wirklich etwas, aber es gibt jetzt zumindest mal ein paar harte Zahlen zum diskutieren.
$ dd if=ubuntu-8.04-dvd-amd64.iso of=/dev/null 7640812+0 records in
7640812+0 records out
3912095744 bytes (3,9 GB) copied, 94,792 s, 41,3 MB/s
$ dd if=ubuntu-8.04-dvd-amd64.iso of=ubuntu-8.04-dvd-amd64.iso.2
7640812+0 records in
7640812+0 records out
3912095744 bytes (3,9 GB) copied, 224,561 s, 17,4 MB/s

Btw.: Meine erste "LAN"-Party waren 2 Rechner, die über ein 115k Baud gekreuztes, serielles Kabel verbunden waren. Nix Mega oder Giga! :rolleyes:
 
Zuletzt bearbeitet:
Ich hab das Cross-Link Kabel immer noch hier rumliegen!
Gespielt haben wir Nascar .. das aller erste ^^
 
http://sequenziell.informatik-info.net/

Saugt man also ein (großes) File spricht man sequentiell, da hier die Teile der Datei step by step gesaugt werden.
Saugen viele eine Datei muß die Platte immer zwischen den einzelnen Teilen hin und her springen, somit ist das nicht mehr sequentiell sondern ehr Random(wenn auch in klar definierten Grenzen).

Wenn also wirklich mehrere Leute parallel saugen, dann brauchst du (wenig)Zugriffszeit, also 10k oder 15k Platten und nich so nen Kinderspielzeuge wie 7,2k.


Danke für die Erklärung.
meinste ältere 19 GB SCSI Server platte mit 10K im Raid erfüllen ihren Zweck ?
selbst am normalen PCI-Bus ?
LAN ist Onboard und sollte nicht die Bus leistung beeinträchtigen ..
 
würde in soner situation nichn torrent gut sein?

warum ist darauf eigentlich noch keiner eingegangen? dadurch würde sich das festplattenproblem auf viele kleine clients verteilen. das problem mit der festplattengeschwindigkeit und zugriffszeit wäre also aus der welt geschafft, das limit liegt dann nur noch am netzwerk. was spricht denn dagegen?
 
Über PCI mit 32bit bekommste theoretisch max 133MB/s, mir ist es aber bisher nicht gelungen mehr wie 70MB/s (3ware controller!) rauszuholen.

Die "schnellste" Lösung wird wohl wirklich die von barzefutz sein und torrent lokal nutzen.
 
Wir haben bei der letzten lan auch Torrent eingesetzt, weil wir dachte jeder zieht und gibt gleichzeit das frei was er bis dahin gezogen hat.

in der Praxis, ging der "server" in die Knee (keine ahnung warum) und es die leute haben mit 50 KB/S bis 3 MB/s gezogen. es schwankte stark und ging teilweise richtig arg runter.

Natürlich haben wir uns alle aufgeregt !
auch schlimm finde ich, das beim anlegen der Torrent die CPU auslastung auf 100%...

NAJA in der Theorie gut Praxis Lame,

Ich habe noch mal was anderes. und zwar habe ich mir grade 7 SCSI Platten von HP 18GB Ultra3 10K bei Ebay bestellt, laut google ist der Ultra3 Stardard der erste welcher 160MB/s kann.

Aber bei der Suche eines RaidControllers kommen immer 320 und 160 bei raus.

Kann mir einer zum Ultra3 Standart nen Paar hinweise geben, vorallem wie ich an nen R_Controller komme. Vielleicht kennt der eine oder andere noch von Damals nen guten...


Hmm: ist der 320 oder 160 abwärtskompatible zu "ultra3" ?

dann bräuchte ich einen billigen Controller auf PCE Basis ..


Gruß

uLmi
 
Zuletzt bearbeitet:
PUSH

jungs wichtig ist mir folgendes :

Ultra3 SCSI Platten kompatibel zu Ultra 160 Controllern.


DANKE
 
wieso scsi? reichen da 2 kleine raptoren nicht?
 
SCSI sollte untereinander kompatibel sein, kann höchstens sein das du stecker-adapter brauchst.
 
in der Praxis, ging der "server" in die Knee (keine ahnung warum) und es die leute haben mit 50 KB/S bis 3 MB/s gezogen. es schwankte stark und ging teilweise richtig arg runter.

Natürlich haben wir uns alle aufgeregt !
auch schlimm finde ich, das beim anlegen der Torrent die CPU auslastung auf 100%...

Klingt irgendwie als hätte jeder client die standardeinstellungen übernommen, sprich upload limitiert?
Soviele CPU Power sollte nen torrent nicht brauchen lokal bei nen paar dutzend verbindungen blos.

Das Hashen ist halt anfangs pflicht! Aber das muss man ja nicht direkt auf der lan machen, sondern tage vorher, da man ja weiß was man sharen will...

Würds gern mal lokales gbit torrenting ausprobieren, hab hier nur leider nicht genügend rechner und auch kein gbit :|

edit :
seh grad gibt auch DC++ fürs lan... wär vl nochn stück sinnvoller/einfacher, da dort wohl weniger gehasht wird als beim torrent...
 
Zuletzt bearbeitet:
ich versuchs erst mal mit den 10000 UPM Platten.

Ich will lieber was wo ich genau weiss, dass es klappt .

beim Torrent ist das wieder ungewiss und ich habe kein Bock auf der Lan rum zu werkeln.
 
ein board mit 4-8gb speicher, linux drauf (filecaching)
und 4-5 getrennte platten - da teilst die daten auf
so sind nicht 20 leute auf einer platte/array sondern 4-5 und dann hast insgesamt ne wesentlich hoehere datenrate
du koenntest auch 4-5raid1 arrays machen da linux sw raid1 bis zu 2,5x schneller liest als eine platte alleine
 
Deine Idee ist ganz gut... aber einbischen umständlich..

du meinst ein Linux Software raid 1 ist 2,5X als ein single drive ?

aber die Idee die Daten auf mehrere Platten aufzuteilen ist gar nicht mal so schlecht...

ich guck mal welche kombination sich durchsetzt.

Danke
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh