Fileserver zusammenstellung – Meinung gefragt

Noope

Neuling
Thread Starter
Mitglied seit
23.02.2006
Beiträge
161
Ort
Karlsruhe
Hallo,

ich habe mir einen Fileserver zusammengestellt und wollte euch nach euerer Meinung fragen.
Der Server verfügt über 12 SATA2 Festplatteneinschübe. Zwei werden durch die Systemplatten belegt, auf denen unter anderem ein großes Mailarchiv aktiv ist (Cyrus mit vielen E-Mails). Deshalb sollte dieses Raid1 schnell, und vom eigentlichen Speicherplatz getrennt sein. Die restlichen 10 Einschübe werden vorerst nur mit 3 Festplatten belegt (in Raid5), auf welchen sich der eigentliche Speicherplatz befindet. Sollte es zu Platzmangel kommen, möchte ich eine weitere Festplatte gleichen Typs installieren und mit in das Raid5 nehmen können (was mit dem 3ware Raid Controller laut Webseite möglich sein soll). Zudem natürlich die Partition in Linux erweitern (LVM).

Konfiguration:

1x Chenbro RM312 Servergehäuse (12x SATA2 Backplane / Zippy 510W NT (12x Sata Einschub)
http://www.chenbro.com/corporatesite/products_cat.php?pos=16
Dieses Gehäuse habe ich aufgrund der 12 Festplatteneinschübe und der 19“ Bauweise gewählt. Ich verfüge über einen 19“ Schrank im Keller.
Eine günstigere Alternative im 19" Bereich ist mir nicht bekannt.

1x Intel® PC-Mainboard DQ965GF (ftp://download.intel.com/design/motherbd/gf/D5602101US.pdf)
Das Mainboard habe ich mir ausgesucht, da keine anderer Hardware am PCIe x16 Slot / Bus angeschlossen ist, wo später der Raidcontroller eingesteckt werden soll. Zudem ist der Intel Gigabit Netzwerkcontroller am PCIe X1 Slot angeschlossen, welchen ich leer lassen werde. Somit sollte ich auch über das Netzwerkinterface eine gute Performance haben (Gibt Anbindung habe ich).

1x E6600
65W TDP und sehr schnell, denke die optimale CPU für meinen Anwendungszweck.

2x 2GB RAM DDR2 667MHz (ohne ECC / nicht registered)
Aufgrund der günstigen Speicherpreise möchte ich vorerst 2x2GB Markenspeicher installieren und habe somit die Option später noch einmal 2x2GB nachzurüsten. ECC Speicher wird von dem Mainboard, das ich mir ausgesucht hatte nicht unterstützt. Denke aber mit dem "normalen" RAM kann man leben. Ein memtest vor Inbetriebnahme werde ich natürlich durchführen. Bei einem RAM Fehler im Betrieb kann ich eine Downtime von ein paar Stunden verkraften. Meiner Meinung nach ist aus diesem Grund der „normale“ RAM die optimale Wahl für mich.

1x 3ware 9590SE-12M
Denke der beste SATA2 Raid Controller, gerade im Linux Bereich.

2x Hitachi T7K500 (Systemplatte) Raid1
"Schnelle" Systemplatte da Mailarchiv dort abgelegt wird. Hatte zuerst über zwei WD Raptor Platten nachgedacht, diese sind mir jedoch zu teuer.

3x 7K1000 (Fileserver Platten) im Raid 5 (erweiterbar bis 10x7K1000)
Hier wird sicher er ein oder andere sagen - warum keine 2x500GB - die kosten zusammen nur die Hälfte und Platz / freie Einschübe gibt es ja noch genügend.
Das ist schon richtig, jedoch möchte ich die Option haben meinen Fileserver in der Zukunft noch weiter aufzurüsten und habe mit diesen Platten den Vorteil, dass ich jetzt (im Anfangsausbau) Strom spare (aufgrund der geringeren Anzahl von Festplatten).

Soweit so gut. Nun würde ich mich über euere Meinungen freuen - vielleicht hat jemand den einen oder Anderen Verbesserungsvorschlag.

Eine Frage habe ich selbst auch noch:
Sehe ich das richtig, dass ich den 3ware PCIe X4 Raid Controller in den einzigen PCIe X16 Steckplatz auf dem Mainboard einbauen kann ohne Probleme zu bekommen?


Gruß,
Marco
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das mit dem 19" Case und ab in den Keller ist ne vernünftige Methode muss ich sagen.
Zum Board. Ich glaube du siehst die Sache mit dem PCIe etwas falsch. Denn Denn den Onboard Geräten stehen eine bestimmte Anzahl an PCIe Lanes zur Verfügung, der Grakaslot zum Beispiel beansprucht deren 16, der interne Ethernet Controller nimmt beispielsweise nur eine.
Sehr viele Mobos haben nen Ethernet Controller welcher über PCIe angebunden ist, und somit kommts dort nicht mehr zum Flaschenhals.
Die PCIe Slots auf den Boards sind auch alle direkt mit dem Chipsatz verbunden, dort hängen keine weiteren Geräte dazwischen.

Du musst wissen das PCIe soweit kein Bus wie PCI mehr ist, sondern jede einzellne Lane ne einzellne Verbindung darstellt. Jede Lane kann 250MB/sec lesen/schreiben (Fullduplex).
Du kannst also nahezu jedes Board nehmen, welches ne GBit NIC über PCIe angeschlossen hat.

Zur CPU
Was soll denn der Server noch machen? Außer halt als Datenablage dienen?
Denn die CPU ist für nen Fileserver mehr als übertrieben, da würde im Privatbereich der billigste billig Sempron/Celleron reichen. Vorallem da du ja nen Hochwertigen Raidcontroller einsetzt der die Paritätsberechnungen durchführt!

Zum Speicher
4GB Speicher ist auch wiederum mächtig viel wenn der Server nur als Fileserver dienen soll. Es sieht zwar schön aus im Taskmanager oder wo auch immer 4GB und mehr stehen zu haben, aber auch wenns derzeit recht günstig ist, gebraucht wirds für nen Fileserverdienst net!


Noch zum Controller bzw. die Frage nach dem Steckplatz
theoretisch sollte es möglich sein im PCIe 16x Slot was anderes außer ne Graka einzusetzen. Manche Boards kommen aber damit nicht so recht klar.
Ich denke aber mal nicht das es zu Problemen kommen wird. Das Board hat ja ne Onboard Graka, die Probleme die mir bekannt sind/waren, lagen immer daran das das jeweilige Boards im PCIe 16er Slot ne Graka gesucht hat aber halt nicht gefunden hat. Aber das waren alles Boards ohne Onboard VGA!
 
Hallo fdsonne,

danke für deine Antwort.

Denke das mit dem PCIe Bus habe ich nun begriffen. Hatte bis jetzt nur wenig mit PCIe zu tun.

Was soll denn der Server noch machen? Außer halt als Datenablage dienen?
Denn die CPU ist für nen Fileserver mehr als übertrieben, da würde im Privatbereich der billigste billig Sempron/Celleron reichen. Vorallem da du ja nen Hochwertigen Raidcontroller einsetzt der die Paritätsberechnungen durchführt!
Ein Celeron oder Sempron benötigt meines Wissens mehr Strom (aufgrund der Architektur und der fehlenden Stromsparfeatures), als ein Core2Duo. Die Kosten des Strommehrverbrauchs rechtfertigen den (ca. 100EUR) teuerern Preis nach kurzer Zeit denke ich.
Ein weiterer Grund für den E6600 ist das Mailarchiv, welches über Cyrus zur Verfügung gestellt wird. Eine IMAP Suchabfrage über dieses Archiv lastet meinen heutigen AMD MP minutenlang für 100% aus. Denke hier wird die schnelle CPU die Suche extrem beschleunigen.

Zum Speicher
4GB Speicher ist auch wiederum mächtig viel wenn der Server nur als Fileserver dienen soll. Es sieht zwar schön aus im Taskmanager oder wo auch immer 4GB und mehr stehen zu haben, aber auch wenns derzeit recht günstig ist, gebraucht wirds für nen Fileserverdienst net!
Ist das so? Speichert der Fileserver große Datenmangen, die schneller über das Netzwerkinterface kommen, als er schreiben kann nicht im RAM zwischen?
Könnte ich durch die 4GB RAM beim Speichern von Dateien kleiner 4GB nicht die volle Bandbreite des Netzwerkinterfaces bekommen, (70% von 1Gbit.. sprich ~90MB/s)?


Gruß,
Marco
 
Also das mit deinem Mail Archiv kann ich dir so nicht genau sagen, da hab mich keine Erfahrungen mit. Es könnte aber auch Plattenlimitert sein da gerade ja Mails sehr kleine Datenmengen sind!
Aber für den reinen Fileserver brauchst die CPU nicht.
Mhh das mit dem Stromsparfunktionen ist ein Argument, die Cellis sind wohl noch auf Netburst Architektur aufgebaut. In dem Fall könntest du aber trotzdem den kleinsten C2D nehmen den es gibt.
Im Stromsparmodus sollten die alle gleich viel ziehen, also die C2D, da die sich doch alle auf den gleichen Takt zurück Takten, ...


Also beim Speicher, der schreibt direkt auf die Platten, zumindest wäre mir nix anderes bekannt, der Raidcontroller hat ja noch nen eigenen Cache der direkt genutzt wird.
Wenn du nun große Files überträgst, damit meine ich Daten im zweistelligen MB Bereich und aufwärtz, dann wird nahezu mit vollem Plattenspeed gearbeitet werden.
Wie gesagt Arbeitsspeicher wird nicht sonderlich viel gebraucht. Ich würde sogar behaupten das 1GB reichen wird, ...
 
Vielleicht solltest du mal hier reinschauen: http://www.forumdeluxx.de/forum/showthread.php?t=299797

Der Celeron verbraucht definitiv nicht viel, wurde dort auch mehrfach gemessen.

Ebenso ist ein AMD (z.B. X2) im idle stromsparender als ein E6600.

Und hast du mal ausgerechnet, was die Komponenten weniger an Strom verbrauchen müßten, um die 100 € Mehrpreis für den E6600 zu rechtfertigen? :shot:
 
@Skorpion
im idle ist AMD zwar besser, aber sooo sehr viel Unterschied ist da nun auch nicht dazwischen. Und ja du hast recht, die C2D sind teurer, im Grunde genommen ist es aber relativ egal was er nimmt.
Er hält sich ja die Option auf dort bis zu 12 Platten rein zu stecken. Und mit 12 Platten wird die Kiste kein Stromsparer mehr sein ;) Da kommts dann auch die paar Watt mehr oder weniger von der CPU nicht mehr an!
 
aber sooo sehr viel Unterschied ist da nun auch nicht dazwischen
Naja, ca. 40 Watt würde ich nicht als wenig bezeichnen. ;)

Ein E6600 für nen Fileserver ist jedenfalls deultich überdimensioniert, wie du auch schon geschrieben hast, aber wenn Geld keine Rolle spielt und die Stromkosten wohl auch nicht, warum nicht, lol.
 
Wieso 40W?
wie kommst du darauf das ein C2D E6600 im idle 40W mehr verbrauchen sollte als ein AMD Modell?
 
Hab ich vor ein paar Tagen in einem Test gelesen. Frag mich aber bitte nicht wo das war. Hat mich nicht sonderlich interessiert und deswegen auch nicht zu meinen Favoriten hinzugefügt. ;)
 
Neja, das stimmt aber auf jedenfall nicht, wenns 5W sind, dann könn wir drüber renden, aber 40W, nie im Leben, selbst unter Volllast sinds wohl keine 40W Unterschied, selbst nicht wenn man berücksichtigen würde, das ein AMD Modell deutlich höher getaktet sein müsste als ein C2D um gleiche Leistung erziehlen zu können!
 
Bei Vollast ist der Unterschied sehr gering, aber im idle hat AMD eben Vorteile durch C&Q, da verbrauchen die deutlich weniger als C2D.

Wenn ich wieder auf den Test stoße, werde ichs hier verlinken. ;)
 
Jupp mach mal, aber es sind nur einstellige Prozentwerte, wenn ich mich da recht dran erinnern kann!
 
Auf Tomshardware wurde der Stromverbrauch gemessen.
http://hardware.thgweb.de/2007/05/03/intel-l2-stepping/index.html

Von den Core2Duo gibt es wohl ein L2 Stepping, mit dem die CPU weniger Strom benötigt.

So liegt der Energieverbrauch laut TH bei einem E6300 L2 Stepping bei 8,62W IDLE und 37,36W Volllast, anstatt dem "alten" B2 Stepping 12W IDLE und 45,49W bei Last.

Im IDLE liegt der E6600 (B2) bei 12W, der AMD X2 3800 bei 6,1W. In der Tat ein Unterschied von ca. 50%, jedoch "nur" ~6W.
http://hardware.thgweb.de/2007/05/03/intel-l2-stepping/page10.html

Bei Last sind AMD und Intel ungefähr gleich. Außer man verwendet das erwähnte L2 Stepping, da verbraucht der Core2 ein paar Watt weniger.

Bin noch am überlegen welche CPU ich nehme.

Gruß,
Marco
 
deltaW @idle geht 100%ig an den AMD. Vor dem L2 stepping war der c2d "weit" vom athlon weg. Mittlerweile hat sich der wert wesentlich gebessert.

Wenns nen reiner fileserver bleiben soll und der mal ab und zu nen bissle rechnen soll, dann machts auf alle fälle nen X2 3800+EE oder evtl nen 3600+ EE. Die intel sind bei gleicher leistung min rund 50% teurer.

@speicher.

Nen gig reicht locker bei nem fileserver, des ist schon fast zu viel.
Schreibzugriffe auf die platten werden direkt an den entsprechenden controller geschickt und geschrieben, ausgenommen gecachte controller...

Ich hab mir nen routing und virtual PC host mit nem 3600+ EE und 2GB RAM gebaut. Inkl 2er NB platten brauch die kiste run 45W idle, ohne weitergehende optimierungen. Klar könnte der performanter sein@virtual PC, jedoch war das stellenweise so gewollt.
 
Naja, im mittel ist die auslastung gering. Wenn die dann mal alle gleichzeitig rattern(was selten vorkommt, aber es kommt vor) dann wirds halt eng. Da die teile aber die meiste zeit idlen, lebe ich mit dem engpass im extremfall. (noch? schaun ma mal, obs mich irgendwann ankotzt)
 
1x 3ware 9590SE-12M
Denke der beste SATA2 Raid Controller, gerade im Linux Bereich.

Ich würd auch def. einen Blick auf die Areca-Modelle werfen, grad wenn auch der Stromverbrauch des Sys ein Thema ist
--> http://www.forumdeluxx.de/forum/showthread.php?t=348027

Überlege derzeit selbst, ob ich die 3Wares deshalb aus meinen Fileserver rauswerfe...

Auch würde ich überlegen ob du mit HDDs der Marken Seagate oder den WD RaidEditions hinischtlich der längeren Ganrantiezeit (5 Jahre) nicht besser fährst.
WD bietet sogar vorabtausch der Platten an, wenn man den RMA per Kreditkarte abwickelt.
--> http://websupport.wdc.com/warranty/rmainfo.asp?custtype=end&lang=de
 
Zuletzt bearbeitet:
Auf Tomshardware wurde der Stromverbrauch gemessen.
http://hardware.thgweb.de/2007/05/03/intel-l2-stepping/index.html

Von den Core2Duo gibt es wohl ein L2 Stepping, mit dem die CPU weniger Strom benötigt.

So liegt der Energieverbrauch laut TH bei einem E6300 L2 Stepping bei 8,62W IDLE und 37,36W Volllast, anstatt dem "alten" B2 Stepping 12W IDLE und 45,49W bei Last.

Im IDLE liegt der E6600 (B2) bei 12W, der AMD X2 3800 bei 6,1W. In der Tat ein Unterschied von ca. 50%, jedoch "nur" ~6W.
http://hardware.thgweb.de/2007/05/03/intel-l2-stepping/page10.html

Bei Last sind AMD und Intel ungefähr gleich. Außer man verwendet das erwähnte L2 Stepping, da verbraucht der Core2 ein paar Watt weniger.

Bin noch am überlegen welche CPU ich nehme.

Gruß,
Marco

Ich frage mich nur was die da gemessen haben?
Wenn ein 2MB C2D im vergleich zu nem 4MB C2D weniger Strom verbraucht, gut, dann sehe ich das ein, aber ein X6800 (20,64W idle) im Vergleich zu nem E6700 (15,78W idle) ist eigenetlich nicht zu glauben. Soweit mir bekannt senkt Intel den Multi auf 6 ab, und wenn dann der FSB std. mäßig bei 266MHz steht ergeben sich bei beiden gleiche Taktraten und gleiche Corespannungen. Bedeutet die beiden müssten nahezu gleichen verbrauch haben.
Find den Test irgendwie unglaubwürdig!

Genau so bei den AMDs, der 3800+ EE und der 5400+ haben beide 512KB Cache und takten beide auf die gleiche Frequenz im idle zurück, die Spannung wird auch bei beiden auf das gleiche abgesenkt soweit ich weis. Einzig der EE kann brauch weniger Saft unter Last, deshalb auch EE.
Und bei den beiden sind auch 2W Unterschied, ...

Soviel zu den Tests von THG
 
drdope:
Ich würd auch def. einen Blick auf die Areca-Modelle werfen, grad wenn auch der Stromverbrauch des Sys ein Thema ist

Wenn das denn so ist (platten bei nichtgebrauch herunterfahren), wäre es eine tolle Sache. Nur kann ich mir nicht vorstellen, daß Areca ein spindown auf ein im Raid aktives Laufwerk durchführen kann.
Das Feature heisst:
"Support spin down drives when not in use to extend service life (MAID)"

Ich denke es sind hier Festplatten gemeint, die sich nicht in einem Raid befinden, wie zum, Beispiel eine Hotspare.

Leider finde ich keine weiteren Infos, weder auf der (extrem langsamen) Webseite von Areca, noch im Handbuch, das man herunterladen kann.


Gruß,
Marco
 
Ich habe mal eine E-Mail an areca sales tw geschickt. Sobald ich das schwarz auf weiss habe werde ich den areca controller kaufen :)


Gruß,
Marco
 
Gib die Info mal bitte an die allgemeinheit weiter, thx!
(ne PN tuts aber auch)
;)
 
Für alle, die es interessiert:

Die areca Raid Controller können die Festplatten, die sich in einem Raid befinden herunterfahren.

Hier die Antwort von Areca, die ich auf meine Anfrage hin erhalten habe:

------------ Mail ------------
Hi,

The function is based on the raid set, also included the hotsapre.

Regards
Billion Wu
----- Original Message -----
> Hello,
>
> I have a question to the ARC-1231ML SATA Raid controller:
> You write in the specifications:
>
> * Support spin down drives when not in use to extend service life (MAID)
>
> Is this spindown for a ex. complete raid5 (or any harddrives included in
> the raid) or only for "IDLE" harddisks without beeing a member of a raid
> (like a hotspare)?
------------ /Mail ------------


Gruß,
Marco
 
Hallo ersma,

wenn ich Dich richtig verstanden habe benötigst Du ein stromsparendes RAID 5 als Fileablage - sonst wohl zu nix.

Da haust Du mit der Hardware natürlich ganz schön rein.

Hatte vor kurzem das gleiche Problem und habe mich entschlossen das Thema über ein NAS abzufackeln.

2 Geräte, die meine Ansprüche an Datenverfügbarkeit und Energieeffizienz befriedigten waren das Thecus 5200 und das Linksys NSS 6100.

Entschieden habe ich mich für letzteres, da es ein paar Features hat, die mir persönlich sehr am Herzen liegen.

Beide beherrschen den Spindown der HDs, haben 2 x Gigabit, online-Erweiterung etc. Zudem pumpen sie ordentlich ins Netz. Gut, die Sättigung eines Gigabit-Anschlusses werden sie nicht erreichen, aber weit über 30 MB/s schreibend und lesend sind i.O.

Preislich bewegen sich die beiden zwischen 700 und 1000 € ohne HDs.

Bei Bedarf kann ich in den nächsten Wochen Testwerte abliefern.

Gruß

Jabba
 
jo, solange, bis ihn nach einem Jahr die Stromrechnung einholt.
 
Wenn man das richtig anpackt, dann lohnt sich so ne kiste net.

Gehen wir mal von 25W für NAS aus und 60W bei einem low powered server.
Ohne Platten versteht sich.
Aufs jahr gesehen bei einem kw/h preis von 0,2 EUR bringt eine ersparnis von 1W einen kostenersparnis beim strom von 1,752EUR.
Bei den oben angenommenen leistungsannahmen, spart man sich im jahr 24/7 61EUR

Solch ein low powered server kostet um die 300EUR. Macht bei den NAS einen mehr aufwand von 400-700EUR.
Von gebrauchten komponeten rede ich jetzt mal garnicht.

Macht also 6,5 jahre zeit, bis man einen direkten vorteil mit einem NAS gegenüber einem low powered server hat, in bezig auf die stromaufnahme.
 
Zitat:
Preislich bewegen sich die beiden zwischen 700 und 1000 € ohne HDs.


Da kommt er ja mit seinen Komponenten günstiger weg.

Das ist genau der Punkt, dass gute NAS Systeme deutlich teurer als ein günstiger Server sind - Stromverbrauch rechnet sich auch nicht wirklich. Also steht am Ende die Frage, wie wichtig Erweiterbarkeit und Administration sind.

Das teuerste sind sowieso Controller und HDDs (Anschaffung und Verbrauch) - als Komponenten langen ein kleiner X2, oder kleiner C2D + 2GB RAM (kostet ja fast nichts mehr) + Mobo (P35, z.B. DS4/ 690G/nforce430) - evtl. reicht auch eine alte 4Mb PCI Karte, wenn sowieso fernadministriert wird. Alles andere ist Overkill, bzw. irrationaler Hardwarewahn :xmas:
 
hehe da will sich jemand eine ähnliche config zusammenbauen....

wegen maid wurde im storage forum schonmal gefragt:

2432645tzgrthrehqkl.jpg


das gehäuse ist erste sahne :) ich hatte jedoch das eins größer verbaut:
imag0006bf4.jpg


mainboard hatte ich das g965whmkr genommen. ist fullsize und praktisch für erweiterungen. zwar kein serverboard aber naja war auch so vom kunden gewünscht. (für das billigste serverboard kann man sich jenes 3x kaufen) performance stimmt und der areca wird als pci-e 8x erkannt :)

festplatten waren hitachi und sind in dem ding erstaunlich kühl. 30-34 grad je nach umgebungstemp.
 
Zuletzt bearbeitet:
@Jabba
neja so drastisch viel unterschied ist da auch nicht drin.
Er hat ja vor bis zu 10 Platten einzusetzen. Sagen wir mal 10 Watt pro Platte, sind schon 100W. Das System wird auch nur um die 40W im idle ziehen. Und bei Datenzugriff bleibt es auch dort, ... Der Raidcontroller nimmt noch mal etwas, ...
Schätzen wir mal auf 10W, sind wir in Summe bei 150W idle Verbrauch.

Ne NAS Lösung brauch zwar weniger, aber du kannst ja mal Rechnen wie lange man das NAS laufen lassen müsste um die deutlich höheren Anschaffungskosten zu rechtfertigen.
Dazu kommt das du mit dem PC irgendwie flexibler bist wohl auch mehr Datendurchsatz erreichst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh