Eigenbau Fileserver; Mainboard??, LAN??, Raid Controller??

Felix8952

Enthusiast
Thread Starter
Mitglied seit
26.02.2010
Beiträge
140
Ort
Gensokyo
Hallo zusammen.

Ich möchte mir einen kleinen Fileserver zusammenbasteln.
Der Server muss nicht allzu viel können, er muss einfach schnell sein. Mit schnell meine ich eine hohe Datenrate.

Da der Server meistens läuft, sollte er, was den Stromverbrauch angeht relativ sparsam sein. Mein Ziel ist es unter 40 Watt Idle zu bleiben.
Da die CPU dabei die Schlüsselkomponente ist, habe ich mich schon ein wenig informiert und bin auf den AMD Sempron 140 für den AM3 Sockel gestossen. Diese CPU ist spottbillig und verbraucht nur 45Watt unter Volllast.

Jetzt habe ich noch ein Problem mit dem Mainboard. Das sollte natürlich auch nicht allzu viel Strom verbrauchen. Eigentlich suche ich ein mATX Mainboard, aber wenn es das ultimative Fileservermainboard nur in Standard ATX gibt, werde ich mich auch mit dem vergnügen. Es sollte aber auch mit dem Sempron kompatibel sein.

Eigentlich wollte ich ja ein Intel Atom mini ITX Mainboard verwenden. Aber ich denke das taugt nichts, denn die haben alle nur 2 SATA Anschlüsse und nur einen PCI Steckplatz für eine Raid-Controllerkarte. Da aber der onboard Gbit Netzwerkadapter alles andere als 1000Mbit/sec. bringt benötige ich noch eine Netzwerkkarte, welche aber keinen Platz mehr hat, da ja bereits ein Raidcontroller im PCI Port steckt...

Wie sieht das denn allgemein mit Onboard LAN Controllern aus? Taugen die generell nicht allzu viel und ich muss zu einer Intel PCI-Netzwerkkarte greifen, oder bringen die eine gute Datenrate? Ich erwarte natürlich nicht die theoretischen 125MB/sec. aber so um die 90-100MB/sec. will ich schon haben.

Zum Raid Controller. Ich möchte 4 Platten mit jeweils 1 Terra anschliessen. Das ganze im Raid 1 (Mirroring) also 2 Terra gespiegelt auf 4 Platten. Da Raid 1 nicht wirklich viel Rechenleistung benötigt sollte ein anständiger Onboard-Raidcontroller genügen. Oder irre ich mich da?

Als Netzteil habe ich das Enermax PRO-82+ 385Watt herausgesucht, hat eine gute Effizienz und ich bin mit Enermax bisher immer gut gefahren.

Die Harddisks will ich in Wechselschubladen verbauen, dabei bin ich auf folgendes gestossen:
http://www.raidsonic.de/de/pages/p [...] ctID=5592]
Das sind doch einfach 4 Schubladen, welche eine SATA oder SAS Festplatte aufnehmen und als SATA an den PC weitergeben. Also 1-1 und nicht mit zusäzlichem Controller und anderem zeugs, was eventuell die geschwindigkeit oder die Stabilität beeinflusst?

Das sind jetzt gerade sehr viele Fragen aufs Mal und ich hoffe bald Antworten zu bekommen.

Vielen Dank und freundliche Grüsse:
Felix

Edit:
Jetzt hab ich grad vorhin einen Test mit Gbit Netzwerk gmacht, mit erschreckendem Ergebniss.


Ich habe zwei Sony VAIO Notebooks mit Marvell Yukon Gigabit Netzwerkadapter mit gekreutztem Netzwerkkabel verbunden und kopierte eine Datei.


Die Datenrate war bei 25MB/sec! Was bremst das Netzwerk so extrem, liegt das am Netzwerkadapter oder am System (Windows 7 pro)? Das verwendete Kabel ist zwar nur Cat 5e, aber dafür nur 50cm lang, macht das trotzdem soviel aus?


Wird das bei meinem Fileserver auch so lahm sein, was kann ich dagegen machen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie ich sehe hast du dich mit der Thematik scho beschäftig.

Ja, die meiste ATOM Boards eignen sich nicht wirklich.
Die CPU und der Chipsatz an sich wären gut.

Es gibt aber Atom-Boards mit 5 S-ATA Anschlüssen:

- Zotac NM10-DTX WiFi
- Supermicro X7SPA-H (so eher ein Fileserver-Board)
- Supermicro X7SPA-HF (so eher ein Fileserver-Board)

Die Supermicro Boards sind aber eher teuer, haben nur PCIe 4x und brauchen Laptop-RAM.

Das Zotac ist mit der ICH9 gut gerüstet für ein SW Raid.

Aber für einen gut erweiterbare Server empfehle ich dir aber eher ein Core i3 530. Der ist 1. schnell (viel zu schnell) und 2. extrem sparsam im Leerlauf.

Mir ist bewusst das er massiv zu gross bemessen ist.
Aber ein Software-Raid benötigt schon etwas Leistung.

Mit dem Sempron fährst du auch nicht schlecht.
Das wäre dann die billigere Alternative zur eher teuren Sockel 1156 Lösung.

Zugegeben, die Entscheidung ist nicht einfach.

Atom oder vielleicht doch Sempron?
Kompakter Sparkünstler gegen Eierlegende Wollmilchsau?

Dein Gigabit LAN müsste mehr können. Ganz sicher.
Wie hast du getestet? File kopiert?

Miss am mal mit NetIO

http://www.nwlab.net/art/netio/netio.html
 
Zuletzt bearbeitet:
Danke für die schnelle Antwort.

Diese Supermicro Mainboards sind nicht schlecht. Aber leider etwas teuer und schwer zu kaufen (Schweiz). Taugen denn die SATA Controller bei den Boards etwas. Will eigentlich eher ein Hardwareraid machen. Ist einfacher, stabiler und unabhängiger... Finde ich.

Der Intel ist mir zu teuer und da eigentlich der Sempron bereits overpowered ist, spricht relativ wenig für den i3. Und der i3 hat laut Wikipedia einen TDP von 73Watt(!) der Sempron begnügt sich mit 45Watt. Klar sind das Werte unter Volllast, aber im allgemeinen ist der Sempron schon einiges sparsamer.

Dein Gigabit LAN müsste mehr können. Ganz sicher.
Wie hast du getestet? File kopiert?

Das LAN habe ich getestet, indem ich ganz normal ein File vom einen PC zum andern kopiert habe. Eigentlich genau die Anwendung, für die ich den Server baue.

Ich finde es auch seltsam, dass da nicht mehr rauskommt. Aber jetzt habe ich gerade im Forum gelesen, dass kaum höhere Datenraten als 50-60MB/sec. erreicht werden. Und die verwendeten dort edle Servercontroller.
-->http://www.hardwareluxx.de/community/f67/gigabit-lan-umstellung-hardwarefragen-237201.html

Ich hoffe mal, die haben sich vermessen, denn ich hätte schon mit ca 100MB/sec. gerechnet.
 
Nun, ein Hardware-Raid ist schon geil.

Ich habe auch ein super 3Ware 9690SA 4 Port Controller, mit 512 MB Cache und Battery Backup Unit.

Leider macht das am Gigabit Lan keinen Sinn.
Ich habe zwar traumhafte 285 MB/s mit 4 HDDs (4x 1.5 TB WD Green).
Gemessen mit HD-Tune.

Und Linux hdparm -Tt gibt auch ca. 300 MB/s buffered Read an.
Eine normale SATAII HD (Samsung F1) macht da vielleicht gerad mal <80 MB/s.

Und mit deinem Test hast du gerade die HDDs deiner Laptops getestet...
NetIO ist hier eher aussagekräftig was dein LAN schafft.

Und ich erreiche mittlerweile trotz schlechten NetIO Werten >70 MB/s beim Files verschieben.

Genau das was meine HDD hergibt.
Ein Linux Software-Raid ist schon eine deutliche verbesserung gegenüber non-Raid.

Eigentlich ist dann Linux dein Raid-Controller.
Die CPU berechnet die Paritätsdaten schön Multithreaded.
Genau hier eignet sich der Atom eigentlich gut dank HT und Dual-Core.

Zudem ist der Atom D510 sehr sparsam.
Mir ist schon klar, das die Boards sehr beschränken.
Aber als NAS Ersatz langst längstens.

Ob AMD oder Atom ist wirklich schwer. Intel weniger Strom, AMD sehr viel flexibler.

Der Core i3 ist zu teuer, was ich gut verstehe.
 
Habe jetzt einen Test mit NetIO gemacht.


Bei 1Kilobyte hatte ich 22.38MB/sec
Bei 2Kilobyte 32MB/sec
Den höchstem Wert hatte ich bei 8Kilo, da waren es sage und schreibe 59MB/sec
Danach sank die Datenrate wieder etwas, bei 32Kilo warens noch 49MB/sec

Komischerweise habe ich beim Senden eine höhere Datenrate als beim Empfang, nicht viel aber doh etwa 5MB/sec unterschied.

Aber auch wenn ich so 59MB/sec erreichte, das kopieren von Daten geht trotzdem nicht über 25MB/sec. Und das ist ja wichtig für mich.

Etwas bremsendes gibt es nicht zwischen den PC's,
Nur Netzwerkadapter A --> 50cm gekreutztes Kabel --> Netzwerkadapter B.

Zu den HDD's, wenn ich Dateien von einem USB Laufwerk kopiere, erreiche ich aber bis zu 40MB/sec. Da muss die Disk ja mindestens 40MB/sec schaffen.

Als Betriebssystem habe ich übrigens für den Anfang Windows XP nehmen wollen. Hab ich bereits und ist einfach zu konfigurieren. Ausserdem muss ich mich mit Linux erst noch ein wenig beschäftigen. Auch wenn es sicher besser für einen Fileserver geeignet wäre als Windows XP. Obwohl, ich brauche ja nur einige Laufwerke freizugeben. Eventuell kaufe ich mal noch Windows Home Server Edition 2003, aber zuerst muss mal die Hardware her. Betriebssystem kann ich ja immernoch optimieren.

---------- Beitrag hinzugefügt um 22:28 ---------- Vorheriger Beitrag war um 22:12 ----------

Uiuiuiii, Du hast doch recht gehabt...

Der zweite Laptop ist ja voll der Lahmarsch. Die Festplatte von dem Teil schafft tatsächlich nicht mehr als 30MB/sec.

Habs soeben mit dem USB Laufwerk getestet.
Mein Gott, der ist ja gar nicht so alt, wie kann der nur so lahm sein...

Phuh, hatte schon am Sinn eines Servers gezweifelt, bei dem Speed. Aber so kann man es aushalten.
Mit guten Netzwerkadaptern schaffe ich sicher 80-100 MB/sec. Vorausgesetzt ich mache ein Raid 0+1 aus den 4 Platten.
 
Zuletzt bearbeitet:
Die NICs sollten die 110 MB/s schon hergeben.

Mein Netz hat auch Probleme und schafft dies nicht.
Aber das kommt durch schlechte CAT5 (ohne e) UTP Kabel die etwas zu lang sind.

Daher kommen bei mir CAT7 + Patchpanels und Dosen rein.
Wenn also endlich 10 Gbit LAN Standart wird, muss ich nur noch Patchpanel und Dosen wechseln (naja eigentlich scheisse aber btw).

Mach mal ne RAM-Disk auf beiden Laptops und zieh eine Datei übers Netz...
Ausserdem ist die SMB Performance nicht bei allen OS gleich gut.

Die Unterschiede sind gross.
Wo ein nicht mehr top aktuelles Linux auf ca. > 80 MB/s kommt, schafft Opensolaris >100 MB/s usw.
 
Zuletzt bearbeitet:
Also von RAMdisk zu RAMdisk habe ich ca 50-60MB/sec. Ist eigentlich nicht schlecht für onboard LAN und Cat 5 Kabel.

Mit der SMB Performance habe ich mich noch nicht wirklich beschäftigt, aber ich will eigentlich schon bei Windows bleiben. Einerseits, da die HDD's bereits mit NTFS Formatiert und gefüllt sind und ich die Disks 1-1 vom Server direkt in den PC Schieben können will. Mit dem EXT Dateisystem wird mir das zu umständlich. Aber Windows Home Server Edition sollte da schon eine gute Perfomance bieten, hat ja schliesslich den Windows Server 2003 Kernel.

Wie siehts eigentlich mit Firewire 800 aus. da müsste ja auch 100MB/sec durchgehen. Wäre eigentlich auch eine gute Idee, zumindest zwischen Server und Hauptrechner.
 
Der Server 2003 Kerne ist nicht wirklich so gut.
Erst ab Server 2008 ist die SMB Performance genial (laut Test von CT).

Nur Opensolaris ist noch schneller.
Linux ist mittlerweile auch wieder auf der Höhe der Zeit.

Windows Home Server soll aber sonst relativ praktisch sein.
Ich selber halte es aber für Mist (persönliche Abneigung).

Ich bin der Meinung entweder Windows Server 2008 R2 oder Linux.
Windows Server 2008 R2 kommt vermutlich finanziell nicht in Frage.

Und Linux wäre daher ideal. Ausser natürlich man hat einen MSDN Account...
 
Werd mich demfall mal nach ner inoffiziellen "Testversion" von Windows Server 2008 umsehen.
Kaufen ist ja kaum drin, das OS kostet ja über 500€... Für nen kleinen Fileserver ist das ein overkill.
Wenns wirklich soo viel schneller ist, werde ich wohl doch auf ein Linux umsteigen müssen. Aber wegen 10MB/sec mehr oder weniger mach ich mir nicht die Mühe.

Apropos Geschwindigkeit, wie siehts eigentlich mit Dual-Gigabit-LAN und Port Thrunking aus?
Kann man damit eine hohe Datendurchsatzsteigerung erreichen?
 
Für Port-Trunking musst du eine 802.3ad supportenden Switch haben.
Das sind die managed Switches, und die kosten ordentlich Geld.

Windows Server 2008 macht keinen Sinn.
Es ist weder komfortabel noch speziell gut geeignet.
Absolut Overkill, da es eher für AD und Deployment von Windows-Image, Updates und Software etc.

Linux bietet erst noch mit SWAT ein Webgui um Shares zu erstellen und zu verwalten.
Das gibts bei Windows nicht.
 
Mit einem ordentlich konfiguriertem System und ordentlichen NICs schafft man auch unter Windows gut über 100MB/sec über LAN.
Am OS allein kann man das also sooo primär nicht festmachen...


Ansonsten würde ich an deiner Stelle nicht all zu viel erwarten. Ne Singleuser Zugriffsmessung und daraus resultierende Datenraten von größer 100MB/sec sind keine Seltenheit und sogut wie problemlos erreichbar.
Problematisch wirds, wenn mehrere User zugreifen...

Und wie du schon festgestellt hast, zählt sowohl die Quelle als auch das Ziel beim Filetransfer. Es bringt also sogut wie gar nix, wenn du mit schwachbrüstigen Notebooksystemen auf den Fileserver zugreifst, damit wirst du eher die HDDs in die Knie zwingen als die NIC.
Wenn du ordentlich sequenzielle Datentransferraten haben willst, solltest du auch auf der Clientseite mindestens ein Raid 0 oder Raid 10 haben.

Zum Thema OS, wenn du schon ein XP hast, kannst du das bedenkenlos verwenden. Linux ist zwar schön und gut, man kann viel machen und es kost nix, aber es hat auch nen entscheidenden Nachteil, man sieht nicht durch, es sei denn, man macht öfters mal was damit.
Die Einarbeitungszeit ist gewöhnungsbedürftig lang und auch sonst ändert sich da recht viel mit neuen Versionen usw. Man ist sehr sehr oft an die Komandozeile gebunden, oder an das händische bearbeiten von config Files.

Zur Hardware...
Also nen kleinen Sempron + Board und 1-2GB DDR2 Speicher (wobei 1GB idR vollkommen reicht) sollten dicke ausreichend sein für das Vorhaben.
Das NT ist auch gut.
 
Linux ist zwar schön und gut, man kann viel machen und es kost nix, aber es hat auch nen entscheidenden Nachteil, man sieht nicht durch, es sei denn, man macht öfters mal was damit.

Und was genau ist daran nun der "entscheidende Nachteil" ?

Und vor allem, inwiefern rechtfertigt das den illegalen Einsatz von Windows-Server-Versionen, der hier regelmäßig toleriert wird ?

Grüße
 
Zuletzt bearbeitet:
Das es eben erheblich Einarbeitungszeit bedarf...
Zeit ist bekanntlich Geld, das was man an Zeit "vergeudet" um sich in ein neues System einzuarbeiten rechtfertigt oft nichtmal das, was man an Lizenzkosten sparen würde... Gerade im Privatbereich oder im klein-Firmenumfeld trifft das sehr häufig zu...

Zum anderen Thema, jeder ist selbst für sich verantwortlich, wer also meint sich mit nicht legalen Windows Lizenzen durchschlagen zu müsse, soll das tun. Aber was hat das mit dem Thema zu tun?
Er schreibt doch, er hätte schon eine XP Lizenz...
 
So schlimm ist Linux ja nun auch nicht. Z.B. ein Ubuntu lässt sich schnell installieren, hat meistens alle Treiber dabei (vgl. Windows :) ), sogar den CnQ für die AMD CPU, und ich glaube der Öffentlich Ordner im Home Verzeichnis ist standardmäßig per SMB freigegeben. Zudem wären wohl für ein Software RAID Vorteile zu verbuchen.
Einzig die Benutzerverwaltung für die Freigaben ist dann etwas aufwendiger, aber ist es bei Windows auch.

Edit: Und wenn das System auf einer eigenen Festplatte läuft, können die anderen auch als NTFS bleiben. Das geht auch out-of-the-box.
 
Zuletzt bearbeitet:
Swat ist mit ein paar klicks aktiviert, und ein User mit 1 Zeile Code erstellt.
Viel einfacher ists mit Windows auch nicht. Und mit dem richtigen Linux ist ebenfalls sogut wie alles per GUI möglich.

Zudem ist das neue Samba von Linux schneller als das von XP oder Vista.
Ich habe gar das Gefült dass es Win 2008 R2 überflügelt.

Ich habe mal einfach so ein File verschoben, und endlich mal > 90 MB/s gehabt.
Selbe Hardware etc wie vorher unter Windows 2008 R2.
Aber bei Windows waren 85 MB/s das Höchste aller Gefühle.

Und ich habe sowenig weil: keine Jumboframes aktiv, Trunking noch nicht eingerichtet und schlechte Kabel (CAT 5, ungeschirmt und ca. 20m lang).

Ich weiss, ist nur ne vage Aussage aber immerhin was.
 
Das es eben erheblich Einarbeitungszeit bedarf...
Zeit ist bekanntlich Geld, das was man an Zeit "vergeudet" um sich in ein neues System einzuarbeiten rechtfertigt oft nichtmal das, was man an Lizenzkosten sparen würde... Gerade im Privatbereich oder im klein-Firmenumfeld trifft das sehr häufig zu...

"Vergeuden" ist das falsche Wort wie ich finde. Der Lernfaktor ist enorm, man lernt schließlich nicht nur grundlegende Dinge in Bezug auf Unix-artige Betriebssysteme, sondern auch ganz allgemeine Dinge wie das Zusammenspiel von Hardware und Software.

Zum anderen Thema, jeder ist selbst für sich verantwortlich, wer also meint sich mit nicht legalen Windows Lizenzen durchschlagen zu müsse, soll das tun. Aber was hat das mit dem Thema zu tun?
Er schreibt doch, er hätte schon eine XP Lizenz...

Komisch, da hab ich wohl etwas anderes gelesen:

Werd mich demfall mal nach ner inoffiziellen "Testversion" von Windows Server 2008 umsehen.
Kaufen ist ja kaum drin, das OS kostet ja über 500€...

Grüße
 
Du magst da sicher recht haben... Aber mal ganz ehrlich... Setz jemanden der wenig bis nix mit PCs am Hut hat vor nen Rechner und lass den ne Linux installation machen und dananch vor nen Rechner und lass den ne Windows Installation machen.

Was wird wohl rauskommen?

Oder um nochmal am Fileserver Beispiel zu bleiben. Freigaben unter Windows gehen mit nem einfachen Rechtsklick auf den Ordner.
Versuch mal jemanden beispielsweise am Telefon zu verklickern wie der Samba einzurichten hat... Von Rechteverwaltung mal ganz zu schweigen.

Es geht mir hier keines Falls darum Linux schlecht zu machen. Das defintiv nicht. Sondern es soll ein Hinweis darauf sein, bei Linux ist dann am Ende leider oft nicht alles sooo einfach wie man sich das gerne gewünscht hätte ;)

"Vergeuden" ist das falsche Wort wie ich finde. Der Lernfaktor ist enorm, man lernt schließlich nicht nur grundlegende Dinge in Bezug auf Unix-artige Betriebssysteme, sondern auch ganz allgemeine Dinge wie das Zusammenspiel von Hardware und Software.
Deshalb auch die Anführungsstriche...

Wie gesagt, es gilt abzuwägen. Der Lernfaktor mag sicherlich enorm sein. Die Frage ist, nutzt der Person das etwas? Ja sicher schon im Gewissen Maße, lernen ist immer gut. Aber es gibt schlicht und ergreifend auch Dinge, wo man oft keine Zeit hat oder eben sich diese Zeit durch Abstriche erkauft. Ebenso wenn man mal etwas weiter blickt, sobald die Anforderungen etwas ins Detail gehen, kommt es nicht zu selten vor, das man allein vor der Kiste steht und einfach nicht mehr weiter weis...

So Aussagen wie das ist in wenigen klicks aktiviert usw. trifft sicher auch hier und da zu, nur wer nicht weis wo er klicken muss, der braucht definitiv mehr als ein paar Klicks. Und hier liegt in meinen Augen der riesige Vorteil von Windows. Sogut wie jeder, der irgendwann mal was mit PC Technik zu tun hatte, weis mit Windows in den Grundzügen umzugehen. Was man von Linux eben oft nicht behaupten kann.

Wie gesagt, die oben genannten trifialen Beispiele...


Komisch, da hab ich wohl etwas anderes gelesen:

Ohh stimmt, da hab ich was übersehen...
Ich ging wie im Beitrag 5 noch davon aus, das er ne XP Lizenz nutzen möchte...
Ansonsten gibts ja aber auch ich glaub 180 Tage Testversionen vom 2008er R2. 180 Tage sollten ebenso ausreichend sein um das Produkt vorher zu testen. ;)
 
Zuletzt bearbeitet:
Was wird wohl rauskommen?

...Ein Flamewar? Also ich setze mal einen der wenig mit PC am Hut hat davor und lass ihn ein OS installieren. Da nehmen sich Windows und Linuxe nichts. Danach kommt aber die Treiberinstallation.
Und Freigaben gehen auch mit einem einfachen Rechtsklick, ganz ohne Samba einzurichten*. (*: hängt von der Distribution ab, beim angeführten Ubuntu ist es wie gesagt eingerichtet)

So, und jetzt halte ich zu dem Thema den Schnabel.
 
Treiberinstallation? Aber du willst jetzt nicht behaupten das wäre unter Windows schwer, bzw. schwieriger als Linux...

Aber gut, ich denke mal wir kommen hier sowieso auf keinen gemeinsamen Nenner. Um das nochmal klarzustellen, gegen Linux ist nix einzuwenden. Es ist nur in meinen Augen nicht so einfach schnell schnell mal so gemacht, wie es hier manche gerne gesehen hätten... ;)
 
Also ich fand die Einarbeitungszeit in Windows Server 2008R2 wesentlich gewöhnungsbedürftiger als in Linux. Ich bin zwar mit Windows aufgewachsen, komme aber doch mit einem Linux auf dem Server besser zu recht. Für den Fernzugriff ist es sowieso wesentlich praktischer. Auch gerade, dass man alles in Configs einstellen kann ist eigentlich sehr praktisch, wenn man das Prinzip mal verstanden hat.
 
Jungs, ich bitte euch beim Thema zu bleiben.
Hier gehts es um die Hardware.

Welches BS eingesetzt wird, ist immer eine persönliche Wahl. Der ein sieht hier seine Vorteile, der andere da und somit wird jeder "sein" BS wählen.

Das ist eine Diskussion die keinen Konsens haben kann, da jeder individuellen Vorraussetzungen hat.

Also Back to Topic.

(und von illegale Version will ich hier auch nichts lesen!)
 
Huii, was ist denn hier plötzlich los... :)

Also um mal einiges klarzustellen, ich bin der absolute Hardware Typ und habe für Software nur wenig Interesse und vorallem eifach zuwenig Geduld, und deshalb bin ich kein Freund von Linux. Habs zwar noch nie versucht, aber das, was ich so höre ist das absolut nichts für mich. Ich bin froh, wenn ich mich ein wenig in der Registry zurechtfinde und eine kleine Batchdatei basteln kann, tiefer will ich eigentlich nicht in ein System eingreifen müssen...

Zum anderen will ich NTFS Dateisysteme nutzen, und das geht, soweit ich weiss in Linux nicht, oder nur mit Emulation.

Karbe
Und vor allem, inwiefern rechtfertigt das den illegalen Einsatz von Windows-Server-Versionen, der hier regelmäßig toleriert wird ?
Ich kauf mir doch kein 500€ OS nur für einen kleinen 2Terra-Fileserver... Ausserdem, wenn ihr sagt, das OS bringt keinen wirklichen Vorteil werde ich die Finger davon lassen und auf mein schönes altes GEKAUFTES Windows XP Pro x64 zurückgreifen. Ev KAUFE ich mir ja auch das Windows Home Server, gibt es eigentlich Testversionen von diesen Betriebssystemen?

Gohst_oc
Für Port-Trunking musst du eine 802.3ad supportenden Switch haben.
Das sind die managed Switches, und die kosten ordentlich Geld.
So teuer sind die gar nicht... Hätte da an sowas gedacht: (Cisco SLM2008)

fdsonne
Ansonsten würde ich an deiner Stelle nicht all zu viel erwarten. Ne Singleuser Zugriffsmessung und daraus resultierende Datenraten von größer 100MB/sec sind keine Seltenheit und sogut wie problemlos erreichbar.
Problematisch wirds, wenn mehrere User zugreifen...

Und wie du schon festgestellt hast, zählt sowohl die Quelle als auch das Ziel beim Filetransfer. Es bringt also sogut wie gar nix, wenn du mit schwachbrüstigen Notebooksystemen auf den Fileserver zugreifst, damit wirst du eher die HDDs in die Knie zwingen als die NIC.
Wenn du ordentlich sequenzielle Datentransferraten haben willst, solltest du auch auf der Clientseite mindestens ein Raid 0 oder Raid 10 haben.

Also in der Regel saugt dann jeweils nur ein User Daten vom Server. Und beim Hauptrechner, wo ich vorallem Geschwindigkeit will ist ein Raid 0 drin. Ausserdem würde ich dort auch Dual Gbit NIC's einbauen, sonst würde der ganze Aufwand ja nichts bringen... Beim Notebook habe ich eh keine Chance mit 56Mbit WLAN. Ausser ich hänge ihn ans Kabel. Bei den zwei anderen PC's ist der Speed sekundär.

underclocker2k4
(und von illegale Version will ich hier auch nichts lesen!)
Ich sagte Testversion, nur zum ausprobieren, obs wirklich etwas bringt. Aber da es keine offizielle Testversion gibt muss man sich diese eben inoffiziell beschaffen. Ausserdem würde das System eh nur 30Tage laufen, da ich keine Lizenz zum Aktivieren habe.
 
Hi,

Ich besitze einen I3-530 unter Linux Fedora 12 mit HW Controller.
Netzwerkgeschwindigkeit liegt bei ca. 105-110MB/s per SMB und FTP.
Stromverbrauch 120 Watt mit 9 HDDs.
Von Atom Rechnern würde ich abraten. Nicht erweiterbar und für schnelle Netzwerkzugriffe zu langsam. Vor dem I3-530 hatte ich einen Atom 330. Das restl. System war gleich und die Übertragungsgeschwindigkeit lag bei 50-60 MB/s. Stromverbrauch war ähnlich.

Der Vorteil von Linux sind die grenzenlosen Möglichkeiten.
VPN, Webserver, Datenbankserver, FTP Server etc


Grüsse

McLaine
 
Der Cisco (naja Linksys) Managed Switch ist ganz i.O.

Aber bedenke, 8 Ports sind nix.
Jedenfalls wen der Server schon 2 oder mehr besetzt.
Wenn du dann x Switches zusammenhängst, teilen die sich dann auf dem Managed Switch auch wieder wenige Ports, und dann hast du nix gewonnen.

1 Switch hat intern 16, 24 oder 32 Gbit backbone.
Nutze dies!

Mir ist klar, am Schluss zeihen alle von der 2 Gbit Leitung, aber sämtlicher Verkehr geht dann durch vielleicht 2 Kabel an den Managed Switch, das ist eine Eigentor.

Und XP x64 hat den Server 2003 Core soweit ich weiss (seit einem neuen Servicepackt oder so).
Naja egal wer auch immer was gesagt hat, für maximale SMB Performance kommen nur Server 2008/R2, Linux und Opensolaris in Frage.

Obschon XP vermutlich nicht meilenweit hinterher hinkt.
Auch ein Absolut-neuling schafft es, einen Fileserver @Linux einzurichten.
Das SW Raid @Windows würde ich mir schon garnicht antun.

Und geht doch unter XP sowieso nicht oder?
Also kommt nur Windows Server 2008, Linux oder Opensolaris in Frage.
Windows fällt wegen den Kosten also aus, somit ist Linux wieder die 1. Wahl.

Oder du begnügst dich mit der 180 Tage Test-Version von Windows Server 2008R2.

Das SW-Raid ist auch unter Linux dank diversen Anleitungen schnell gemacht.

Ein User erstellt man so:

adduser [username]

Mehr nicht. Für die LAN musst du nicht mal mit Gruppen arbeiten. Und das ist dann immer noch Welten leicheter als bei Windows eine ganze Domäne einzurichten.
Windows hat sonst nicht mal eine Gruppenkonzept, ausser in einer AD Domäne (AD wiederum ist aber ein Geniestreicht btw).

Und NTFS @Linux ist kein Problem. Nötigenfalls apt-get install ntfs-3g.
Schon kann Linux NTFS super lesen und schreiben (nachdem die HDD gemountet ist).
Und das auch sehr schnell.

Und das SWAT Webgui ist auch komfortabel.
Ich sehe für Windows keinen Vorteil, auch wenn ich persönlich nur mit Windows arbeite und erst seit 1 Woche zuhause einen Linux-Server habe.
 
Zuletzt bearbeitet:
...wiso wollen mir alle Linux andrehen. Ich brauche all die Funktionen gar nicht. Ausserdem könnte man das alles auch mit Windows machen. Ein Software-Raid kommt mir eh nicht ins Haus, ist mir einfach generell unsymphatisch. Wiso etwas in der Softwsre machen, wenn es Hardware dazu gibt?

Das einzige, was der Server können muss, ist Dateien per SMB in anständiger Geschwindigkeit verschieben. Und da reicht es mir aus, wenn ich an die Grenzen der Platten stosse. Und wenn ich das schon mit einfachem Gbit LAN erreiche, spahre ich mir auch die Dual-NIC's.

Zu den 8 Ports, ich brauche nicht viele Ports. Ich habe den Hauptrechner, welcher ev. ebenfalls zwei Ports belegt und dann noch zwei andere PC's, wo die Geschwindigkeit nicht soo wichtig ist. Der Rest sind 4Notebooks, welche am 54MBit WLAN hängen. Ausserdem zieht selten mehr als ein PC' Daten vom Server.
 
Wiso etwas in der Softwsre machen, wenn es Hardware dazu gibt?

Wieso Geld sparen wenn man auch >200€ ausgeben kann?

Im Ernst, wieso etwas mit viel Geld lösen, statt für 0 Cent fast das gleiche zu erreichen?

So schwer ist Linux nun wirklich nicht.
Schneller als ein popeliges XP ist das sowieso.

Und den Cache eines Controllers sollte man sowieso nur mit einer BBU nutzen.
Dann wird ein Controller aber teuer.
Zudem fressen die ordentlich strom.

Du wolltest ja unter 40 Watt bleiben (unrealistisch).
Ein Raid-Controller dürften schon min. 30W (pure Schätzung) verbrauchen.
Anders kann ich mir jedenfalls meinen kochend heissen 3Ware 9690 nicht erklären.
 
Zuletzt bearbeitet:
Für mein Raid 1 (Mirroring) reicht der onboard-Raidcontroller doch völlig. Die Spiegelung braucht weder viel Rechenleistung, noch speziell sichere Controller.

Erst wenn ich mal ein Raid 10 mache, werde ich wohl oder übel auf Software Raid umsteigen müssen. Denn die guten Raid-Controllerkarten sind wirklich viel zu teuer.

Das mit den 40Watt könnte schon hinhauen, die Western Digital green Platten schalten bei nichtgebrauch komplett ab. Und mit AMD "Cool and Quiet" oder wie das auch immer heisst, kann man den CPU Takt im Idle auf ein Minimum Reduzieren.
Wenn das Funktioniert, bin ich warscheindlich sogar unter 40Watt.
Und so extrem auf das letzte gesparte Watt bin ich auch nicht aus. Der Server ist ja auch oft im Standby (Nachts oder wenn ich nicht zuhause bin). Da kann er auch mal ein bisschen mehr verbrauchen. Einfach nicht grad 100Watt...

Und wenn ihr meint, dass Linux soo dermassen besser und schneller und stabiler und und und ist, dann werde ich es mal Probieren. Schaden kanns ja nicht. Aber wehe das Ding läuft dann nicht richtig. :)
 
Raid 1? Ist auch kein Ersatz fürs Backup.
Somit ist m.M.n Raid 1 nicht Sinnvoll genug.

Obschon ich mir mit dieser Aussage viele Feinde machen werde.
Mir ist andererseits bewusst, dass wohl kaum 2 Platten auf einmal kaputt gehen.
 
Also in der Regel saugt dann jeweils nur ein User Daten vom Server. Und beim Hauptrechner, wo ich vorallem Geschwindigkeit will ist ein Raid 0 drin. Ausserdem würde ich dort auch Dual Gbit NIC's einbauen, sonst würde der ganze Aufwand ja nichts bringen... Beim Notebook habe ich eh keine Chance mit 56Mbit WLAN. Ausser ich hänge ihn ans Kabel. Bei den zwei anderen PC's ist der Speed sekundär.

Beachte in dem Fall aber auch weiterhin, wenn du den Trunk auslasten willst, musst du zwei gleichzeitige Transfers laufen lassen...
Sprich du musst zwei Files gleichzeitig über die NICs jagen um überhaupt ansatzweise über 1GBit/sec zu kommen. Die Frage ist, schafft dein Raid 0 am Client oder das Raid 1/10 am Server bei zwei gleichzeitigen Transfers noch Datentraten größer 125MB/sec...
Ich wage das zu bezweifeln ;)

Port Trunking macht Sinn, wenn du richtig viel Bumms umterm Filesystem hast, bei nem Raid 0/1/10 im Bereich 2-4 HDDs geht sich das laut meinen Erfahrungen noch nicht aus.
Zumahl du noch bedenken solltest, das beim Server wohl noch das OS mit auf dem Array liegen wird. Sprich bei Filesystemzugriffen auch die sequenzielle Kopierrate leiden wird.

Und XP x64 hat den Server 2003 Core soweit ich weiss (seit einem neuen Servicepackt oder so).
Naja egal wer auch immer was gesagt hat, für maximale SMB Performance kommen nur Server 2008/R2, Linux und Opensolaris in Frage.

Das stimmt soweit erstmal, XP64Bit basiert auf nem 2003er Server (nicht R2 soweit ich weis)
Diesen gibt es nur in Englisch mit Deutschem Sprachpaket oben drüber...

Ansonsten brauch man über die SMB Performance von Windows auch nicht streiten. Ein XP schafft spielend die 115MB/sec bei GBit LAN, wenn die Netzwerkhardware passt.
Mal ganz davon ab ist wenn dann nicht Windows das Problem, sondern SMB ansich, FTP eignet sich beispielsweise für die reine Kopiererei von Files ne gute Ecke besser. Ist dafür aber auch etwas unhandlicher...

Das SW Raid @Windows würde ich mir schon garnicht antun.

Und geht doch unter XP sowieso nicht oder?
Also kommt nur Windows Server 2008, Linux oder Opensolaris in Frage.
Windows fällt wegen den Kosten also aus, somit ist Linux wieder die 1. Wahl.

Oder du begnügst dich mit der 180 Tage Test-Version von Windows Server 2008R2.

Das SW-Raid ist auch unter Linux dank diversen Anleitungen schnell gemacht.
Diese Anleitungen gibt es aber auch gleichsam für Windows... Anhand einer Anleitung etwas zu konfigurieren ist nicht sonderlich schwierig, sofern die Anleitung auch noch mit der eingesetzten Version kompatibel ist.
Hier sehe ich einen weiteren großen Vorteil bei Windows... Gerade in Bezug auf die einfachen Sachen ala Freigaben usw.
Das ganze hat sich seit gut 10 Jahren (Win 2000) nicht verändert. Bei Linux kann es passieren man sucht vergebens nach config Files die in jeder zweiten Version woanders liegen.

Für mein Raid 1 (Mirroring) reicht der onboard-Raidcontroller doch völlig. Die Spiegelung braucht weder viel Rechenleistung, noch speziell sichere Controller.

Erst wenn ich mal ein Raid 10 mache, werde ich wohl oder übel auf Software Raid umsteigen müssen. Denn die guten Raid-Controllerkarten sind wirklich viel zu teuer.

Was willst du denn genau machen?
Wenn du 4 HDDs hast, bietet sich ein Raid 10 an, oder du machst zwei Raid 1 Arrays. Ersteres kombiniert die Vorteile bei sequenziellen Datenraten (Raid 0) mit dem Spiegeln der Daten (Raid 1) zu einem Raidlevel.
Du hast also ein großes 2TB Volume zur verfügung.

Letzteres wären zwei einzellne Raid 1 Arrays, dir fehlt der Vorteil bei sequenziellen Datenzugriffen, aber du kannst unabhängig voneinander agieren. Sprich zwei gleichzeitige Zugriffe auf jeweils eins der Arrays geht ne ganze Ecke performanter als bei einem großen Volume. Dafür ist bei einem Zugriff halt nur der Speed einer HDD drin.

Da sowohl bei Raid 0, 1 und 10 keine Paritätsdaten berechnet werden müssen, bringt dir ein "echter" Hardwareraidcontroller keine nennenswerten Vorteile. Außer vllt der Cache, der dir Daten zwischenspeichern kann. Aber merken wirst du davon eher wenig.

Das ganze über den Onboard HDD Controller des Boards angebunden wäre im prinzip ebenso ein Softwareraid wie man das in Linux/Windows einrichten würde. Man spricht hier aber oft von Hardware based Raidlevel, einfach weil die Hardware die grundlegende Konfiguration vornimmt. Ein kapitaler Betriebssystemfehler kann dir im reinen Softwareraid Modus die Volumes unter umständen abschießen. Das sollte im Hardwarebased Raid nicht passieren...


Das mit den 40Watt könnte schon hinhauen, die Western Digital green Platten schalten bei nichtgebrauch komplett ab. Und mit AMD "Cool and Quiet" oder wie das auch immer heisst, kann man den CPU Takt im Idle auf ein Minimum Reduzieren.
Wenn das Funktioniert, bin ich warscheindlich sogar unter 40Watt.
Und so extrem auf das letzte gesparte Watt bin ich auch nicht aus. Der Server ist ja auch oft im Standby (Nachts oder wenn ich nicht zuhause bin). Da kann er auch mal ein bisschen mehr verbrauchen. Einfach nicht grad 100Watt...
40W wird schon äußerst schwierig. Auch wenn die HDDs sparend sind und das Restsystem ebenso, sind 40W schon ne gute Hausnummer.
Die HDDs dürften bei den GreenEditions gut 3-5W pro Stück verbrauchen. Macht bei 4 HDDs also schonmal 12-20W allein dafür.

Und wenn ihr meint, dass Linux soo dermassen besser und schneller und stabiler und und und ist, dann werde ich es mal Probieren. Schaden kanns ja nicht. Aber wehe das Ding läuft dann nicht richtig. :)

Das ist Geschackssache, aber lass dich nicht verückt machen, Fakt ist, Linux ist sehr mächtig, wenn man damit umgehen kann. Sich selbst davon zu überzeugen, was Linux kann und was nicht, kann sicher nicht schaden... Schlussendlich kannst du immernoch auf deine XP64Bit Version setzen, falls dir Linux in welcher Form auch immer nicht zusagen sollte...

Man könnte aber beispielsweise mal so Fertig Distris ala FreeNAS und Co. antesten...

Raid 1? Ist auch kein Ersatz fürs Backup.
Somit ist m.M.n Raid 1 nicht Sinnvoll genug.

Obschon ich mir mit dieser Aussage viele Feinde machen werde.
Mir ist andererseits bewusst, dass wohl kaum 2 Platten auf einmal kaputt gehen.

Backup ist ne andere Baustelle, auch wenn man ein anständiges Backup beim Planen der Hardware nicht vergessen sollte, tut es hier erstmal nix zur Sache...
Die Frage ist halt, wie wichtig sind einem die Daten ;)
 
Zuletzt bearbeitet:
fdsonne
Beachte in dem Fall aber auch weiterhin, wenn du den Trunk auslasten willst, musst du zwei gleichzeitige Transfers laufen lassen...
Sprich du musst zwei Files gleichzeitig über die NICs jagen um überhaupt ansatzweise über 1GBit/sec zu kommen. Die Frage ist, schafft dein Raid 0 am Client oder das Raid 1/10 am Server bei zwei gleichzeitigen Transfers noch Datentraten größer 125MB/sec...
Ich wage das zu bezweifeln

Ich weiss, dass ich die 2 Gigabits nie auslasten werde, aber als ich von verschiedenen Leuten hörte, mit Windows sind generell kaum höhere Datenraten als 60MB/sec möglich, dachte ich mit Trunking hätte ich dann 120MB/sec, was mir eigentlich ausreichen würde. Aber da jetzt alle plötzlich von 100-115 MB/sec sprechen ist das was anderes. Ich will einfach etwa 80MB/sec, wenn ich das aus unerfindlichen Gründen nicht erreiche, gibts ein Trunk.

fdsonne
Was willst du denn genau machen?
Wenn du 4 HDDs hast, bietet sich ein Raid 10 an, oder du machst zwei Raid 1 Arrays. Ersteres kombiniert die Vorteile bei sequenziellen Datenraten (Raid 0) mit dem Spiegeln der Daten (Raid 1) zu einem Raidlevel.
Du hast also ein großes 2TB Volume zur verfügung.

Letzteres wären zwei einzellne Raid 1 Arrays, dir fehlt der Vorteil bei sequenziellen Datenzugriffen, aber du kannst unabhängig voneinander agieren. Sprich zwei gleichzeitige Zugriffe auf jeweils eins der Arrays geht ne ganze Ecke performanter als bei einem großen Volume. Dafür ist bei einem Zugriff halt nur der Speed einer HDD drin.

Da sowohl bei Raid 0, 1 und 10 keine Paritätsdaten berechnet werden müssen, bringt dir ein "echter" Hardwareraidcontroller keine nennenswerten Vorteile. Außer vllt der Cache, der dir Daten zwischenspeichern kann. Aber merken wirst du davon eher wenig.

Ein Raid 0 oder 10, kommt nicht in Frage, denn ich will die Platten auch einzeln direkt an einen PC anschliessen können, deshalb kaufe ich mir ja auch so ein schweineteures Backplanesystem.
Da ich ausserdem auch mit den Daten auf dem Server arbeite, also beruflich, müssen die Daten unbedingt immer verfügbar sein, auch wenn der Server mal irgendein Problem hat. Deshalb will ich ja auch ums verrecken das NTFS Dateisystem auf den Platten haben, obwohl das ja angeblich auch unter Linux läuft.

fdsonne
Das ganze über den Onboard HDD Controller des Boards angebunden wäre im prinzip ebenso ein Softwareraid wie man das in Linux/Windows einrichten würde. Man spricht hier aber oft von Hardware based Raidlevel, einfach weil die Hardware die grundlegende Konfiguration vornimmt. Ein kapitaler Betriebssystemfehler kann dir im reinen Softwareraid Modus die Volumes unter umständen abschießen. Das sollte im Hardwarebased Raid nicht passieren...
Das ein Onboard-Raid auch ein Softwaarraid ist, hab ich nicht gewusst. Aber es ist immernoch besser als ein Raid auf Betriebsystemebene, zumindest was die Sicherheit angeht. Aber da ich eh ab und zu ein Backup der wichtigsten Daten auf eine externe Platte mache, ist mir die 100% Ausfallsicherheit nicht sooo wichtig.

fdsonne
Backup ist ne andere Baustelle, auch wenn man ein anständiges Backup beim Planen der Hardware nicht vergessen sollte, tut es hier erstmal nix zur Sache...
Die Frage ist halt, wie wichtig sind einem die Daten
Zum zweiten kann ich sagen, die Daten sind sehr-, bis ultra-wichtig. Aber, wie ober schon gesagt, die wichtigen Daten sind doppelt abgesichert.

fdsonne
Das stimmt soweit erstmal, XP64Bit basiert auf nem 2003er Server (nicht R2 soweit ich weis)
Diesen gibt es nur in Englisch mit Deutschem Sprachpaket oben drüber...
Letzteres hab ich auch schon gemerkt. Ist ja eine Katastrophe in Deutsch, obwohl im Explorer Programme steht, heisst der Ordner richtig Program Files. Was für ein Durcheinander... Unbedingt immer auf Englisch einstellen, sonst droht das Chaos!

Gohst_oc
Mir ist andererseits bewusst, dass wohl kaum 2 Platten auf einmal kaputt gehen.
Man weiss ja nie... Ich werde sicher auch Backups machen. Denn man weiss ja nie, was das System alles verbockt und dabei schreibt der Raidcontroller stillschweigend alle Fehler auf beide Platten...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh