[Kaufberatung] NAS/Server stromsparend

powerfreezer

Neuling
Thread Starter
Mitglied seit
27.02.2010
Beiträge
8
Hallo,

ich plane die Anschaffung eines NAS, auf welchem neben der Datenspeicherung (SMB/NFS) ein DLNA Medienserver (primär für Musik), SCP, HTTP usw. drauf laufen sollen.
Nun ist die Frage, welche Hardware nimmt man am besten dafür.

Ich hatte angedacht, dass es normalerweise (>12 Std. pro Tag) im StandBy ist und bei Gebrauch per WakeOnLAN geweckt wird. Sobald alle Rechner im LAN aus sind oder bei Fernzugriff eine gewisse Leerlaufzeit erreicht wurde, soll es sich wieder schlafenlegen.
Trotzdem wäre ein niedriger Energiebedarf wünschenswert, da sich auch bei 12 Std. / Tag und 50W Stromkosten von 50,- € im Jahr ergeben (12h*0,05kW*365*0,22€).

Weitere Anforderungen:
  • Gbit-LAN
  • RAID5 mit 3 HDDs + OS Platte => 4 SATA Ports
  • sequentielles Lesen bei 1 Zugriff >60MB/s
Interessant wäre sicherlich auch ZFS.

Als Platte für das OS soll erstmal eine 2,5" benutzt werden, später evtl. eine SSD. Die Daten HDDs sollen natürlich nach kurzer Leerlaufzeit "geparkt" werden.

Ich habe mich schon bei den ARM Mainboards umgeschaut, aber nichts passendes gefunden. Gibt es da vielleicht doch was passendes, wenn eine ARM CPU überhaupt ausreichend leistungsstark ist?
Ich denke PowerPC fällt auch raus.

Sonst bleibt noch normale x86 Hardware.
Nur da ist die Auswahl gleich wieder sehr groß.
Atom, VIA, Sempron, kleiner Athlon, Core i3 etc. + Undervolten.

Was sind eure Vorschläge, um einen Spagat hinzukriegen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Arbeitskollege hat etwas in der Art mit einem Atom Singlecore gebaut.
Als Festplatten würden mir z.B. die Caviar Green von Western Digital einfallen.
Würde ein echter Hardware-RAID-Controller in Dein Bidget passen?
Viele OnBoard-RAIDs bieten kein RAID5 und / oder belasten die CPU bei Plattenzugriffen stark.

Bei den Atom-Komplettboards sind diejenigen mit ION-Chipsatz bislang die sparsamsten (Angabe: 8 Watt), gefolgt von denen mit NM10-Chipsatz (Angabe: bis 13 Watt).
Die RAID-Controller scheinen sich jedoch auf RAID 0, 1m 0 + 1 zu beschränken.
 
Zuletzt bearbeitet:
An einen kleinen Hardware-RAID Controller hatte ich schon gedacht, dann müsste das Board nur min. PCIe 4x haben. Wie sind die Unterschiede zwischen z.B. einem Highpoint Rocket Controller ohne Speicher und LSI 3ware Escalade oder Areca ARC-1210 mit?

Die Caviar Green hatte ich auch schon ins Auge gefasst, ich finde die variable Drehzahl interessant. Nur ich hatte gelesen, dass die sehr lange zum Anlaufen brauchen. Betrifft das nur eine ältere Baureihe oder ist die Problematik noch aktuell?
 
Zu den Probleme der WD-Platten kann ich nichts sagen, ich spiele auch immer wieder mit dem Gedanken an einen Mini-Server und finde die Platten daher interessant.

Bei den RAID-Controllern habe ich bislang nicht auf verbauten Speicher geachtet, mir ist eher wichtig, dass es "echte" Hardware-Controller sind und dass sie mit FreeNAS / Linux funktionieren, falls ich kein Windows verwenden möchte.
Allerdings fallen viele Controller alleine schon wegen des Preises aus meinem Raster. ich hatte eigentlich nicht vor, mind. 300,- € für nen Controller auszugeben.
Einige Atom-Boards mit ION-Chipsatz bieten einen PCI-E x16-Steckplatz + OnBoard-Grafik. Da sollte man einen PCIe x4 Controller unterbringen können.
Zu den HighPoint Rocket RAID Controllern habe ich gelesen, dass die Konsole nicht besonders gut zu bedienen ist und z.B. beim Rebuild einer Platte das gesamte System ziemlich start belastet wurde --> langsamer reagierte. Außerdem ist deren Linux-Kompatibilität laut Google nicht die beste.

Allerdings hängt's auch von Deinen Ansprüchen ab.

edit:

Zu Areca habe ich auf Anhieb einige positive Test gefunden, wo u.a. auch die gute Leistung hervogehoben wurde.
http://www.xbitlabs.com/articles/storage/display/areca-arc1220_3.html#sect0

Zu den Caviar Greens kann man zum einen negatives im Sinne von Ausfällen lesen, fragt sich nur ob davon auch die aktuellen Modelle betroffen sind, zum anderen sollen die 2TB-Modelle gut 70 MB/s lesen und schreiben können.
Mal ein positiver Kurztest: http://www.pcgameshardware.de/aid,678008/Western-Digital-Caviar-Green-WD20EADS-2-Terabyte-Festplatte-im-Kurztest/Laufwerk/Test/

Was Desktop-Platten angeht, so hatte ich bislang bei so ziemlich jedem großen Hersteller schon Ausfälle und kleine enttäuschungen. Da muss man sich immer Tests zu genau dem Modell suchen dass man vorhat zu kaufen. Nur die alten Conner-Platten mit 100MB und doppelter 3,5" Höhe gehen einfach nie kaputt.
 
Zuletzt bearbeitet:
Wenn ich mir einen seperaten Controller einbaue, wird es wohl einer aus der unteren Preisklasse sein. Da stehen wohl nur
LSI 3ware Escalade 9650SE-4LPML, 234,- € als Bulk und
Areca ARC-1210 (270,- €) zur Auswahl.
Die haben jeweils 4 SATA Ports. 8 wären natürlich schöner, aber dann ist man auch gleich bei besagten 360 € für einen Areca ARC-1220.

Zuvor muss ich das sowieso erstmal testen, dann kommt einfach eine Platte (evtl. 2 im RAID1) an den onboard Controller, die dürfte die LAN Verbindung ja nicht limitieren.

Eben hab ich noch ein paar Richtwerte zum Stromverbrauch gefunden:
Test: Intel Atom 330 (Seite 10) - 09.11.2008 - ComputerBase

Dort hängt eine Hitachi Travelstar Platte dran und es wird ein Enermax PRO82+ Netzteil verwendet. Das wäre also vergleichbar mit dem System, wenn die Daten HDDs ausgeschaltet sind und nur die kleine Systemplatte läuft.
Allerdings wird für die Atoms noch der alte Chipsatz verwendet, ION bzw. NM10 dürften noch einige Watts weniger schlucken.
Ich stelle mir nur die Frage, ob man nicht mit einem Sempron oder gar dem kleinen Athlon und Undervolting besser fährt. Die großen Boards böten ja auch noch ein paar Vorteile.
 
Die neuen Atom Pine-Trail sind extrem sparsam (D410, D510).
Die alten Atoms sind Stromfresser.

Von Zotac gibts noch ein Board mit 6x SATA, WLAN und Atom D510 (Dual Core).

Das wäre das Zotac NM10-DTX WiFi
Hardwareluxx - Preisvergleich

Natürlich PCIe 16x inklusive...

Ein RAID Controller ist bei 1x Gigabit LAN Unsinn.
Mehr als 110 MB/s schafft man übers Netz auch nicht.
Von den Festplatten eines normalen PCs mal abgesehen.

Ich habe aber selber einen 3Ware 9690SA inkl. Battery Backup Unit.

Nur, ich wollte das, wegen Virtualisierung, also Zugriff aus mehreren Betriebssystemen.

Und wenn man einen Managed Switch hat, kann man 2 oder mehr Netzwerkkarten ein ein Port-Trunk hinzufügen.
So dürfte man mit 2 Netzwerkkarten schon mal 200 MB/s erreichen.

Wenn nun 2 Clients Files ziehen, hat jeder 100 MB/s.

Ausserdem kostet ein Atom D510 DIY NAS gerade mal ca. 220€ ohne Festplatten.

Mit Linux kann man sehr performante Software-Raids machen, also den Raid-Controller kann man sich sparen.
 
Zuletzt bearbeitet:
Auf der Übersicht zum Stromverbrauch der Systeme sind nur die Atom-CPU + Intel 945 Chipsatz gelistet => mit einem ION liesse sich noch ein wenig Strom sparen.
Außerdem bietet der ION-Chipsatz meines Wissens als einziger einen PCIe-Seckplatz.

@Gohst_oc:
Danke für die Infos, mit Linux und Software-RAID habe ich bislang keinerlei Erfahrungen, bisher hieß es immer Software-RAIDs würden das Gesamtsystem erheblich belasten.
 
Naja, mittlerweile sind Software-Raids multithreaded und somit schnell.
Auf nem Raid-Controller ist auch nicht mehr als eine CPU die vielleicht max. 800 MHZ hat, und auch einen Pentium 3 nicht überbieten kann.

Der Dualcore Atom langweilt sich doch sonst.
Und die Pine-Trail Plattform ist das sparsamste im Moment.
Kein Chipsatz mehr 40 Watt will, und die CPUs sind auch sparsamer.
 
Naja, mittlerweile sind Software-Raids multithreaded und somit schnell.
Auf nem Raid-Controller ist auch nicht mehr als eine CPU die vielleicht max. 800 MHZ hat, und auch einen Pentium 3 nicht überbieten kann.

Der Dualcore Atom langweilt sich doch sonst.
Und die Pine-Trail Plattform ist das sparsamste im Moment.
Kein Chipsatz mehr 40 Watt will, und die CPUs sind auch sparsamer.

Naja, bei nem Raid5 sieht doch ein Atom ziemlich alt aus?
Ich hatte mir das auch mal überlegt, aber der schafft doch nie zB. 100MB/s beim Schreiben?
 
Naja, die Adaptecs mit solchen CPUs kosten extrem viel.
EIn Dell Perc 5i etwa, der hat ne Intel IOP CPU mit 500 MHZ.

Sowas reicht aus für ordentlich power.

Und Software-Raid ist nicht welten langsamer als das Raid eines Controllers.
Was die CPU des Controllers macht, macht nun einfach die CPU.

Der Arbeitsspeicher kann übrigens auch als Schreib-Cache verwendet werden.

Ein Fake-Raid ist langsam, aber Fake-Raid != SW Raid.
Fake-Raid ist weder Multithreaded noch kann es den RAM verwenden.
Das ist eine primitive "Software" die eigentlich der Zeit hinterher hinkt.

Schon ein Fakeraid 5 mit 4 HDDs belastet einen Core 2 Quad nicht mal 30% auf dem ersten Kern.

Und ein deutlich besseres Software-Raid dürften den Atom nicht aus der Fassung bringen.

Ein paar Benches:

http://www.linux.com/news/hardware/...g-hardware-raid-vs-linux-kernel-software-raid

Wie ich so sehe sind ist der Unterschied nicht gewaltig.
So ca. wie 290 vs 235 oder so (schwer es so einfach zusammen zu fassen).

Spontan ein paar gefundene Tipps:
http://www.linuxfoundation.org/collaborate/workgroups/linux-raid/performance

Fakt ist, ein Raidcontroller braucht viel Strom, wird heiss und macht erst mit einer BBU Spass.
Ne BBU kostet bei den 3Wares mit Remote-Board ca. 100€.

Falls du dennoch einen HW Raid-Controller willst, findet man @Ebay ne Menge.
Pass einfach auf, fast alle können scheinbar NICHT mit Platten >2TB umgehen (angeblich).
Aber viele können Gesamtvolumes >2 TB ohne Probleme.

Ein Software-Raid ist eigentlich flexibler.
Bei Rebuilds wird aber ganz klar der Raid-Controller dominieren.

So die üblichen Verdächtigen @Ebay (günstig und angenehm schnell):

- 3Ware 9650
- 3Ware 9690
- Dell Perc 6i
- Dell Perc 5i (schnäppchen)
- HighPoint RocketRAID 4310
 
Zuletzt bearbeitet:
Das weiß ich, ich wollte das nur mal in den Raum werfen. ich bin auch der meinung, wenn eine cpu vorhanden ist, die die meiste zeit idlet, warum soll sie nicht die parität usw berechnen? ... was mich nur daran stört ist, das du (soweit ich noch informiert bin) bei einem board crash dann dein raid an die wand malen kannst.
 
Bei einem Linux-Software-Raid eben nicht.
Das sollte eigentlich in jedem PC mit jedem Board laufen.
Meins hatte den Umstieg von Nforce 6-Amd-Board auf Nforce-4-Intel-Board problemlos mitgemacht. Obwohl bei mir das System mit auf dem Raid1 ist.
 
dann war das anscheinend nur bei windows sw raids so...nundenn spricht meiner ansicht nach für zu hause nichts gegen ein linux sw raid, wenn man sich in linux einarbeiten möchte.
 
Nach einigem Suchen bin ich über Google hier im Forum, quasi um die Ecke fündig geworden:
http://www.hardwareluxx.de/community/f101/server-hardware-fuer-storage-auf-linux-sparsam-594395.html

Den Aussagen im Thread zufolge ist ein Software-RAID unter Linux durchaus gut und sollte mit den meisten Anforderungen zurecht kommen.

Unter Windows scheint hingegen ein "echter" Hardware-RAID die bessere wahl zu sein.

Daher würde ich jetzt erst einmal ein Board mit mind. 4 S-ATA Ports, sicherheitshalber zwei PCIe Ports und 3 Festplatten besorgen und dann austesten wie's läuft.
Vielleicht wäre nach einigen Tests eine dedizierte PCIe-Netzwerkkarte von z.B. Intel sinnvoller als ein Hardware-RAID-Controller.

Zu Linux kann ich noch sagen, keine Angst davor haben.

Ich tendiere momentan mehr zu Ubuntu Server / Debian.

Wenn du Putty richtig einrichtest, hast du auch keine Darstellungsfehler in den Shell-Anwendungen von Ubuntu-Server und kannst mit Putty und WinSCP auch von einem Windows-System wunderbar den Server verwalten.

Du kannst Linux auch erstmal als virtuelle Maschine unter z.B. VirtualBox oder auf einem Testsystem ausprobieren und Dir ein Urteil bilden, bevor Du irgendwelche Anschaffungen tätigst.
 
Zuletzt bearbeitet:
Mit Debian habe ich schon gute Erfahrungen gemacht.
Ubuntu Server dürfte ja auch nicht so viel anders sein.

Von OpenSolaris würdet ihr aber eher abraten? OK, die Community dürfte kleiner sein. ZFS ist natürlich interessant, mit Fuse wohl etwas langsam. Dann ist da ja noch die gute SMB Performance unter Solaris. Hat jemand Erfahrungen mit Software RAIDs unter dem System? ZFS ist ja speziell in die Richtung ausgelegt.
 
Bei Opensolaris hat man schon mühe Treiber zu finden.
Das SW Raid und ZFS sind aber erste Sahne.

Ich würde das Software-Raid auf jeden fall mal zumindest testen.
Wie erwähnt, ein Raidcontroller ist nicht von nöten.

SMB ist übrigens auch noch mal ein Bremsfaktor den man so oder so hat.
 
Ansonsten könnte man Freebsd mit ZFS oder Linux mit BtrFs nehmen.
Ich hatte mal Opensolaris in Vmware mit Raid5 laufen, es war schon nicht übel, was man mit ZFS samt Webinterface so alles machen konnte.
Zumindest mit der Softwareauswahl für Solaris sieht es gar nicht einmal so schlecht aus.
Laut CT-Test vor ein paar Jahren waren aber bei Opensolaris keine nennenswerten Stromsparfunktionen vorhanden, weiß nicht, was sich da mittlerweile getan hat.
 
Ich hab jetzt erstmal ein paar Komponenten bestellt:
Athlon II X2 215, 2 GB DDR3-1333, großen Tower-Kühler um den Lüfter zu sparen und ein MSI 785GM-E65 Mainboard.

Im Idle soll das ganze dann unter 30W schlucken, mal schauen.
Wenns aufgebaut ist, werde ich hier Messungen posten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh