OpenSolaris 2008.11 als NAS (c't)

Im Moment ist der Platzbedarf noch nicht so akut. Daher werde ich wohl abwarten, bis sich die WD20EADS auf einen stabilen Preis eingependelt haben. Eine Alternative wäre noch, eine zusätzliche WD10EADS einzubauen. Das würde allerdings bedeuten, dass ich alle Daten zunächst extern wegkopieren müsste, um den Pool neu zu bauen. Ich bräuchte also sowieso eine WD20EADS. Allerdings steckt in der Methode auch sehr viel Arbeit. Ein Tausch der drei WD10EADS gegen drei WD20EADS wäre sehr viel einfacher.

Jo aber bei 3 Stück da wäre ja nur 66% vom Tatsächlichenkapazität nutztbar
was mir eindeutig zuwenig war.


naja ist halt kacke das man kein raidz1 erweitern kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, jetzt mal dazu:

1. Kein Netzwerkkabel verbunden, alles auf Auto: 4,7 W
2. 1x 1GBit verbunden, Rest Auto und nicht verbunden, kein Traffic: 4,9 W
3. 1x 100MBit verbunden, Rest Auto und nicht verbunden, kein Traffic: 4,6 W
4. 2x GBit + 1x 100MBit, Rest Auto und nicht verbunden, Idle-Traffic: 5,2 W

Man kann also sagen:
Grundverbrauch, wenn alles auf Auto steht: 4,7 W
Verbrauch pro GBit-Link: + 0,2 W
Verbrauch pro 100MBit-Link: - 0,1 W
Idle-Traffic (grundlegende Netzwerkkommunikation, die immer läuft): keine messbaren Auswirkungen

Danke für die Messungen. Sehen ja recht gut aus, sprich braucht kaum mehr als nen alten 8-Port 100Mbit-Switch, den ich noch in ner Kiste liegen hab, der viel weniger kann.

Ich hab mir jetzt den HP ProCurve 1800-24g angeschafft (kam gestern). Hier mal meine Meßwerte (ermittelt mit Conrad Energy Check 3000):

Grundverbrauch (Default-Einstellungen, nix angeschlossen): 16,3 W
zusätzl. Verbrauch pro Gbit-Link: ca. 0,2W
zusätzl. Verbrauch pro 100Mbit-Link: ca. 0,1W
zusätzl. Verbrauch bei Tranfers mit ca. 50MB/s zwischen 2 Gbit-Links: 0,1-0,2W

Verbrauch MiniGBIC-Modul: + 0,2W
moderater Transfer über MiniGBIC (ca. 35MB/s): + 0,1-2W


Ich hatte mir eigentlich nen etwas günstigeren Idle-Verbrauch gewünscht und einen stärkeren Anstieg bei starken Transfers, aber man kann nicht alles haben.


Zum eigentlichen Thema:

Ich bastel seit 2 Tagen an meinem ZFS-Fileserver auf Opensolaris 10 Basis (Release von 11/2008) rum. Von meinem Vista Ultimate 64bit zu dem Fileserver konnt ich Daten mit ca. 27MB/s schieben, umgekehrt konnt ich sie nur mit ca. 13M/s saugen. Alle Anpassungen der TCPWindowsize, der Flußkontrolle oder Jumboframes halfen nix.
Heute vormittag auf einmal ging es von Vista zu OS mit ca. 54MB/s und zurück mit 48MB/s (theoretisches Maximum der Fileserverplatte liegt momentan bei ca. 70MB/s in meiner Windowskiste noch höher). Normalerweise hab ich immer einen Musikplayer unter Win laufen und er war zu dem Zeitpunkt aus. Kaum hatte ich ihn wieder angemacht, fielen die Transferraten wieder wie zuerst oben angegeben.
Mir war bekannt, das MS bei Vista eine Art Priorisierung zwischen Wiedergabe von Mediendateien und dem Netzwerkverkehr vorgenommen hatte, aber das war lange vor SP1. Dachte eigentlich, dass das SP1 oder einer der zahlreichen Patches dieses Problem ('tschuldigung ... Feature :d) längst behoben haben, aber dem ist wohl nicht so.
Muß ich mich jetzt mal auf die Suche machen, wie ich dem Problem beikommen kann.

Mechkilla

P.S.: Die aktuelle Fileserverplatte ist nur für Testzwecke drin, für die Daten wirds letztendlich ein Raidz1 aus 4x 640GB (WD Green Power).
 
Zuletzt bearbeitet:
Ich hab mir jetzt den HP ProCurce 1800-24g angeschafft (kam gestern). Hier mal meine Meßwerte (ermittelt mit Conrad Energy Check 3000):

Hat der 24er eigentlich einen Lüfter? Bei der neuen Version sollte der ja ohne auskommen.

Die Werte waren aber zu erwarten. Schließlich muss ja die dreifache Menge an Ports idle versorgt werden. Der Grundverbrauch sind ja nun mal die Ports und nichts anderes.

Deine Übertragungswerte decken sich ungefähr mit meinen. Bei GBit sollte ja theoretisch mehr drin sein (80/90 MiByte/s denke ich), nur scheint irgendwas zu limitieren, weswegen ich auch durch Trunking nicht mehr hatte. Hast du auf der Windows-Seite eine Firewall, einen Virenscanner o.ä. laufen? Wenn ja, welche?

Ich werde die nächsten Wochen noch mal iSCSI ausprobieren. Mal sehen, ob ich damit mehr rüber bekomme.
 
Hat keinen Lüfter. Die erste Version (J9028A) hatte einen, wurde aber wohl nur wenige Monate produziert. Ein paar Händler bieten den noch an, aber die meisten verkaufen die B-Version ohne Lüfter. Geizhals listet beide.
Auf der linken Hälfte (wo das Netzteil ist), wird die Kiste leicht handwarm. Im Handbuch steht allerdings noch, das der Switch nicht in Umgebungen über 40°C zu betreiben ist.


Firewall usw. hab ich ausgemacht, hatte aber auch nix gebracht.

Ob es ein generelles Limit gibt, weiß ich nicht, seh ich dann, wenn ich das RAIDZ1 eingerichtet hab. Ich hoff es nicht, aber ca. 50MB/s ist auch nicht übel und reicht letztendlich auch aus. Muß aber noch das Problem der Medienpriorisierung lösen (hatte heute nachtmittag noch keine Zeit für).
 
Ich will demnächst auch ein NAS mit OpenSolaris realisieren.

Dazu einige Fragen:
Ich will eine reine Software RaidZ-Lösung - also keine Hardware-RAID Karten.
Allerdings soll die NAS-Box bis zu 8 HDDs beinhalten; Welches (stromsparendes) MoBo ist da geeignet (Intel Sockel 775)?
SATA-Controller findet man leider nicht in deren HCL und in Foren liest man unterschiedlichste Angaben zu JMicron und SIL Chipsätzen :(
Intels ICH10 mit 6 Ports scheint zu klappen, aber wie sieht es mit den Zusatzports auf aktuellen MoBos aus, bzw. weiss jemand von euch, welche PCIe SATA-Karte (1-4 Ports) mit OpenSolaris zusammenarbeitet?
Was ist besser als Systemplatte, ein CF-to-IDE Adapter mit CF-Karte oder eine günstige (und kleine) IDE-SSD? Ich würde 4 GB RAM verbauen wollen, somit sollte das System nicht swappen müssen.

Ich würde mich echt über Feedbac
k freuen - die externen HDDs müssen endlich weg :)

also mit meinem MOBO
http://geizhals.at/deutschland/a304567.html


funktioniert jetzt alles wunderbar habe gerade 8 HDDs drann und kein problem
 
Hi

Meine NAS Hardware: Mainboard ALiveNF7G-FullHD R3.0 , Athlon 64 X2 4850e, 2GB RAM. Die Hardware ist eigentlich ein Fehlgriff, weil erstens 2008.11 offenbar das AMD Cool n Quiet nicht unterstützt und zweitens das onboard nForce Gbit LAN auch nicht. Deshalb verwende ich einen Intel Intel EXPI9301CTBLK Netzwerk Adapter, den Nachfolger des nicht mehr lieferbaren EXPI9300PTBLK Pro. 3x 500 GB SATA Platten in raidz1 und eine Bootplatte.

Während der Installation von OpenSolaris ab externem USB Laufwerk musste im BIOS USB 2.0 ausgeschaltet sein, sonst hing sie.

Zur TCP Window Size fand ich:
ndd -set /dev/tcp tcp_xmit_hiwat 131072
ndd -set /dev/tcp tcp_recv_hiwat 131072
aus http://opensolaris.org/jive/thread.jspa?messageID=309347

Hat aber auch nach einem Reboot nichts gebracht. Kann jemand bestätigen, ob das so richtig war?

Wenn ich grosse Dateien vom NAS auf einen Windows XP Client kopiere, kriege ich zwischen 55 MB/s und 30 MB/s schwankenden Durchsatz, durchschnittlich ca 45 MB/s..

Beim Schreiben allerdings kriege ich im Task Manager - Netzwerk Tab eine Berg- und Tal-Lanschaft, das heisst es werden alle drei Sekunden Daten mit ca 60 MB/s übertragen, und dann gibt es eine Pause und die Disks rattern kurz, so dass der Durchsatz nur ca 25 MB/s ist. Vielleicht macht das RAID-5 Gedenkpausen. Muss das so sein? Wenn nicht, was kann ich dagegen tun?

Ich möchte in die Nähe der von c't angegebenen Werte von ca 80 MB/s Schreiben und über 100 MB/s Lesen kommen.
 
Zuletzt bearbeitet:
Hi Nasbastler,

genau das gleiche Problem habe ich auch: Beim Schreiben habe ich im Schnitt so um die 30 MB, im Task-Manager habe ich auch diese Berg- und Tal-Landschaft im Bereich Netzwerk festgestellt.

Beim Lesen von Solaris zu Windows erreiche ich so um die 70 MB.

Irgendwie ist schon etwas mysteriös ;-)

Welche Hardware hast du im Einsatz?
 
Ich hab mal vollständig halber noch den Verbrauch des HP 1800-24G bei Nutzung eines MiniGBIC-Moduls hinzugefügt: guckst Du
 
ich habe mal nen Test gelesen wo Debian / Ubuntu / OpenSolaris eigentlich vom Speed her gleich waren im Netzwerk..
 
genau das gleiche Problem habe ich auch: Beim Schreiben habe ich im Schnitt so um die 30 MB, im Task-Manager habe ich auch diese Berg- und Tal-Landschaft im Bereich Netzwerk festgestellt.

Beim Lesen von Solaris zu Windows erreiche ich so um die 70 MB.


Welche Hardware hast du im Einsatz?


Die 'Berg- und Tal-Landschaft' hängt mit der Art und Weise zusammen wie das ZFS Daten auf die Platte schreibt. Das Ganze wird hier schön beschrieben.

Um die Spitzen beim Schreiben von großen Daten über das Netzwerk etwas zu kappen, kann man die Zeit, die ein TXG sync in Anspruch nehmen soll, von standardmäßigen 5 Sekunden auf 1 Sekunde runterschrauben:


Code:
su    #pfexec reicht nicht
echo "zfs_txg_synctime/W1" | mdb -kw


Um das Ganze auch nach einem Neustart des Systems beizubehalten der Datei /etc/system folgendes hinzufügen:
Code:
set zfs:zfs_txg_synctime = 1

Ergebins
vorher (5s):
Code:
$ zpool iostat tank 1
               capacity     operations    bandwidth
pool         used  avail   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
tank         968G  1.77T      0      0      0      0
tank         968G  1.77T      0      0      0      0
tank         968G  1.77T      0      0      0      0
tank         968G  1.77T      0    163      0  20.1M
tank         968G  1.77T      0  1.22K      0   155M
tank         968G  1.77T      0  1.25K      0   159M
tank         969G  1.77T      0    537      0  46.6M
tank         969G  1.77T      0      0      0      0
tank         969G  1.77T      0      0      0      0
tank         969G  1.77T      0      0      0      0
tank         969G  1.77T      0    424      0  52.0M
tank         969G  1.77T      0  1.31K      0   167M
tank         969G  1.77T      0  1.27K      0   160M
tank         969G  1.77T      0    118      0   582K
tank         969G  1.77T      0      0      0      0
tank         969G  1.77T      0      0      0      0
tank         969G  1.77T      0      0      0      0
tank         969G  1.77T      0    729      0  89.9M
tank         969G  1.77T      0  1.19K      0   151M
tank         970G  1.77T      0  1.29K      0   143M
tank         970G  1.77T      0    131      0  4.89M
tank         970G  1.77T      0      0      0      0
tank         970G  1.77T      0      0      0      0
tank         970G  1.77T      0      0      0      0
tank         970G  1.77T      0  1.15K      0   146M
tank         970G  1.77T      0  1.29K      0   161M
tank         971G  1.77T      0    867      0  73.2M
tank         971G  1.77T      0      0      0      0
tank         971G  1.77T      0      0      0      0
tank         971G  1.77T      0      0      0      0
tank         971G  1.77T      0    199      0  24.3M
tank         971G  1.77T      0  1.22K      0   156M
tank         971G  1.77T      0  1.30K      0   165M
tank         971G  1.77T      0    441      0  35.8M
tank         971G  1.77T      0      0      0      0
tank         971G  1.77T      0      0      0      0
tank         971G  1.77T      0      0      0      0
tank         971G  1.77T      0    531      0  65.5M
tank         971G  1.77T      0  1.33K      0   169M
tank         971G  1.77T      0  1.29K      0   145M
tank         972G  1.77T      0    167      0   555K
tank         972G  1.77T      0      0      0      0
tank         972G  1.77T      0      0      0      0
tank         972G  1.77T      0      0      0      0
tank         972G  1.77T      0    806      0  99.8M
tank         972G  1.77T      0  1.31K      0   167M
tank         972G  1.77T      0  1.05K      0   113M
tank         972G  1.77T      0      0      0      0
tank         972G  1.77T      0      0      0      0
tank         972G  1.77T      0      0      0      0
tank         972G  1.77T      0      0      0      0
tank         972G  1.77T      0  1.11K      0   141M
tank         972G  1.77T      0  1.28K      0   164M
tank         973G  1.77T      0    921      0  76.3M

nachher (1s):
Code:
$ zpool iostat tank 1
tank         973G  1.77T      0      0      0      0
tank         973G  1.77T      0      0      0      0
tank         973G  1.77T      0      3      0  2.97K
tank         973G  1.77T      0    865      0   107M
tank         973G  1.77T      0    978      0   119M
tank         969G  1.77T      0   1005      0   108M
tank         969G  1.77T      0  1.00K      0   128M
tank         969G  1.77T      0    978      0   103M
tank         969G  1.77T      0  1.15K      0   128M
tank         969G  1.77T      0  1.26K      0   143M
tank         970G  1.77T      0    532      0  65.1M
tank         970G  1.77T      0    791      0  81.3M
tank         970G  1.77T      0    982      0   121M
tank         970G  1.77T      0    355      0  31.3M
tank         970G  1.77T      0    972      0   121M
tank         970G  1.77T      0    776      0  78.5M
tank         970G  1.77T      0    823      0  76.5M
tank         970G  1.77T      0    938      0   116M
tank         971G  1.77T      0    401      0  35.9M
tank         971G  1.77T      0  1.13K      0   126M
tank         971G  1.77T      0    528      0  64.1M
tank         971G  1.77T      0    760      0  77.5M
tank         971G  1.77T      0    939      0   116M
tank         971G  1.77T      0    596      0  55.7M
tank         971G  1.77T      0    965      0   106M
tank         971G  1.77T      0    638      0  78.9M
tank         972G  1.77T      0    812      0  82.6M
tank         972G  1.77T      0   1015      0   108M
tank         972G  1.77T      0    746      0  92.2M
tank         972G  1.77T      0    504      0  44.9M
tank         972G  1.77T      0  1.07K      0   134M
tank         972G  1.77T      0    709      0  63.8M
tank         972G  1.77T      0    797      0  80.8M
tank         972G  1.77T      0  1.01K      0   128M
tank         973G  1.77T      0    664      0  68.0M
tank         973G  1.77T      0    728      0  72.5M
tank         973G  1.77T      0  1.03K      0   130M
tank         973G  1.77T      0    706   1013  70.1M
tank         973G  1.77T      0    607      0  61.5M
tank         973G  1.77T      0      0      0      0
tank         973G  1.77T      0      0      0      0
 
Mal wieder was Neues...

Hat hier zufällig schon jemand 2009.6 oder das aktuelle Developer-Build (118) installiert?

Nach Problemen mit meinem alten System (lief voll nach dem Update des Systems und ließ sich dann nicht mehr starten), habe ich ein neues System auf einer neuen 30GB SSD installiert. Seit dem neuen System funktioniert das Power Management nicht mehr. Es wird noch nicht mal mehr erkannt, dass meine CPU versch. Taktfrequenzen unterstützt.

Vorher:
x@x:~$ kstat -m cpu_info -i 0 -s supported_frequencies_Hz
module: cpu_info instance: 0
name: cpu_info0 class: misc
supported_frequencies_Hz 1200000000:1600000000:2000000000:2500000000

Jetzt:
x@x:~$ kstat -m cpu_info -i 0 -s supported_frequencies_Hz
module: cpu_info instance: 0
name: cpu_info0 class: misc
supported_frequencies_Hz 2509344967

Ich habe weder an der restlichen Hardware, noch an den entsprechenden Stellen im BIOS was geändert. Kennt jemand das Problem?

Edit:
Hat sich erledigt. Hab jetzt mal ein BIOS-Reset gemacht und alles ist wieder schön.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh