[Kaufberatung] Medienserver

Ich würde eher 16er Module nehmen kosten ca 110-115 pro Modul.
Ja, nimm lieber die 16GB-Module, die sind mittlerweile auch billiger als 8GB-Module!

Kingston ValueRAM DIMM 16GB PC3-12800R reg ECC CL11 (DDR3-1600) (KVR16R11D4/16)
oder
Kingston ValueRAM Hynix DIMM 16GB PC3-12800R reg ECC CL11 (DDR3-1600) (KVR16R11D4/16HM)

Und die 120mm-Lüfterblende nicht vergessen!

Allein die Lüftersteuerung des X9SRL macht mir leichtes Kopfzerbrechen, ist aber kein Beinbruch. Konnte mir mit langsamlaufenden Nicht-PWM-Lüftern behelfen.
Ja, die ist eigentlich auch eher für die Supermicro-Shrouds aus den Supermicro-Gehäusen gedacht, halt aufs Rechenzentrum ausgelegt. "Silent-Computing" ist nicht so der Schwerpunkt der Server-Serie von Supermicro. ;)

Danke für die Info das ist interessant mit dem Verbrauch da ich immer noch überlege was ich nehme Desktop Hardware oder Supermicro + Xeon.
Der Verbrauch ist hier kein Kriterium, die Desktop CPUs verbrauchen genauso viel wie die Server-CPUs. Der Unterschied von Desktop- zu Server-CPUs bei Intel ist hauptsächlich die ECC Unterstützung. Ich würde keinen Server ohne ECC-Ram betreiben, daher sollte es definitiv ein Xeon sein.

Ich brauche halt nur Storage für meine VMs und die werden wohl auf meinem N40L als Zentraler Storage liegen da ich Hyper-V, Vmware usw Testen will.

Welche SSD benutzt du für deine VMs ?
840 Pro ist ganz nett, aber der neue Stern am Himmel ist die SanDisk Extreme II, siehe Test bei Anandtech.
Consumer-SSDs wie die 840 Pro haben oft ein Problem: Performance konsistent zu halten, sprich immer konstant eine gewisse Leistung zur Verfügung zu stellen. Das ist neben längerer Haltbarkeit der große Unterschied zu den "Data Center"-Edition SSDs wie z.B. der Samsung SSD SM843T Data Center Series oder Intel SSD DC S3700 Series. Und gerade in diesem Punkt ist die neue SanDisk Extreme II sehr gut aufgestellt, eine super Performance-Konsistenz für eine Consumer-SSD.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
GrafikTreiber schrieb:
Ja, nimm lieber die 16GB-Module, die sind mittlerweile auch billiger als 8GB-Module!

Kingston ValueRAM DIMM 16GB PC3-12800R reg ECC CL11 (DDR3-1600) (KVR16R11D4/16)
oder
Kingston ValueRAM Hynix DIMM 16GB PC3-12800R reg ECC CL11 (DDR3-1600) (KVR16R11D4/16HM)

Und die 120mm-Lüfterblende nicht vergessen!

Ok, habe meine Konfiguration geupdated! Danke auch an LichtiF!

So müsste es doch jetzt passen; kann mir jemand nen guten Händler empfehlen?
 
Hallo,

alle Teile bekommst Du eh nicht bei einem einzigen Händler, musst also splitten. Als Mem habe ich die KVR16R11D4/16I verwendet.
Empfehlen kann ich uneingeschränkt im Amazonmarktplace den Händler okluge, ansonsten für Case Computeruniverse und auch Sona führt einige Deiner Teile.
 
Mach dir eine Geizhals Wunschliste ala gei zhals.de/?cat=WL-242401 daraus und drück dann auf den Knopf "Günstigste Anbieter für alle Artikel ermitteln", eventuell musst du ein bisschen an den Parametern herumspielen um möglichst viele Teile beim selben Händler zu bekommen. Du kannst dir auf gei zhals.de einen Account machen und dort mehrere Wunschlisten verwalten, sehr praktisch.
Das Forum wandelt die Geizhals-URLs immer in die Luxx-Preisvergleich Links um, sehr nervig, daher das unnötige Leerzeichen zwischen durch.

Hier zwei nützliche Scripts:

diskled.sh oder wie es auch gerne nenne "Poor man's SGPIO". Es lässt die Festplatten-Led blinken um Festplatten einfach zu identifizieren. Es benötigt dd.
Nutzungsbeispiel: ./diskled.sh /dev/disk/by-id/scsi-SATA_SAMSUNG_HD204UIS2H7J9S2533321.
Ist recht simpel, das Blink-Pattern kannst du verändern in dem man die Blocksize und den Sleep-Timer anpasst.
Code:
#!/bin/bash
#

badDrive=$1

ddread()
{
dd if=$badDrive of=/dev/null bs=$blocksize count=1 conv=noerror iflag=direct >/dev/null 2>&1
}

led_short()
{
blocksize=32M
ddread
sleep 0.5
}

led_long()
{
blocksize=256M
ddread
sleep 0.5 
}

while true ; do
	led_long
	led_long
	led_long
	sleep 3
done

luksheaderbackup.sh, es macht Backup der Luksheader, das ist sehr wichtig, denn wenn mal der Luksheader verloren geht kann man die Festplatte nicht mehr entschlüsseln. Es benötigt smartmontools, awk und grep.
Nutzungsbeispiel: ./luksheaderbackup.sh single /dev/disk/by-uuid/00f9c4fb-1a63-487b-9bbe-2782ea0213dc
oder für alle geöffneten:
./luksheaderbackup.sh allopen
Code:
#!/bin/bash
#Makes backups for luksheaders

backupfolder=/root/luksheaderbackups
CMD=$1

single()
{
drive=$1
dmname=$2
drivemodel=`smartctl -i $drive | egrep -i "Device Model:" | awk '{print $3 $4 $5 $6}'`-
driveserial=`smartctl -i $drive | egrep -i "Serial Number:" | awk '{print $3 $4 $5 $6}'`-

if [ -z "$2" ]; then
drivename=`basename $drive`
fi

if /sbin/cryptsetup isLuks $drive >/dev/null 2>&1; then
	echo "$drivename is luks" 
	/sbin/cryptsetup luksHeaderBackup --header-backup-file=$backupfolder/$dmname$drivemodel$driveserial$drivename.bak $drive
else
	echo "$drivename is NOT luks, no backup written!"	
fi
}

# allpath()
# {
# allpath=$1
# echo "Starting luksHeaderBackup for all drives in $allpath"
# for drive in $allpath*
# echo "Processing $dm:"
# do single $drive
# done
# }

allopen()
{
echo "Starting luksHeaderBackup for all open luks devices"
for dm in /dev/dm-*
do
block=/dev/block/`dmsetup table $dm | cut -d' ' -f7`
dmname=`dmsetup info -c --noheadings -o NAME $dm`
echo "Processing $dm:"
single $block $dmname-
done
}


case $CMD in
        "single" )
                single $2
        ;;
        "allpath" )
                allpath $2
        ;;
		"allopen" )
                allopen
        ;;
		* )
		echo $"Usage: $0 {single|allpath|allopen}"
		exit 1
esac
 
exit 0

Ja, nicht der beste Schreibstil, ziemlich dirty, aber sie funktionieren, ich bin Hauptberuflich nicht Entwickler. ;)
 
Zuletzt bearbeitet:
Hier zwei nützliche Scripts:

diskled.sh oder wie es auch gerne nenne "Poor man's SGPIO". Es lässt die Festplatten-Led blinken um Festplatten einfach zu identifizieren. Es benötigt dd.
Nutzungsbeispiel: ./diskled.sh /dev/disk/by-id/scsi-SATA_SAMSUNG_HD204UIS2H7J9S2533321.
Ist recht simpel, das Blink-Pattern kannst du verändern in dem man die Blocksize und den Sleep-Timer anpasst.
Code:
#!/bin/bash
#

badDrive=$1

ddread()
{
dd if=$badDrive of=/dev/null bs=$blocksize count=1 conv=noerror iflag=direct >/dev/null 2>&1
}

led_short()
{
blocksize=32M
ddread
sleep 0.5
}

led_long()
{
blocksize=256M
ddread
sleep 0.5 
}

while true ; do
	led_long
	led_long
	led_long
	sleep 3
done

luksheaderbackup.sh, es macht Backup der Luksheader, das ist sehr wichtig, denn wenn mal der Luksheader verloren geht kann man die Festplatte nicht mehr entschlüsseln. Es benötigt smartmontools, awk und grep.
Nutzungsbeispiel: ./luksheaderbackup.sh single /dev/disk/by-uuid/00f9c4fb-1a63-487b-9bbe-2782ea0213dc
oder für alle geöffneten:
./luksheaderbackup.sh allopen
Code:
#!/bin/bash
#Makes backups for luksheaders

backupfolder=/root/luksheaderbackups
CMD=$1

single()
{
drive=$1
dmname=$2
drivemodel=`smartctl -i $drive | egrep -i "Device Model:" | awk '{print $3 $4 $5 $6}'`-
driveserial=`smartctl -i $drive | egrep -i "Serial Number:" | awk '{print $3 $4 $5 $6}'`-

if [ -z "$2" ]; then
drivename=`basename $drive`
fi

if /sbin/cryptsetup isLuks $drive >/dev/null 2>&1; then
	echo "$drivename is luks" 
	/sbin/cryptsetup luksHeaderBackup --header-backup-file=$backupfolder/$dmname$drivemodel$driveserial$drivename.bak $drive
else
	echo "$drivename is NOT luks, no backup written!"	
fi
}

# allpath()
# {
# allpath=$1
# echo "Starting luksHeaderBackup for all drives in $allpath"
# for drive in $allpath*
# echo "Processing $dm:"
# do single $drive
# done
# }

allopen()
{
echo "Starting luksHeaderBackup for all open luks devices"
for dm in /dev/dm-*
do
block=/dev/block/`dmsetup table $dm | cut -d' ' -f7`
dmname=`dmsetup info -c --noheadings -o NAME $dm`
echo "Processing $dm:"
single $block $dmname-
done
}


case $CMD in
        "single" )
                single $2
        ;;
        "allpath" )
                allpath $2
        ;;
		"allopen" )
                allopen
        ;;
		* )
		echo $"Usage: $0 {single|allpath|allopen}"
		exit 1
esac
 
exit 0

Ja, unter Umständen nicht der beste Schreibstil, aber sie funktionieren, ich bin Hauptberuflich nicht Entwickler. ;)

Vielen Dank für Deine Hilfe!

Ich habe mir noch einmal über die Hardware Gedanken gemacht (wieviel TB brauche ich etc.) und habe meine Liste (s.o.) angepasst. Ich denke, dass 16 Platten zu je 4TB für meine Zwecke (für's Erste) vollkommen ausreichen. Unklar ist, wie viele DeLock Stromadapter ich benötige. Auf der Backplane sind jeweils 2x4pin Anschlüsse. Bei 4 Backplanes macht das 4 oder?

Softwareseitig habe ich mich eingelesen und durch Probieren eingearbeitet :d Es bleibt alles beim Alten (Debian + LUKS/dmcrypt + ZFS). Im Hinblick auf die Poolorganisation habe ich mich für einen Pool entschieden. Im Hinblick auf die Organisation der Platten habe ich an 4 raidz2-vdevs gedacht. Nominell bleiben dann für den gesamten Pool bei 4TB-Platten 32TB (8TB pro vdev). Ich halte das zwar nicht ganz für best practice, aber so hätte ich es gerne. Ich hoffe, dass das kein Käse ist. Ein 24-Platten-Server bringt mich daheim in Erklärungsnot ;)
 
Zu den Stromadaptern: Du musst jede Backplane nur einmal anschließen, der zweite Anschluss ist nur dazu da um bei Festplatten die sehr viel Strom ziehen die Last pro Kabel zu reduzieren damit sie nicht zu heiß werden und eventuell durchbrennen. Aber das ist hier definitiv nicht der Fall. Ich habe die Backplanes auch nur 1x angeschlossen.
Für die Backplanes brauchst du also 4x 4Pin, schau dir an wie viele das Netzteil hat und bestelle gegebenenfalls ein paar mehr, die Kosten wirklich kaum was und die kann man ansonsten immer mal gebrauchen, ich habe solche Adapter immer in meinem Techniker-Koffer liegen.
Wenn du diese Adapter verwendest solltest du auch nur einen der beiden Stecker an die Backplane anschließen, aus oben genannten Grund. Es gibt auch noch 1:1 Adapter, sieht dann vielleicht ordentlicher aus. Die 1:2 Adapter kosten aber meistens nicht wirklich viel mehr und sind auch für andere Sachen besser einsetzbar.

Du willst ein 4x Z2_4x4TB machen? Du hättest also von 16 Festplatten nur die Kapazität von 8. Ich halte das für etwas übertrieben. Mach doch 2x Z2_8x4TB raus, das ist auch noch ausreichend sicher solange du regelmäßig scrubbst und meinen "Rebuild-Tipp" unten anwendest. So verlierst du nur 4 Festplatten an Kapazität.

Tipp: Anstatt eine komplett frische Festplatte in ein degraided Raid zu stecken und den Rebuild an zuwerfen kopiere ich immer erst mit
Code:
ddrescue -n -c 16384 /dev/disk/alte_platte /dev/disk/neueplatte /root/defekte_platte.log
die Daten drüber, so muss nur ein kleiner Teil wieder rebuildet werden, das schont die Festplatten enorm und beschleunigt den ganzen Vorgang eventuell. Dies geht natürlich nur wenn es sich um defekte Sektoren und nicht um einen Totalausfall handelt.

-n sorgt dafür dass nur Sektoren kopiert werden die noch in Ordnung sind und überspringt defekte Sektoren, die brauchen wir ja auch nicht weil wir diese schnell wieder rebuilden können.

Nicht relevant hierfür, aber wenn wir schon mal beim Thema Datenrettung sind: Nach dem man mit -n durch ist kann man noch folgendes machen:
Noch 3x versuchen die defekten Sektoren zu lesen, mit uncached Reads. Das macht man aber erst nach dem -n einmal durch lief. Dafür ist das Log-File da, das speichert :
Code:
ddrescue --direct --max-retries=3 -c 16384 /dev/disk/alte_platte /dev/disk/neueplatte /root/defekte_platte.log
Falls er dann immer noch nicht alles hat kann man volle Sektoren retrimmt lesen:
Code:
ddrescue --direct --retrim --max-retries=3 -c 16384 /dev/disk/alte_platte /dev/disk/neueplatte /root/defekte_platte.log
Anstelle einer neuen Platte kann man natürlich auch ein Imagefile angeben:
Code:
ddrescue -n -c 16384 /dev/disk/alte_platte [B]/home/user/imagefile_defekteplatte.img[/B] /root/defekte_platte.log

Wichtig: Wenn die Festplatten verschlüsselt sind und 1:1 auf eine neue kopiert, wird natürlich auf der Luks-Header und so weiter mit übernommen. Sprich wenn man das alles in /etc/crypttab schön sortiert hat, wird dann die alte Festplatten-Beschreibung auf die neue "gemünzt", das gilt es zu vermeiden!
Daher kopiert man verschlüsselte Festplatten in diesen Fall nicht nativ sondern man kopiert nur den Inhalt, also ohne den Luksheader:
Code:
ddrescue -n -c 16384 /dev/mapper/name_aus_crypttab_für_defekte_hdd /dev/mapper/name_aus_crypttab_für_neue_hdd
 
Zuletzt bearbeitet:
Zu den Stromadaptern: Du musst jede Backplane nur einmal anschließen, der zweite Anschluss ist nur dazu da um bei Festplatten die sehr viel Strom ziehen die Last pro Kabel zu reduzieren damit sie nicht zu heiß werden und eventuell durchbrennen. Aber das ist hier definitiv nicht der Fall. Ich habe die Backplanes auch nur 1x angeschlossen.
Für die Backplanes brauchst du also 4x 4Pin, schau dir an wie viele das Netzteil hat und bestelle gegebenenfalls ein paar mehr, die Kosten wirklich kaum was und die kann man ansonsten immer mal gebrauchen, ich habe solche Adapter immer in meinem Techniker-Koffer liegen.
Wenn du diese Adapter verwendest solltest du auch nur einen der beiden Stecker an die Backplane anschließen, aus oben genannten Grund. Es gibt auch noch 1:1 Adapter, sieht dann vielleicht ordentlicher aus. Die 1:2 Adapter kosten aber meistens nicht wirklich viel mehr und sind auch für andere Sachen besser einsetzbar.

Zunächst einmal herzlichen Dank, GrafikTreiber, dass Du noch mitliest und mitpostest.

Die Hardware habe ich bestellt (mit 1x1 Stromadapter ;))

GrafikTreiber schrieb:
Du willst ein 4x Z2_4x4TB machen? Du hättest also von 16 Festplatten nur die Kapazität von 8. Ich halte das für etwas übertrieben. Mach doch 2x Z2_8x4TB raus, das ist auch noch ausreichend sicher solange du regelmäßig scrubbst und meinen "Rebuild-Tipp" unten anwendest. So verlierst du nur 4 Festplatten an Kapazität.

Hast Recht, 4x Z2_4x4TB ist unvernünftig und ineffizient.

Was heißt "regelmäßig"? Alle 2 Wochen?

Tipp: Anstatt eine komplett frische Festplatte in ein degraided Raid zu stecken und den Rebuild an zuwerfen kopiere ich immer erst mit
Code:
ddrescue -n -c 16384 /dev/disk/alte_platte /dev/disk/neueplatte /root/defekte_platte.log
die Daten drüber, so muss nur ein kleiner Teil wieder rebuildet werden, das schont die Festplatten enorm und beschleunigt den ganzen Vorgang eventuell. Dies geht natürlich nur wenn es sich um defekte Sektoren und nicht um einen Totalausfall handelt.

-n sorgt dafür dass nur Sektoren kopiert werden die noch in Ordnung sind und überspringt defekte Sektoren, die brauchen wir ja auch nicht weil wir diese schnell wieder rebuilden können.

Nicht relevant hierfür, aber wenn wir schon mal beim Thema Datenrettung sind: Nach dem man mit -n durch ist kann man noch folgendes machen:
Noch 3x versuchen die defekten Sektoren zu lesen, mit uncached Reads. Das macht man aber erst nach dem -n einmal durch lief. Dafür ist das Log-File da, das speichert :
Code:
ddrescue --direct --max-retries=3 -c 16384 /dev/disk/alte_platte /dev/disk/neueplatte /root/defekte_platte.log
Falls er dann immer noch nicht alles hat kann man volle Sektoren retrimmt lesen:
Code:
ddrescue --direct --retrim --max-retries=3 -c 16384 /dev/disk/alte_platte /dev/disk/neueplatte /root/defekte_platte.log
Anstelle einer neuen Platte kann man natürlich auch ein Imagefile angeben:
Code:
ddrescue -n -c 16384 /dev/disk/alte_platte [B]/home/user/imagefile_defekteplatte.img[/B] /root/defekte_platte.log

Danke für den Hinweis!

Softwareseitig setzte ich auf Debian Wheezy + openbox (nur mit Konsole ist mir noch zu heikel ;)) + xfe + midori (für webmin) + webmin (für samba) + xrdp (für remote).

Platten im Idle würde ich mit hdparm schlafen legen. Beim Zeitintervall bin ich mir unsicher. Was wäre denn ein sinnvoller Wert?

Was empfiehlt sich, um den Server schlafen zu schicken?

Mit cron bzw. anacron periodisiere und automatisiere ich das scrubben, die luksheaderbackups etc.

Das müsste doch so passen oder?
 
Zuletzt bearbeitet:
Was heißt "regelmäßig"? Alle 2 Wochen?
Ich scrubbe 1x im Monat da bei mir ein Scrub pro Pool über einen Tag dauert, wird bei dir auch recht lange dauern. Wichtig ist halt nur das man überhaupt macht, also am besten per Cronjob und nicht manuell, denn dann macht man es nie.

Softwareseitig setzte ich auf Debian Wheezy + openbox (nur mit Konsole ist mir noch zu heikel ;)) + xfe + midori (für webmin) + webmin (für samba) + xrdp (für remote).
Wozu ein X? Verstehe ich nicht ganz. Du öffnest doch sowieso dort die Konsole, warum dann nicht direkt an deinem PC? Wenn du einen grafischen Editor verwenden willst kannst du das trotzdem tun. Einfach SFTP/SCP verwenden, das ist Teil von OpenSSH, dazu musst du nichts weiter einrichten. Verwende also einfach PuTTy und WinSCP oder was ich verwende Xshell und Xftp. Du kannst in einem SFTP-Client die Dateien z.B. in Notepad++ öffnen, wenn du sie danach verändert hast lädt er sie automatisch hoch. Und keiner zwingt dich zu vi, verwende doch einfach nano, der Consolen-Editor ist doch wirklich Dau-tauglich.

Und für Samba benötigst du auch kein Webmin, Samba hat sein eigenes Webinterface names SWAT.
aptitude install swat
Dann mit einem Webbrowser auf Port 901 deines Servers gehen:
http://192.168.178.50:901

Ich verweise dazu noch mal auf meinen Post #3784 im ZFS Stammtisch.

Platten im Idle würde ich mit hdparm schlafen legen. Beim Zeitintervall bin ich mir unsicher. Was wäre denn ein sinnvoller Wert?
Ich habe 30 Minuten gewählt, sprich Wert 241
Code:
command_line {
       hdparm -S 241 /dev/disk/by-id/scsi-SATA_SAMSUNG_HD20* /dev/disk/by-id/scsi-SATA_ST3000DM001*
}
in der /etc/hdparm.conf . Du musst nicht jede Festplatte einzeln eingeben, Wildcards gehen auch. 60 Minuten, also 242, sind sicherlich auch sinnvoll. Kommt auf deinen Nutzungsfall an, musst du selber wissen. Aber unter 30 Minuten würde ich nicht gehen, sonst schalteten sich die Festplatten zu oft am Tag ab.

Was empfiehlt sich, um den Server schlafen zu schicken?
Gar nichts. Ich halte davon nicht viel, im Thread NAS mit 8-12 Festplatten. Brauche Hilfe! - Post #17 habe ich geschrieben warum. Automatisches Powermanagment der CPU und schlafen legen der Festplatten reichen für mich aus. Zu mal mein Server sowieso nicht herunterfahren könnte weil dauerhaft rTorrent, JDownloader, flexget... Downloads machen (auf ein Mirror aus zwei Festplatten, so sind die anderen HDDs nicht währendessen an) und noch ein paar andere Dienste laufen die möglichst 24/7/365 verfügbar sein sollten.

Mit cron bzw. anacron periodisiere und automatisiere ich das scrubben, die luksheaderbackups etc.
Luksheaderbackups musst du nur einmalig pro Einrichtung oder Änderung (Passwort/Key) des LUKS-Volume machen. Es schadet aber natürlich nicht dass vielleicht auch vielleicht in einen monatlichen Cronjob zu packen falls man es mal vergisst.
Monatlicher Scrub:
wget -q -O /etc/cron.monthly/zfs-scrub \
https://github.com/rlaager/zfs/wiki/zfs-scrub.sh
Code:
#!/bin/sh -eu

which zpool >/dev/null || exit 0

zpool list -H -o health,name 2>&1 | \
    awk 'BEGIN {FS="\t"} {if ($1 ~ /^ONLINE/) print $2}' | \
    while read pool ; do

    zpool scrub "$pool"
done

Stündlicher Check ob sich der Health-Status zum schlechten verändert hat mit Email-Versand:
wget -q -O /etc/cron.hourly/zfs-check \
https://github.com/rlaager/zfs/wiki/zfs-check.sh
Code:
#!/bin/sh -eu

which zpool >/dev/null || exit 0

zpool list -H -o health,name 2>&1 | \
    awk 'BEGIN {FS="\t"} {if ($1 !~ /^(no pools|ONLINE)/) print $2}' | \
    while read pool ; do

    echo "The \"$pool\" ZFS pool is $(zpool list -H -o health $pool)." | \
        mailx -s "ZFS Pool Error" root
done

Für letzteres muss ein Mailer einrichtet sein, hier mal aus meiner persönlichen Wiki wie man so etwas einrichtet, hier am Beispiel von Google Apps, einfach die Server-Einstellungen und -Daten deines Mailproviders eintragen:
aptitude install ssmtp bsd-mailx

/etc/ssmtp.conf
Code:
root=emailname@meinegappsdomain.com
mailhub=smtp.gmail.com:465
rewriteDomain=
hostname=smtp.gmail.com:465
UseTLS=YES
AuthUser=emailname@meinegappsdomain.com
AuthPass=meinPASSWORT
FromLineOverride=YES
/etc/ssmtp/revaliases
Code:
root:emailname@meinegappsdomain.com:smtp.gmail.com:465
Email Senden:
echo "This is the body of email" | mail -s "This is the Subject" meine@gmx.de
 
Zuletzt bearbeitet:
Ich scrubbe 1x im Monat da bei mir ein Scrub pro Pool über einen Tag dauert, wird bei dir auch recht lange dauern. Wichtig ist halt nur das man überhaupt macht, also am besten per Cronjob und nicht manuell, denn dann macht man es nie.

Ja, das hatte ich mir auch so gedacht.

GrafikTreiber schrieb:
Wozu ein X? Verstehe ich nicht ganz. Du öffnest doch sowieso dort die Konsole, warum dann nicht direkt an deinem PC? Wenn du einen grafischen Editor verwenden willst kannst du das trotzdem tun. Einfach SFTP/SCP verwenden, das ist Teil von OpenSSH, dazu musst du nichts weiter einrichten. Verwende also einfach PuTTy und WinSCP oder was ich verwende Xshell und Xftp. Du kannst in einem SFTP-Client die Dateien z.B. in Notepad++ öffnen, wenn du sie danach verändert hast lädt er sie automatisch hoch. Und keiner zwingt dich zu vi, verwende doch einfach nano, der Consolen-Editor ist doch wirklich Dau-tauglich.

Schande auf mein Haupt :d

Ich habe Xshell und Xftp gleich angetestet und muss sagen, dass ich damit auch zurecht komme. Danke für den Hinweis!

GrafikTreiber schrieb:
Und für Samba benötigst du auch kein Webmin, Samba hat sein eigenes Webinterface names SWAT.
aptitude install swat
Dann mit einem Webbrowser auf Port 901 deines Servers gehen:
http://192.168.178.50:901

Ich verweise dazu noch mal auf meinen Post #3784 im ZFS Stammtisch.

Deinen Beitrag zum DAU kannte ich schon. Im Grunde hast Du Recht und ich halte eine gewisse Mündigkeit bzw. Kompetenz von Usern auch für unerlässlich, aber in meinem Fall dient die graphische Oberfläche eher der Rückversicherung, was natürlich insofern trügerisch ist, als ein möglicher GAU sich damit auch nicht verhindern lässt.

Von der Oberfläche her hat mir webmin im Hinblick auf die smb-Konfiguration irgendwie besser gefallen. Zudem gab's obendrein auch noch eine Art Statusübersicht des Servers (Speicherbelegung etc.), was es bei Ubuntu Server nach dem Einloggen auch gab und ich für Anfänger wie mich sehr praktisch finde.

GrafikTreiber schrieb:
Ich habe 30 Minuten gewählt, sprich Wert 241
Code:
command_line {
       hdparm -S 241 /dev/disk/by-id/scsi-SATA_SAMSUNG_HD20* /dev/disk/by-id/scsi-SATA_ST3000DM001*
}
in der /etc/hdparm.conf . Du musst nicht jede Festplatte einzeln eingeben, Wildcards gehen auch. 60 Minuten, also 242, sind sicherlich auch sinnvoll. Kommt auf deinen Nutzungsfall an, musst du selber wissen. Aber unter 30 Minuten würde ich nicht gehen, sonst schalteten sich die Festplatten zu oft am Tag ab.

30 Minuten hört sich vernünftig an. Das werde ich aber entscheiden, sobald der Server steht und läuft. Was meinst Du mit Wildcards? Gibt's da bei hdparm spezielle?

GrafikTreiber schrieb:
Gar nichts. Ich halte davon nicht viel, im Thread NAS mit 8-12 Festplatten. Brauche Hilfe! - Post #17 habe ich geschrieben warum. Automatisches Powermanagment der CPU und schlafen legen der Festplatten reichen für mich aus. Zu mal mein Server sowieso nicht herunterfahren könnte weil dauerhaft rTorrent, JDownloader, flexget... Downloads machen (auf ein Mirror aus zwei Festplatten, so sind die anderen HDDs nicht währendessen an) und noch ein paar andere Dienste laufen die möglichst 24/7/365 verfügbar sein sollten.

Deine im Thread vorgebrachten Argumente sind plausibel.

GrafikTreiber schrieb:
Für letzteres muss ein Mailer einrichtet sein, hier mal aus meiner persönlichen Wiki wie man so etwas einrichtet, hier am Beispiel von Google Apps, einfach die Server-Einstellungen und -Daten deines Mailproviders eintragen:
aptitude install ssmtp bsd-mailx

/etc/ssmtp.conf
Code:
root=emailname@meinegappsdomain.com
mailhub=smtp.gmail.com:465
rewriteDomain=
hostname=smtp.gmail.com:465
UseTLS=YES
AuthUser=emailname@meinegappsdomain.com
AuthPass=meinPASSWORT
FromLineOverride=YES
/etc/ssmtp/revaliases
Code:
root:emailname@meinegappsdomain.com:smtp.gmail.com:465
Email Senden:
echo "This is the body of email" | mail -s "This is the Subject" meine@gmx.de

ssmtp hatte ich schon installiert und konfiguriert. bsd-mailx gucke ich mir noch an. Danke für die Hinweise!

Hinsichtlich des Poollayouts würde ich gerne noch einmal Deine Meinung lesen. Nach längerem Hin und Her habe ich mich für Folgendes entschieden: 2x Z2_6x4TB (= 32TB) + 1x Hotspare je vdev. Übrig bleiben dann nur noch 2 leere Einschübe.
 
Zuletzt bearbeitet:
Dein Beitrag liegt irgendwie "doppelt vor", editiere ihn doch mal. ;)

Ich habe Xshell und Xftp gleich angetestet und muss sagen, dass ich damit auch zurecht komme.
Du musst Xftp auch nicht extra öffnen. Wenn du bereits eine Session mit Xshell geöffnet hast kannst du oben auf Window ---> New filetransfer gehen und es öffnet sich automatisch Xftp und du musst dich nicht noch mal extra einloggen.
Du kannst dir über die Session-Funktion auch quasi "Bookmarks" machen und die dann oben in die Menüleiste hinein ziehen. Das habe ich so für viel verwendete Server gemacht. Dazu muss View ---> Toolbars ---> Links Bar aktiviert sein. Alle Sessions die du im Ordner Links hast erscheinen dann oben in der Toolbar. Wenn du dann noch statt Passwords dich mit Keyfiles einloggst reicht ein Klick um auf den jeweiligen Server zu gelangen.

30 Minuten hört sich vernünftig an. Das werde ich aber entscheiden, sobald der Server steht und läuft. Was meinst Du mit Wildcards? Gibt's da bei hdparm spezielle?
Nein, das ist nicht rein hdparm speziell.
Schau dir mal HakTip : Linux Terminal 101 - Wildcards, Hard Links, and Symbolic Links an, da ist das gut erklärt. Grundsätzlich ist für Linux-Neulinge der ganze Channel sehr interessant, Darren und Shannon erklären das echt gut, hätte ich das vor knapp 10 Jahren auch gehabt wäre mein Einsteig wohl viel leichter gewesen.
Youtube - Hak5
Youtube - Hak5 - Suche "HakTip"

Hinsichtlich des Poollayouts würde ich gerne noch einmal Deine Meinung lesen. Nach längerem Hin und Her habe ich mich für Folgendes entschieden: 2x Z2_6x4TB (= 32TB) + 1x Hotspare je vdev. Übrig bleiben dann nur noch 2 leere Einschübe.

2x Z2_6x4TB ? Hm... ich weiß nicht. Z2 würde ich wenn schon mit 8 Festplatten machen.
Für Zuhause würde ich nicht unbedingt Hotspares einsetzen, einfach weil du in deinem Fall dann eventuell über Jahre totes Kapital im Server hast, nur aus Komfort-Gründen.

Wenn du das Mail-Script einsetzt siehst du ja recht schnell wenn etwas defekt ist. Ein Rebuild kann sehr lange dauern, durch aus mal 4-5 Tage je nach vdev Größe.

Da es sich bei "defekten" Festplatten aber zum Großteil nur um defekte Sektoren handelt kannst du die Festplatte vorher mit ddrescue auf die Neue kopieren und dann den Rebuild starten, der dauert dann nicht mal eine Stunde.
Wenn du mehr Sicherheit haben willst, verwende Z3. Da fallen statistisch vorher das Netzteil, die Controller und das Mainboard aus.

Ich würde an deiner Stelle nur eine Festplatte extra einbauen/kaufen und die nicht als Hotspare definieren sondern nur manuell austauschen. Gerade wenn man Festplatten-Standy eingestellt hat ist es auch mal so dass die Festplatte vielleicht mal nicht aufwacht oder sich zu lange Zeit lässt und dann von ZFS als defekt markiert wird obwohl sie eigentlich völlig in Ordnung ist. Hättest du hier einen Hotspare definiert würde jetzt sofort der Rebuild anspringen. Unschön.

Für den Unternehmenseinsatz richte ich immer Hotspares ein, keine Frage. Aber da werden die Festplatten auch nicht in den Tiefschlaf geschickt und die Kosten sind eher zu vernachlässigen.

Ich würde dir aus Kostengründen eher zu Z2_8x4TB oder Z3_11x4TB raten. Das Z3 wäre sogar noch sicherer. Aber Z2_6x4TB ist sicherlich auch nicht falsch. Personal Preference.

Was noch empfehlenswert wäre wären Regelmäßige SMART Short Tests mit smartmontools, damit kann man sich auch Emails schicken lassen falls SMART meldet dass eine Festplatte "im Sterben" liegt.
Siehe z.B. https://www.google.de/search?hl=de&q=smartmontools+mail
SMART zur Festplattenüberwachung einrichten
Short howto: Smartd with mail notification to remote address

Den Teil mit dem Einrichten von Mailing in den Tutorials kannst du ja überspringen, hast du ja bereits gemacht. Manchmal setzten die Leute darin nämlich "richtige Mailserver" auf obwohl ssmtp völlig ausreichen würde.
 
Zuletzt bearbeitet:
Sorry, dass ich mich schon lange nicht mehr gemeldet habe, aber ich komme erst jetzt wieder dazu, mich dem Thema Medienserver zu widmen. Mein HTPC steht. Nun ist der Server an der Reihe.

Die Sachen bleiben so wie bereits im Thread besprochen. Lediglich beim Gehäuse bin ich auf etwas gestoßen, dass mir ein wenig hochwertiger erscheint (X-Case RM 424 -Pro 24). Was ist davon zu halten?
 
Keiner? Ich pushe das noch einmal und präzisiere meine Frage: X-Case RM 424 Pro oder Ri-Vier RV-4324-01A?
 
Bestellung schon ausgeliefert? Ich würde auf jeden Fall das RV-4324-01A nehmen, denn das hat SGPIO!
Sorry dass ich erst so spät hier antworte, schaue hier nur nur noch alle paar Wochen mal kurz rein. ;)
 
Zuletzt bearbeitet:
Bestellung schon ausgeliefert? Ich würde auf jeden Fall das RV-4324-01A nehmen, denn das hat SGPIO!
Sorry dass ich erst so spät hier antworte, schaue hier nur nur noch alle paar Wochen mal kurz rein. ;)

Ja, das Case ist gestern gekommen. Es macht einen höherwertigen Eindruck als das Inter-Tech (Bilder folgen). Dass es kein SGPIO hat, ist zu verschmerzen. Der Preis war hier ausschlaggebend. Zudem hattest Du mir ja ein Skript zur Verfügung gestellt (poor man's sgpio), das ich im Bedarfsfall verwenden kann. Mir war daher der Mehrwert in Relation zum Preis nicht wirklich deutlich. Für den ersten Storage-Server müsste das doch auch gehen oder?
 
Ja, das Case ist gestern gekommen. Es macht einen höherwertigen Eindruck als das Inter-Tech (Bilder folgen). Dass es kein SGPIO hat, ist zu verschmerzen. Der Preis war hier ausschlaggebend. Zudem hattest Du mir ja ein Skript zur Verfügung gestellt (poor man's sgpio), das ich im Bedarfsfall verwenden kann. Mir war daher der Mehrwert in Relation zum Preis nicht wirklich deutlich. Für den ersten Storage-Server müsste das doch auch gehen oder?

Das funktioniert nur wenn die Festplatte noch ansprechbar ist. Wenn sie nicht mehr ansprechbar kannst natürlich auch nicht mehr die Status-LED zum blinken bringen und sie somit auch nicht identifizieren. Da das in etwa jeden dritten Festplattendefekt-Fall betrifft ist SGPIO schon sehr nützlich. Habe zuletzt sehr viel Zeit und Nerven verschwendet 2 Festplatten auszutauschen weil sie nicht mehr ansprechbar waren. Das nächste Gehäuse wird definitiv eines mit SGPIO, die Ri-Vier gabs damals noch leider nicht. :/
 
Zuletzt bearbeitet:
Noch ein Tipp zur Überwachung von ZFS (kann mehr/ist komplexer als das von GrafikTreiber):
https://calomel.org/zfs_health_check_script.html

Danke!

Das funktioniert nur wenn die Festplatte noch ansprechbar ist. Wenn sie nicht mehr ansprechbar kannst natürlich auch nicht mehr die Status-LED zum blinken bringen und sie somit auch nicht identifizieren. Da das in etwa jeden dritten Festplattendefekt-Fall betrifft ist SGPIO schon sehr nützlich. Habe zuletzt sehr viel Zeit und Nerven verschwendet 2 Festplatten auszutauschen weil sie nicht mehr ansprechbar waren. Das nächste Gehäuse wird definitiv eines mit SGPIO, die Ri-Vier gabs damals noch leider nicht. :/

Blöde Frage, aber kann man den Platten keine ID zuordnen, die man dann über die Statusmeldung identifiziert?
 
Ich verstehe die Frage nicht ganz. Wo willst du eine ID zu ordnen? Welche Statusmeldungen meinst du?
wiki.ubuntuusers.de - Datenträger
Mach mal
Code:
ls -al /dev/disk/*/
dann siehst du alle verfügbaren "Zuordnungsvarianten".
Ich verwende /dev/disk/by-id/.

Nochmal zur Klarstellung: Ich spreche rein von der physikalischen Zuordnung. Ich habe 62 Festplatten. Es hilft mir nicht allein zu wissen das die Hitatchi XYZ mit Seriennummer 123456 defekt ist, ich muss auch noch wissen in welchen Slot sie überhaupt ist. Und wenn ich sie nicht mehr ansprechen kann, hilft mir das Blinke-Script auch nichts, da hilft dann nur SGPIO weil das unabhängig von Zustand der Festplatte die Status-LED ansprechen kann.

Wenn du nicht weißt in welchem Slot die Festplatte überhaupt zu finden ist muss man wohl oder übel jede Festplatte raus ziehen um sie manuell zu identifizieren. Bei der Menge an Festplatten ist es dann sogar für mich einfacher den Server einfach herunterzufahren als alle Zpools zu exportieren und da am laufenden System herum zu hantieren, kann einfach zu viel bei schief gehen.
 
Zuletzt bearbeitet:
Ich verstehe die Frage nicht ganz. Wo willst du eine ID zu ordnen? Welche Statusmeldungen meinst du?
wiki.ubuntuusers.de - Datenträger

Ich dachte an die Statusmeldung des zpool.

Mach mal
Code:
ls -al /dev/disk/*/
dann siehst du alle verfügbaren "Zuordnungsvarianten".
Ich verwende /dev/disk/by-id/.

Nochmal zur Klarstellung: Ich spreche rein von der physikalischen Zuordnung. Ich habe 62 Festplatten. Es hilft mir nicht allein zu wissen das die Hitatchi XYZ mit Seriennummer 123456 defekt ist, ich muss auch noch wissen in welchen Slot sie überhaupt ist. Und wenn ich sie nicht mehr ansprechen kann, hilft mir das Blinke-Script auch nichts, da hilft dann nur SGPIO weil das unabhängig von Zustand der Festplatte die Status-LED ansprechen kann.

Wenn du nicht weißt in welchem Slot die Festplatte überhaupt zu finden ist muss man wohl oder übel jede Festplatte raus ziehen um sie manuell zu identifizieren. Bei der Menge an Festplatten ist es dann sogar für mich einfacher den Server einfach herunterzufahren als alle Zpools zu exportieren und da am laufenden System herum zu hantieren, kann einfach zu viel bei schief gehen.

Bei 62 Platten ist das sicherlich aufwendiger als bei 24. Ich würde mir mit einem Layout helfen. Festplatte xyz ist in Caddy xyz oder so ähnlich. Wie gesagt hab ich jetzt ein Case ohne SGPIO und damit müsste es auch gehen. Geht ja bei Dir auch ;) und Du hast weit mehr Platten am Start.
 
Ich dachte an die Statusmeldung des zpool.
:confused:

Code:
root@FILESHIP ~ # zpool status -v MR_2TBx2
  pool: MR_2TBx2
 state: ONLINE
  scan: scrub repaired 0 in 21h47m with 0 errors on Wed Oct 30 15:28:17 2013
config:

	NAME                                          STATE     READ WRITE CKSUM
	MR_2TBx2                                      ONLINE       0     0     0
	  mirror-0                                    ONLINE       0     0     0
	    030_2.0TB_Samsung_HD203WI_S1UYJ1WZ400502  ONLINE       0     0     0
	    031_2.0TB_Samsung_HD203WI_S1UYJ1WZ400501  ONLINE       0     0     0

errors: No known data errors

Da meine Festplatten verschlüsselt sind handelt es sich hierbei natürlich nicht um die Festplatte direkt sondern um das gecryptete Block Device. Ich habe wie schon in vorherigen Beiträgen erwähnt meine Festplatten in /etc/crypttab nach AufkleberNummer_Größe_Hersteller_Produktname_Seriennummer sortiert.

Bei 62 Platten ist das sicherlich aufwendiger als bei 24. Ich würde mir mit einem Layout helfen. Festplatte xyz ist in Caddy xyz oder so ähnlich. Wie gesagt hab ich jetzt ein Case ohne SGPIO und damit müsste es auch gehen. Geht ja bei Dir auch ;) und Du hast weit mehr Platten am Start.
Naja, ohne extra Hilfsmittel wie Aufkleber geht das nicht. Meine Festplatten sind mit Nummern beklebt welche in einer Excel-Tabelle eingetragen sind die auch Kaufdatum und Garantiezeit enthält. Wenn du auch verschlüsselst und die Nummern auf dem Caddy hast sollte das Festplatten tauschen also kein Problem sein.

Ich verwende dafür Etiketten in dieser Art, erhältlich in jedem Schreibwarenhandel.
244632.jpg
http://www.amazon.de/Herma-Vielzwecketiketten-farbig-sortiert-Papier/dp/B000WL01LA/
 
Zuletzt bearbeitet:
Leider sind noch nicht alle Komponenten da :(
 
Sorry, aber ich habe auch noch ein Leben 😁😊

Ich denke aber, dass ich zu Beginn des neuen Jahres fertig werde 😉
 
Zuletzt bearbeitet:
@GrafikTreiber

Die Hardware ist doch noch halbwegs aktuell oder würdest Du zu Anderem raten?
 
Ist die Zusammenstellung in Post #56 das was du aktuell kaufen willst? Dachte du hättest schon bestellt? ;)

Statt den Hitachis würde ich jetzt zu Seagate NAS HDD 4TB, SATA 6Gb/s (ST4000VN000) ab €153,38 raten, die sind günstiger.

Statt der Sansdisk Extreme 2 vielleicht eine Samsung SSD 840 Evo Series 120GB, 2.5", SATA 6Gb/s (MZ-7TE120BW) ab €78,78.

Das Sockel 2011 Mainboard ist noch immer aktuell, für die CPU gibt es aber einen Nachfolger Intel Xeon E5-1620 v2, 4x 3.70GHz, Sockel-2011, tray (CM8063501292405) ab €258,96.

Sockel 1155 Hardware ist natürlich nicht mehr aktuell, da es ja nun Sockel 1150 gibt. Aber du hattest dich ja wegen den mehr PCIE-Lanes (40 statt 16) und mehr maximalen Ram (256GB statt 32GB) für Sockel 2011 entschieden.
 
Zuletzt bearbeitet:
Was spricht für die Seagates im Vergleich zu WD Reds? Preis und Garantiedauer sind identisch.

Vorteil bei WD: bei RMA ist ein Vorabtausch möglich
 
Was spricht für die Seagates im Vergleich zu WD Reds? Preis und Garantiedauer sind identisch.
Die Vergleichsweise hohen RMA-Quoten der Reds und die Benchmarks sprechen für die Seagate NAS HDD. Vorabaustausch ist abhängig davon wo man die Garantie überhaupt abwickelt. Der Privatkunde macht dass in der Regel besser beim Händler. Das kommt natürlich immer auf drauf an. Ich bringe meinen Platten einfach vorbei und bekomme neue und gut ist. ;)

http://www.storagereview.com/seagate_nas_hdd_review
http://www.anandtech.com/show/7258/battle-of-the-4-tb-nas-drives-wd-red-and-seagate-nas-hdd-faceoff
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh