[Kaufberatung] Datengrab mit (Multimedialem-)Mehrwert

banane22

Experte
Thread Starter
Mitglied seit
26.07.2012
Beiträge
79
Moin,
dieses Thema gab es in den letzten Tagen ja verhäuft und dennoch hab ich das Bedürfnis noch einen eigenen Thread auf zu machen :rolleyes:

Mein Vorhaben:
Ich würde gerne meine alten 02 x Lian-Li EX-503 mit jew. 05 x 3TB WD Green im Raid 5 aufgrund von Platzmangel erweitern, habe aber keine Lust mir ein weiteres externes Case hier in die Ecke stellen zu müssen. Desshalb würde ich gerne auf eine All-in-One Lösung wechseln, welche gleichzeitig noch meinen Recording-Service aus meinem derzeitigen Wohnzimmer-HTPC beheimaten könnte und in die Vorratskammer umziehen kann. Hier kommen wir zum ersten Knackpunkt. Bis dato habe ich immer mit Windows bzw. DVB-Viewer / Recording-Service gearbeitet und bin prinzipiell zufrieden, aber zum einen habe ich keine Lust mir eine teure Windows Server Lizenz zu kaufen und zum anderen macht mir das Thema der schleichenden Datenkorruption in Verbindung mit NTFS bei der nun beträchtlichen Menge an Daten sorgen und liebäugle mit dem Filesystem ZFS.
Da entstehen jetzt zwangsläufig zwei Fragen die ich mir noch nicht beantworten konnte:
1. Gibt es für Linux eine gute Alternative zum Recording Service die gut mit CCam zusammenarbeitet und gleichzeitig eine gute Integration in XBMC Frodo hat?
2. Welches *Nix veträgt sich gut mit dieser Alternative und gibt es hier Erfahrungswerte zu dieser Kombination.

Die Andere Möglichkeit ist natürlich ein auf Windows basierendes Datengrab, mit welchem ich den Recording Service in alter Manier einfach weiter betreiben und bei Windows Server 2012 auf ReFs setzen könnte. Ist nur die Frage ob man sich dieser 'Beta-Version' mit seinen Daten anvertrauen möchte ...

Nächster Punkt Hardware:
01 x Intel Xeon E3-1220LV2, 2x 2.30GHz, Sockel-1155, tray (CM8063701099001)
02 x Kingston ValueRAM DIMM 8GB PC3-12800E ECC CL11 (DDR3-1600) (KVR16E11/8)
02 x IBM ServeRAID M1015, PCIe 2.0 x8 (90Y4556)
01 x Supermicro X9SCM-F bulk, C204 (Sockel-1155, dual PC3-10667E DDR3) (MBD-X9SCM-F-B )
01 x Noctua NH-U9B SE2
01 x Inter-Tech 4U-4324L, 4HE
01 x be quiet! Dark Power Pro 10 550W ATX 2.3 (P10-550W/BN200)

10 x Western Digital Caviar Green 3000GB, SATA 6Gb/s (WD30EZRX) (Bereits Vorhanden)
06 x Toshiba DT01ACA Series 3000GB, SATA 6Gb/s (DT01ACA300)

Das ist jetzt die Zusammenstellung für ein System auf Basis von ZFS, sollte sich das ganze mit Windows Server als besser / einfacher / sicherer im Zusammenhang mit dem Vorhaben das TV Signal über diesen Rechner zu Streamen erweisen, dann bräuchte ich natürlich noch einen empfehlenswerten HW Raid Controller, da stehe ich aber momentan zwischen den Seilen. Einen Adaptec oder LSI?

Weitere Frage stellt sich mir bezüglich eines dritten Controller, der dann ja auf einen der PCIe 2.0 8x (elektrisch 4x) kommen müsste, reicht da die Geschwindigkeit bzw. der Adressraum aus? und ist gewährleistet, dass meine Quadro DVB-S Karte (x1) auf dem 4. Slot funktioniert?

Ich bin gespannt auf eure Erfahrungen bzw. Tipps!

LG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie ich sehe hast du hier schon sehr viel gelesen, vorbildlich. ;)

Du kannst auch einfach mit Proxmox VE (basiert auf Debian mit RHEL-Kernel, vollständig kostenlos ohne Einschränkungen verwendbar) oder ESXi virtualisieren und ZFS als Storage-VM und Windows für deine DVB-Aufnahmen verwenden, ich denke dass ist die einfachste Lösung.
Alternativ kannst du auch ein ganz normales Linux verwenden, z.B. Debian oder Ubuntu, dort ZFSonLinux installieren und mittels KVM eine virtuelle Maschine für Windows von Hand anlegen und die DVB-Karte durch reichen.
Die Frage ist nur ob sich die Quadro-DVB-Karte durch reichen lässt eventuell einen PCIE-Switch onboard hat und so etwas kann beim durch reichen problematisch sein kann. Recherchiere mal nach deiner Karte und PCIE-Passthrough, ich denke da wirst du ein paar Themen zu finden, ansonsten hilft da nur ein Test. Du könntest dazu mal diesen Thread http://www.hardwareluxx.de/community/f101/esxi-5-pci-passthrough-mehrerer-tv-karten-930297.html anstoßen und fragen wie weit der Autor denn mit seiner neuen TV-Karte gekommen ist.

Die Hardware ist so in Ordnung, sehr gute Wahl. :fresse:
Ich würde aber definitiv 32GB Ram einbauen, besonders wenn du Virtualisiert und gleichzeitig ZFS verwendest ist das eigentlich ein Muss.

Der C204-Chipsatz hat 20 PCIE-Lanes, mehr stehen nicht zur Verfügung. Ca. 2 PCIE-Lanes werden von den Geräten auf dem Mainboard genutzt, das heißt noch 18 sind übrig für weitere Geräte. Das heißt die zwei M1015 (neuste IT-Firmware flashen nicht vergessen!) werden mit jeweils x8 angebunden und für deine DVB-Karte ist auch noch ein x1 vorhanden. Solltest du mehr Controller einbauen werden sich die Lanes auf jeweils x4 aufteilen, das lässt sich mit dieser Hardware leider nicht anderes machen.
Wenn du mehr PCIE-Lanes haben willst musst du zu Sockel 2011 greifen, welcher wesentlich teurer ist. Dort hast du dann 40 PCIE-Lanes, ich denke aber dass das nicht nötig ist außer du hast später mal vor mit weiteren Expandergehäusen zu arbeiten um mehr als 24 Festplatten anzuschließen.

Beispiel, die selbe Hardware verwende ich auch:
1x Intel Xeon E5-1620, 4x 3.60GHz, Sockel-2011, tray (CM8062101038606)
1x Supermicro SNK-P0050AP4 (spezieller Kühler, andere funktionieren nicht! Das Mainboard hat Narrow-ILM und keine Square-ILM!)
1x Supermicro X9SRL-F retail, C602 (Sockel-2011, dual PC3-12800R reg ECC DDR3) (MBD-X9SRL-F-O)
4x Kingston ValueRAM DIMM 8GB PC3-12800R reg ECC CL11 (DDR3-1600) (KVR1600D3D4R11S/8G)

Das Thema "DVB-Linux-Distribution" würde ich erst angehen wenn sich du keine DVB-Karte findest die sich ordentlich durch reichen lässt. Es gibt zwar einige gute Distributionen für diesen Anwendungszweck, aber ganz ehrlich: Einfacher und stabiler als DVB-Viewer wird das definitiv nicht, Wartung und Installation sind um ein einiges aufwendiger als eine simple Windows Installation mit DVB-Viewer.

Ein RaidZ1 (Raid5) solltest du für deine neuen 6 Platten nicht mehr verwenden, die Ausfallwahrscheinlichkeit beim Rebuild ist recht hoch bei den heutigen Kapazitäten von Festplatten, also mindestens RaidZ2 (Raid6).
 
Zuletzt bearbeitet:
Danke für die sehr informative Antwort!
Auf den 2011 Sockel möchte ich nicht wechseln. Sowohl Preis, als auch Stromhunger dieser Plattform sind mir zu hoch :)
Sprich wenn ich alle 24 Laufwerke über Controllerkarten anschließen möchte, muss ich 1 x einen 8 x 8087 und einen 16 x 8087 Controller einbauen?! Gibts eine kostengünstige Empfehlung (ähnlich dem m1015) oder fahre ich mit dem LSI SAS 9201-16i, SAS 6Gb/s, PCIe 2.0 x8 (LSI00244) am besten?
Bezügl. Proxmox VE vs. ESXi stellt sich mir noch die Frage nach der Performance im Bezug auf ZFS mit Bsp. OpenIndiana, Reichen da z.B. die angestrebten 16GB Ram...

Und eines noch: hast du ein solches Setup selber laufen, oder ist die von dir angegebene Karte im verlinkten Thread lediglich in einem HTPC ohne Virtualisierung im Einsatz?
Habe jetzt noch nicht wirklich nach Kompatibilität von DVB-S Tunern im Bezug auf ESXi gesucht ...

Edith: Habe meine Antwort zu lange reifen lassen (Kochen und Essen waren wichtiger ;)) und deine hinzugefügte Anmerkung nicht mehr mitbekommen.
Ursprünglich hatte ich eigentlich folgendes Setup geplant, dieses aber bereits verworfen:
3 x IBM M1015 8x 8087 SAS
3 x RaidZ3 à 8 HDDs verteilt auf alle Controller
24 x 3TB HDD
0 x HotSpare

Aber da das mit drei Controllern nicht wirklich hinhaut muss ich mir jetzt eine andere Alternative überlegen :)
 
Zuletzt bearbeitet:
Stromverbrauch vom Sockel 2011 im Idle ist nur minimal höher, das nimmt sich wirklich nicht viel. Du hast bei Sockel 2011 natürlich auch viel mehr Leistung, daher auch die höhere TDP, das kann man so also auch nicht direkt Vergleichen. Klar verbraucht ein 220PS Motor mehr wie ein 140PS Motor. ;)
Außerdem benötigst du bei dem von mir vorgeschlagenen Mainboard auch nur zwei M1015 weil das Mainboard 10x SATA Onboard hat von denen du 8 Ports via Reverse Breakout Kabel auch an den Backplanes verwenden kannst.

Du kannst einfach 3 IBM M1015 verwenden, das haut sehr wohl hin und ist die günstigste Lösung. Es bringt dir ja nichts einen 16 Port Controller mit PCIE2.0 zu verwenden wenn du eh nur 20 PCIE-Lanes hast, nur weil du statt zwei Controllern einen hast hast du nicht plötzlich mehr Lanes. Du hast quasi ein Budget von 10GByte/s bei Verwendung von PCIE2.0-Hardware dass du zur Verfügung hast, ob du das jetzt nun auf 3 Controller mit je 8 Ports oder einen mit 16 und einen mit 8 aufteilst macht keinen Unterschied.

Wenn du dir einen anderen Controller wie den M1015 kaufst, sollte es schon ein ganz neuer mit PCIE3.0 sein, weil du dann pro Lane 1GByte/s statt 500MByte/s hast, ansonsten außer Spesen nichts gewesen.

Aber wie schon gesagt, das muss nicht sein, die Bandbreite reizt du mit normalen Festplatten nicht aus, pro Festplatte benötigst du etwa 200MByte/s, eine PCIE 2.0 Lane sind 500MByte/s.
Wenn du 3 M1015 verwendest und die Quadro-DVB-Karte sähe das etwa so aus:
PCIE Slot1: x8 LSI-Controller
PCIE Slot2: x4 LSI-Controller
PCIE Slot3: x4 LSI-Controller
PCIE Slot4: x1 Quadro-DVB-Karte
Das heißt für deine Festplatten hast du 16 PCIE-Lanes im PCIE2.0-Modus zur Verfügung, das sind 8000MByte/s, also genug für 40 Festplatten a 200MByte/s, die Verluste durch den PCIE- und SAS/SATA-Protokoll-Overhead jetzt mal nicht ein berechnet.
Siehe dazu: PCIe - PCI Express

Die Dual-DVB-Karte die ich dort verlinkt habe habe ich in einem HTPC ohne Virtualisierung im Einsatz, hier siehst du meine Hardware. Windows7, DVB-Viewer mit Sky und HD+, XBMC und mpc-hc mit MadVR und LAV-Filtern.

"Kompatibilität auf ESXi" ist nicht richtig ausgedrückt, mit ESXi oder KVM/Proxmox muss da gar nichts kompatibel sein. Es geht darum ob die DVB-Karte sich als einzelnes Gerät meldet, dann kannst du sie in 95% der Fälle einfach ohne Probleme durch reichen oder auf der DVB-Karte mehrere einzelne Chips sind die über einen PCIE-Switch angebunden sind. Ein PCIE-Switch ist beim durch reichen deshalb problematisch weil er in Regel vom Betriebssystem nicht als solches zu erkennen ist sondern nur die angebunden Geräte sich anmelden. Da diese aber nur eine "virtuelle PCIE-Lane" hinter dem Switch haben lassen sie sich nicht einfach mit PCI-Passthrough durch reichen. Man müsste dafür den gesamten Switch durch reichen und der lässt sich meistens gar nicht auswählen.

Recherchiere mal nach Berichten über PCI-Passthrough einer Quad-DVB-Karte, ob das nun ESXi oder KVM oder Hyper-V ist es egal, sofern es bei dem einer dieser Virtualisierungslösungen funktionieren geht es auch bei den anderen. Als letzte Notlösung gibt es immer noch die Möglichkeit einzelne USB-DVB-Karten durch zu reichen, das funktioniert problemlos. Ist zwar nicht so schön, aber dafür technisch weitaus trivialer.

Auch ohne Virtualisierung würde ich 32GB Ram nehmen, ZFS nimmt sich soviel Ram wie es bekommen kann, je mehr desto besser, der Aufpreis ist relativ gering.

Bezüglich Proxmox VE vs ESXi: Das eine ist eine OpenSource-Lösung die frei verfügbar ist, das andere eine hinter verschlossenen Türen entwickelte Software die kostenlos nur bis 32GB verwendbar ist und danach sehr teuer ist.
Von der Performance her nehmen sie sich nicht wirklich was, darauf musst du also nicht achten. Viel mehr sind die Features interessant, beide Lösungen haben ihre Vor- und Nachteile, das hier nun zu besprechen würde den Rahmen dieses Threads ziemlich sprengen. ;)
 
Zuletzt bearbeitet:
PCIE Slot1: x8 LSI-Controller
PCIE Slot2: x4 LSI-Controller
PCIE Slot3: x4 LSI-Controller
PCIE Slot4: x1 Quadro-DVB-Karte
Kommt denn der Adressraum des Mainboards mit so vielen Karten klar ? Kein Plan wie es bei HBA Controllern ist, aber RAIDController brauchen einiges an Adressraum ...
Verstehe auch nicht so der Vorteil von so vielen Controllern liegen soll. Die verbrauchen Strom kosten Geld machen alles nur unnötig komplexer usw ...
 
Deine Antworten sind große Klasse!! - Danke für die ausführlichen Erklärungen!

Stromverbrauch vom Sockel 2011 im Idle ist nur minimal höher, das nimmt sich wirklich nicht viel. Du hast bei Sockel 2011 natürlich auch viel mehr Leistung, daher auch die höhere TDP, das kann man so also auch nicht direkt Vergleichen. Klar verbraucht ein 220PS Motor mehr wie ein 140PS Motor. ;)
Außerdem benötigst du bei dem von mir vorgeschlagenen Mainboard auch nur zwei M1015 weil das Mainboard 10x SATA Onboard hat von denen du 8 Ports via Reverse Breakout Kabel auch an den Backplanes verwenden kannst.
Das versteht sich von selbst, jedoch finde ich sind 30W - 88W Mehrverbrauch nicht minimal und soweit ich das jetzt verstanden hab ist die (CPU) Mehrleistung für mein Vorhaben auch nicht notwendig. (Bitte korrigieren, wenn ich das falsche Ticket gelöst habe!)
Intel-Xeon-E5-1620-Power-Consumption.png
Das Einzige was mich fast überzeugt, ist die Geschichte mit mehr verfügbaren PCIe Lanes und -Slots die mehr Flexibilität bzw. 'Zukunftssicherheit' bieten aber das wiegt m.M.n. die monatliche Stromrechnung nicht auf (ist sowieso schon zu hoch!)


Aber wie schon gesagt, das muss nicht sein, die Bandbreite reizt du mit normalen Festplatten nicht aus, pro Festplatte benötigst du etwa 200MByte/s, eine PCIE 2.0 Lane sind 500MByte/s.
Wenn du 3 M1015 verwendest und die Quadro-DVB-Karte sähe das etwa so aus:
PCIE Slot1: x8 LSI-Controller
PCIE Slot2: x4 LSI-Controller
PCIE Slot3: x4 LSI-Controller
PCIE Slot4: x1 Quadro-DVB-Karte
Das heißt für deine Festplatten hast du 16 PCIE-Lanes im PCIE2.0-Modus zur Verfügung, das sind 8000MByte/s, also genug für 40 Festplatten a 200MByte/s, die Verluste durch den PCIE- und SAS/SATA-Protokoll-Overhead jetzt mal nicht ein berechnet.
Siehe dazu: PCIe - PCI Express
Ich denke so werde ich das angehen ... Da ich anfangs sowieso erstmal nur mit zwei Verbünden á 8 HDDs arbeiten werde und die letzten 8 meine mittelfristige 'Zukunftssicherheit' darstellen, sollte ich über die nächsten 2 Jahre keine nicht kartierten Eisberge rammen :)
Eine blöde Frage noch in den Raum geschmissen: Kann ich im Bios die Lanes der PCIe Ports manuell einstellen?!


Auch ohne Virtualisierung würde ich 32GB Ram nehmen, ZFS nimmt sich soviel Ram wie es bekommen kann, je mehr desto besser, der Aufpreis ist relativ gering.
Dann werden es 32GB! :)


Bezüglich Proxmox VE vs ESXi: Das eine ist eine OpenSource-Lösung die frei verfügbar ist, das andere eine hinter verschlossenen Türen entwickelte Software die kostenlos nur bis 32GB verwendbar ist und danach sehr teuer ist.
Von der Performance her nehmen sie sich nicht wirklich was, darauf musst du also nicht achten. Viel mehr sind die Features interessant, beide Lösungen haben ihre Vor- und Nachteile, das hier nun zu besprechen würde den Rahmen dieses Threads ziemlich sprengen. ;)
Dann muss ich jetzt noch einen schönen Feature-Vergleich der beiden Systeme finden :fresse:
Ich danke dir nochmals für die ausführlichen Erklärungen und Ausführungen! Ich stehe immer mehr in einem Wald und bin nur noch von vereinzelten Bäumen umgeben ;)

LG
 
Zuletzt bearbeitet:
Kommt denn der Adressraum des Mainboards mit so vielen Karten klar ? Kein Plan wie es bei HBA Controllern ist, aber RAIDController brauchen einiges an Adressraum ...
Verstehe auch nicht so der Vorteil von so vielen Controllern liegen soll. Die verbrauchen Strom kosten Geld machen alles nur unnötig komplexer usw ...

Das Preisargument sehe ich nicht als korrekt an:
LSI SAS 9201-16i, SAS 6Gb/s, PCIe 2.0 x8 (LSI00244) ab €326,-- 20,38€/SATA-Port
vs.
IBM ServeRAID M1015, PCIe 2.0 x8 (90Y4556) ab €113,34 14,17€/SATA-Port

Sind immerhin ~150€ auf die Gesamtzahl gesehen ...
 
Das versteht sich von selbst, jedoch finde ich sind 30W - 88W Mehrverbrauch nicht minimal und soweit ich das jetzt verstanden hab ist die (CPU) Mehrleistung für mein Vorhaben auch nicht notwendig. (Bitte korrigieren, wenn ich das falsche Ticket gelöst habe!)
Anhang anzeigen 218129
Das Einzige was mich fast überzeugt, ist die Geschichte mit mehr verfügbaren PCIe Lanes und -Slots die mehr Flexibilität bzw. 'Zukunftssicherheit' bieten aber das wiegt m.M.n. die monatliche Stromrechnung nicht auf (ist sowieso schon zu hoch!)

Du gehst das falsch an. Ja, Sockel 2011 verbraucht mehr Strom, ist dafür aber auch schneller. Dadurch dass die CPU schneller ist, ist sie auch schneller wieder im Idle und spart so auch schneller wieder Strom.
Einfach nur den Maximalverbrauch miteinander zu vergleichen bringt nur etwas wenn beide die gleiche Rechenkraft haben, ansonsten vergleichst du Äpfel mit Birnen.
Beispiel: Du entpackst eine Verschlüsselte Rar-Datei mit Sockel 1155 in 2min, mit dem Sockel 2011 aber in 1:30min. Die Sockel 1155 hat also 2min ihren Maximal verbrauch und ist danach im Idle, die Sockel 2011 CPU ist aber nur 1:30min unter Vollast und dann wieder im Idle.
Daher ist der Stromverbrauch eben nicht so extrem viel höher wie von dir dargestellt sondern wie ich schon sagte eher nur "minimal höher".
Der Autovergleich hinkt etwas weil man dort den Wert der Zeitersparniss nicht pauschal in Euro umrechnen kann und es der Spritverbrauch verhältnismäßig wesentlich größer ist, aber ich bringe ihn hier mal trotzdem:
Auto1 fährt mit 200km/h in 1h zum Ziel, Auto2 mit 100km/h erreicht in 2h das Ziel. Auto1 verbraucht dadurch mehr Sprit, kann dafür aber schneller den Motor abschalten und der Fahrer hat mehr Zeit für andere Dinge.
Das selbe gilt auch für "Green-Festplatten", den niedrigeren Verbrauch erkauft man sich mit langsameren Übertagungsraten.

Vergiss außerdem nicht dass du bei Sockel 2011 einen Controller einsparen würdest. Aber wie dem auch sei, brauchen würdest du den Sockel 2011 nicht, erst wenn du vor hast mit Expandern zu arbeiten. Und da dein Platzbedarf anscheinend nicht so schnell wächst ist es sinnvoller vielleicht in 3 Jahren dann einfach ein neues Mainboard oder die Festplatten zu ersetzen.


Ich denke so werde ich das angehen ... Da ich anfangs sowieso erstmal nur mit zwei Verbünden á 8 HDDs arbeiten werde und die letzten 8 meine mittelfristige 'Zukunftssicherheit' darstellen, sollte ich über die nächsten 2 Jahre keine nicht kartierten Eisberge rammen :)
Eine blöde Frage noch in den Raum geschmissen: Kann ich im Bios die Lanes der PCIe Ports manuell einstellen?!
Ja, das geht. Ist überings ein UEFI und kein BIOS mehr. Ich empfehle daher der Einfachheit halber die Firmware der Controller auf einem älteren Mainboard mit BIOS zu flashen. Die DOS-Tools von LSI funktionieren nämlich oft nicht unter UEFI. Man kann es auch über die EFI-Shell machen, das ist aber etwas aufwendiger.

Wegen der Festplatten-Aufteilung, lies bitte ab Post #24 im Thread [Kaufberatung] Medienserver und außerdem meinen Beitrag #2437 im ZFS Stammtisch dazu durch und klapp die Spoiler auf, da geht es um die Ausfallwahrscheinlichkeit von Raidz1-3 und die optimale Laufwerksaufteilung für maximale Performance.
Du kannst auch gerne von den Empfehlungen abweichen, aber für maximale Performance sollte man sich daran halten. Ich persönlich setze RaidZ3 aus 11 Festplatten ein.

ann muss ich jetzt noch einen schönen Feature-Vergleich der beiden Systeme finden :fresse:
Ich danke dir nochmals für die ausführlichen Erklärungen und Ausführungen! Ich stehe immer mehr in einem Wald und bin nur noch von vereinzelten Bäumen umgeben ;)
Das wirst du so nicht finden, das ist viel zu individuell und passt in keine Tabelle. Es gibt kein wirkliches besser oder schlechter, das ist eine Grundsatz-Entscheidung die man anhand der eigenen Anforderungen und Vorlieben fällen muss.
Da Proxmox auf Debian basiert kannst du z.B. den VM-Storage auf ein Software-Raid legen und sogar verschlüsseln. Bei ESXi gibt es kein Software-Raid und keine Verschlüsselung.
https://www.google.de/search?hl=de&q=proxmox+vs+esxi sollte helfen.

Kommt denn der Adressraum des Mainboards mit so vielen Karten klar ? Kein Plan wie es bei HBA Controllern ist, aber RAIDController brauchen einiges an Adressraum ...
Verstehe auch nicht so der Vorteil von so vielen Controllern liegen soll. Die verbrauchen Strom kosten Geld machen alles nur unnötig komplexer usw ...
Das Preisargument sehe ich nicht als korrekt an:
LSI SAS 9201-16i, SAS 6Gb/s, PCIe 2.0 x8 (LSI00244) ab €326,-- 20,38€/SATA-Port
vs.
IBM ServeRAID M1015, PCIe 2.0 x8 (90Y4556) ab €113,34 14,17€/SATA-Port

Sind immerhin ~150€ auf die Gesamtzahl gesehen ...

Der LSI SAS 9201-16i hat eine TDP von 20W, ein M1015 aka LSI SAS 9211-8i eine TDP von 13,5W. Der höhere Anschaffungspreis macht den Mehrverbrauch von 7W wirtschaftlicher.
Außerdem sollten sich die 8-Port Controller später mit geringerem Wertverlust verkaufen lassen, auch noch ein Punkt den man bei einem späteren Upgrade im Hinterkopf haben sollte.
 
Zuletzt bearbeitet:
@GrafikTreiber: Was ist denn mit dem Adressbereich den jeder Controller braucht ? Ich weiß das es bei RAIDControllern da Probleme gibt wenn man 4 Stück verbaut. Selbst bei den meisten Serverboards. Wie ist das denn bei HBA Controllern ? Brauchen die einen so viel kleineren Adressbereich ?

Du gehst das falsch an. Ja, Sockel 2011 verbraucht mehr Strom, ist dafür aber auch schneller. Dadurch dass die CPU schneller ist, ist sie auch schneller wieder im Idle und spart so auch schneller wieder Strom.
Einfach nur den Maximalverbrauch miteinander zu vergleichen bringt nur etwas wenn beide die gleiche Rechenkraft haben, ansonsten vergleichst du Äpfel mit Birnen.
Aus dem Grund verbrauchen auch die meisten neuen QuadCore Smartphones weniger Strom als die DualCore Smartphones ...
Wichtiger ist meist wie viel die jeweilige ServerHardware im Idle verbraucht. Denn ein Homeserver der 24/7 an ist verbringt ja doch die meiste Zeit im Idle. Meine I5 CPU Idled auch noch wenn sie non Stopp am Downloaden ist ... Das juckt die von der CPU Belastung her fast NULL. Nur wenn es ans Entpacken geht kommt mal ein klein wenig Last auf.
Mein Server verbraucht im Idle ca. 80 WATT mit 4 Festplatten aktiv und die USV nochmal ca. 20 WATT.
 
Hab jetzt mir jetzt folgenden Kram bestellt:

Home- / Fileserver Hardware

1 x Kingston ValueRAM DIMM Kit 32GB PC3-12800E ECC CL11 (DDR3-1600) (KVR16E11K4/32)
2 x IBM ServeRAID M1015, PCIe 2.0 x8 (90Y4556)
1 x Supermicro X9SCM-F bulk, C204 (Sockel-1155, dual PC3-10667E DDR3) (MBD-X9SCM-F-B)
2 x be quiet! Silent Wings 2 80mm (BL060)
3 x be quiet! Silent Wings 2 PWM 120mm (BL030)
1 x Noctua NH-U9B SE2
1 x Inter-Tech 4U-4324L, 4HE
1 x be quiet! Dark Power Pro 10 550W ATX 2.3 (P10-550W/BN200)

Und werde das ganze erstmal mit 16 x 3TB HDDs an den Beiden Controllern betreiben.
Über die onBoard SATA Anschlüsse werde ich 1 x 120GB Samsung 830 Pro als Hostplatte, 1 x 3TB Zwischenspeicher für die Hostsysteme und 1 x eine HotSpare 3TB anschließen und habe dann erstmal noch. Die Geschichte mit dem dritten Controller lass ich erstmal offen und tausche im Zweifel eine der IBM M1015 gegen einen größeren Controller aus ...

Eine Frage hab ich aber noch:
Kennt ihr einen Händler, der die Lüfterplatte und SAS/SATA Backplate im Sortiment hat bzw. könnt ihr was zu den Preisen sagen? - Habe jetzt bei meinen Recherchen nur einen Händler gefunden, der die listet:
Inter Tech: 88887050 günstig im Onlineshop von Lieske Elektronik kaufen
Hab die Preise zwar angefragt, jedoch ist zum einen der Preisvergleich immer gut und zum anderen hasse ich Liefer- / Wartezeiten :P

---------- Post added at 22:39 ---------- Previous post was at 21:42 ----------

Du gehst das falsch an. Ja, Sockel 2011 verbraucht mehr Strom, ist dafür aber auch schneller. Dadurch dass die CPU schneller ist, ist sie auch schneller wieder im Idle und spart so auch schneller wieder Strom.
Einfach nur den Maximalverbrauch miteinander zu vergleichen bringt nur etwas wenn beide die gleiche Rechenkraft haben, ansonsten vergleichst du Äpfel mit Birnen.
Beispiel: Du entpackst eine Verschlüsselte Rar-Datei mit Sockel 1155 in 2min, mit dem Sockel 2011 aber in 1:30min. Die Sockel 1155 hat also 2min ihren Maximal verbrauch und ist danach im Idle, die Sockel 2011 CPU ist aber nur 1:30min unter Vollast und dann wieder im Idle.
Daher ist der Stromverbrauch eben nicht so extrem viel höher wie von dir dargestellt sondern wie ich schon sagte eher nur "minimal höher".
Der Autovergleich hinkt etwas weil man dort den Wert der Zeitersparniss nicht pauschal in Euro umrechnen kann und es der Spritverbrauch verhältnismäßig wesentlich größer ist, aber ich bringe ihn hier mal trotzdem:
Auto1 fährt mit 200km/h in 1h zum Ziel, Auto2 mit 100km/h erreicht in 2h das Ziel. Auto1 verbraucht dadurch mehr Sprit, kann dafür aber schneller den Motor abschalten und der Fahrer hat mehr Zeit für andere Dinge.
Das selbe gilt auch für "Green-Festplatten", den niedrigeren Verbrauch erkauft man sich mit langsameren Übertagungsraten.
Klingt Plausibel, aber ich falle hier definitiv nicht in den Bereich 'High Performance' und beiße für die hoffentlich nicht häufig auftretenden Notfälle in denen ein Rebuild / Resilvern stattfindet in den sauren Apfel der geringeren Leistungsspitzen. Mein System wird sich höchstens bei Aufnahmen des TV Backends in höhere Leistungsregionen schrauben und ansonsten auf die Zugriffe der im Hause verteilten XBMC Clients warten bzw. 2 x am Tag ein Backup der drei Bürorechner empfangen welches Erfahrungsgemäß im Schnitt nicht größer als 150MB / Workstation ist. Ich gedenke nicht irgendwelche Prozesslastigen Tasks wie z.B. En- / Recoding zu betreiben. Auch spielt eine Verschlüsselung mittels TC für mich z.Z. keine Rolle!


Vergiss außerdem nicht dass du bei Sockel 2011 einen Controller einsparen würdest. Aber wie dem auch sei, brauchen würdest du den Sockel 2011 nicht, erst wenn du vor hast mit Expandern zu arbeiten. Und da dein Platzbedarf anscheinend nicht so schnell wächst ist es sinnvoller vielleicht in 3 Jahren dann einfach ein neues Mainboard oder die Festplatten zu ersetzen.
Genau dass ist mein Gedankengang ... Ich gehe davon aus, dass ich mittelfristig mehr als ausreichend mit den o.g. Komponenten auskommen werde!


Ja, das geht. Ist überings ein UEFI und kein BIOS mehr. Ich empfehle daher der Einfachheit halber die Firmware der Controller auf einem älteren Mainboard mit BIOS zu flashen. Die DOS-Tools von LSI funktionieren nämlich oft nicht unter UEFI. Man kann es auch über die EFI-Shell machen, das ist aber etwas aufwendiger.
Bios hat sich einfach über die Jahre eingebrannt ... Ich habe z.Z. gar kein non-UEFI Mainboard hier im Hause :/ - Hast du ein schönes Tutorial für die EFI-Shell? Ansonsten muss ich mich mal nach einer entsprechenden Maschine im Umkreis umschauen ...


Wegen der Festplatten-Aufteilung, lies bitte ab Post #24 im Thread [Kaufberatung] Medienserver und außerdem meinen Beitrag #2437 im ZFS Stammtisch dazu durch und klapp die Spoiler auf, da geht es um die Ausfallwahrscheinlichkeit von Raidz1-3 und die optimale Laufwerksaufteilung für maximale Performance.
Du kannst auch gerne von den Empfehlungen abweichen, aber für maximale Performance sollte man sich daran halten. Ich persönlich setze RaidZ3 aus 11 Festplatten ein.
Welche Poolaufteilung würdest du mir denn bei max 24 Slots mit derzeit 18 verfügbaren HDDs vorschlagen? Schaue grade wieder verwirrter in den Wald hinein ... :(

LG
 
@GrafikTreiber: Was ist denn mit dem Adressbereich den jeder Controller braucht ? Ich weiß das es bei RAIDControllern da Probleme gibt wenn man 4 Stück verbaut. Selbst bei den meisten Serverboards. Wie ist das denn bei HBA Controllern ? Brauchen die einen so viel kleineren Adressbereich ?
Bei vernünftigen Server-Mainboards sollte so etwas kein Problem sein, der Adressbereich ist groß genug. Ich kann in meinem Sockel 2011 Mainboard 7x den M1015 ohne Probleme betreiben. Solche Probleme hat man hauptsächlich bei Desktop-Mainboards da dort die PCIE-Slots eigentlich nur für mehrere Grafikkarte (SLI/Crossfire) gedacht sind. Daher hatte ich dir damals auch mehrfach zu einem richtigen Servermainboard gerate. ;)

Aus dem Grund verbrauchen auch die meisten neuen QuadCore Smartphones weniger Strom als die DualCore Smartphones ...
Sehr gutes Beispiel, kann man allerdings auch nicht ganz miteinander vergleichen weil es sich dort um unterschiedliche Designs und Fertigungsgrößen handelt. Die generell Richtung stimmt aber da besonders bei den ARM-Chips die Verbrauchswerte zwischen Last und Idle verhältnismäßig sehr viel größer als bei einer x86-CPUs ist.
Wichtiger ist meist wie viel die jeweilige ServerHardware im Idle verbraucht. Denn ein Homeserver der 24/7 an ist verbringt ja doch die meiste Zeit im Idle. Meine I5 CPU Idled auch noch wenn sie non Stopp am Downloaden ist ... Das juckt die von der CPU Belastung her fast NULL. Nur wenn es ans Entpacken geht kommt mal ein klein wenig Last auf.
Mein Server verbraucht im Idle ca. 80 WATT mit 4 Festplatten aktiv und die USV nochmal ca. 20 WATT.
Ja, der Idle-Verbrauch ist auch interessant, aber bei modernen CPUs ist es eigentlich so dass sich selbst die 150W-TDP-Monster im Idle mit sehr wenig zu recht kommen.

Ich empfehle keine Kits zu kaufen, lieber einzelne Riegel! Im Falle deines Defektes musst du das komplett Kit einschicken und stehst dann völlig ohne Ram da! Wenn du einzelne Riegel kaufst musst du auch nur einen einschicken! Und nein, ein Kit ist nicht besser als einzelne Riegel. In der Regel bekommst du sogar bei einzelnen Riegeln welche die an genau den selben Tag produziert worden sind, sofern du unbedingt "gleiche" Riegel haben willst.

Und werde das ganze erstmal mit 16 x 3TB HDDs an den Beiden Controllern betreiben.
Über die onBoard SATA Anschlüsse werde ich 1 x 120GB Samsung 830 Pro als Hostplatte, 1 x 3TB Zwischenspeicher für die Hostsysteme und 1 x eine HotSpare 3TB anschließen und habe dann erstmal noch.
Was meinst du mit "Zwischenspeicher für die Hostsysteme"? Quasi einen Incoming-Ordner für Downloads und VM-Storage? Mach daraus definitiv ein Mirror, betreibe es nicht als einzelne Platte. Auch wenn die Daten dort "nicht so wichtig" sind hat man ohne Mirror oder Redundanz einfach viel zu viel Ärger im Falle eines Defektes.

Kennt ihr einen Händler, der die Lüfterplatte und SAS/SATA Backplate im Sortiment hat bzw. könnt ihr was zu den Preisen sagen? - Habe jetzt bei meinen Recherchen nur einen Händler gefunden, der die listet:
Inter Tech: 88887050 günstig im Onlineshop von Lieske Elektronik kaufen
Hab die Preise zwar angefragt, jedoch ist zum einen der Preisvergleich immer gut und zum anderen hasse ich Liefer- / Wartezeiten :P
Ich habe im Sommer 2012 16,80€ für die 120mm-Lüfterblende und 26,85€ für die Ersatz-Backplane bezahlt, ich habe aber auch recht spezielle Konditionen, ich weiß nicht in wie weit das übertragbar ist. Und nein, mein Händler macht keine Online-Geschäfte. ;)

Achja: Du musst eventuell zum Skalpel bei den 80mm-Lüftern greifen und den überstehenden Rand abschaben. Als ein Kollege letztens ein neues Inter-Tech bestellte war es hinten etwas enger und die Lüfter ließen sich nicht nebeneinander befestigen.

Klingt Plausibel, aber ich falle hier definitiv nicht in den Bereich 'High Performance' und beiße für die hoffentlich nicht häufig auftretenden Notfälle in denen ein Rebuild / Resilvern stattfindet in den sauren Apfel der geringeren Leistungsspitzen. Mein System wird sich höchstens bei Aufnahmen des TV Backends in höhere Leistungsregionen schrauben und ansonsten auf die Zugriffe der im Hause verteilten XBMC Clients warten bzw. 2 x am Tag ein Backup der drei Bürorechner empfangen welches Erfahrungsgemäß im Schnitt nicht größer als 150MB / Workstation ist. Ich gedenke nicht irgendwelche Prozesslastigen Tasks wie z.B. En- / Recoding zu betreiben. Auch spielt eine Verschlüsselung mittels TC für mich z.Z. keine Rolle!
Gut, wenn du keine Encryption oder Encoding machst brauchst du die Performance nicht wirklich. Und mit TC verschlüsselt man ZFS sowieso nicht, das macht man mit dmcrypt, geli oder der nativen ZFS-Crypto. ;)

Bios hat sich einfach über die Jahre eingebrannt ... Ich habe z.Z. gar kein non-UEFI Mainboard hier im Hause :/ - Hast du ein schönes Tutorial für die EFI-Shell? Ansonsten muss ich mich mal nach einer entsprechenden Maschine im Umkreis umschauen ...
Nicht wirklich, vielleicht hilft das: Flashing IT Firmware to the LSI SAS9211-8i HBA - brycv.com
Ich habe für so etwas eine Werkstatt mit Testplätzen die noch BIOS haben, ist einfach simpler als die EFI-Shell. Vor allen Dingen gibt es für viele Geräte auch noch gar keine EFI-Software, besonders für ältere Controller nicht, so dass man sowieso immer auf ein Mainboard mit BIOS angewiesen ist.

Welche Poolaufteilung würdest du mir denn bei max 24 Slots mit derzeit 18 verfügbaren HDDs vorschlagen? Schaue grade wieder verwirrter in den Wald hinein ... :(
Wie schon gesagt, als "Incoming"-Ordner für Downloads und anderen Storage auf jeden Fall ein Mirror, keine einzelne Platte.
Preis-/Leistungs-mäßíg wären dann noch zwei RaidZ3 aus 11 Festplatten optimal, allerdings müsstest du dazu jetzt gleich neue Festplatten kaufen.
Ich persönlich würde ein RaidZ2 bei Verwendung von Festplatten nicht über 6 Festplatten machen, ein RaidZ3 nicht über 11 weil mir danach die Totalausfallwahrscheinlichkeiten zu hoch sind.
Die Formeln dafür habe ich ja verlinkt, musst du selber wissen. Ich habe einen etwas größeren Storagebedarf und von daher ist es bei mir wirtschaftlicher 11 neue Festplatten für ein Z3 zu kaufen als 6 Festplatten für ein Z2.

Mögliche Optionen: 2x Z3x11 oder 1 Z3x11 und 1x Z2x6, da hat man dann aber später 5 Slots frei, das ist eine etwas unschöne Zahl. Oder halt 3x Z2x6. In jedem Fall müsstest du noch Festplatten dazu kaufen, eine Festplatte sollte man immer als Ersatz liegen haben. Wen möglich solltest du die Festplatten auch nicht mischen, also in einen RaidZ immer nur Festplatten des selben Typs verwenden, wenn das nicht geht zumindestens Green und Non-Green auseinander halten.

Die SSD muss nicht in einen Einschub, die kannst du mit Klettklebeband irgendwo in das Gehäuse packen oder einen PCI-Festplatten-Einschub wie RaidSonic Icy Box IB-2531StS, PCI-Slotblende für 2.5" Festplatte (25351) verwenden.
 
Zuletzt bearbeitet:
Tüdeldü ...

Bei vernünftigen Server-Mainboards sollte so etwas kein Problem sein, der Adressbereich ist groß genug. Ich kann in meinem Sockel 2011 Mainboard 7x den M1015 ohne Probleme betreiben. Solche Probleme hat man hauptsächlich bei Desktop-Mainboards da dort die PCIE-Slots eigentlich nur für mehrere Grafikkarte (SLI/Crossfire) gedacht sind. Daher hatte ich dir damals auch mehrfach zu einem richtigen Servermainboard gerate. ;)
wir werden es in spätestens 5 Tagen wissen, wenn die Hardware hier angekommen ist! (habe aus versehen drei Controller bestellt und werde den überflüssigen dann evtl. wieder zurückschicken ...)


Ich empfehle keine Kits zu kaufen, lieber einzelne Riegel! Im Falle deines Defektes musst du das komplett Kit einschicken und stehst dann völlig ohne Ram da! Wenn du einzelne Riegel kaufst musst du auch nur einen einschicken! Und nein, ein Kit ist nicht besser als einzelne Riegel. In der Regel bekommst du sogar bei einzelnen Riegeln welche die an genau den selben Tag produziert worden sind, sofern du unbedingt "gleiche" Riegel haben willst.
Hast du natürlich recht - Bestellung ist abgeändert.


Was meinst du mit "Zwischenspeicher für die Hostsysteme"? Quasi einen Incoming-Ordner für Downloads und VM-Storage? Mach daraus definitiv ein Mirror, betreibe es nicht als einzelne Platte. Auch wenn die Daten dort "nicht so wichtig" sind hat man ohne Mirror oder Redundanz einfach viel zu viel Ärger im Falle eines Defektes.
Genau, ein Incoming-Ordner, der z.B. Aufnahmen der 4 Tuner zwischenspeichert, bis diese richtig benannt und auf das Datengrab geschoben werden. Ich halte hier eine Redundanz für überflüssig, wenn z.B. eine Aufnahme futsch ist, dann dreht sich die Welt trotzdem und die Majas trauern :)


Ich habe im Sommer 2012 16,80€ für die 120mm-Lüfterblende und 26,85€ für die Ersatz-Backplane bezahlt, ich habe aber auch recht spezielle Konditionen, ich weiß nicht in wie weit das übertragbar ist. Und nein, mein Händler macht keine Online-Geschäfte. ;)

Achja: Du musst eventuell zum Skalpel bei den 80mm-Lüftern greifen und den überstehenden Rand abschaben. Als ein Kollege letztens ein neues Inter-Tech bestellte war es hinten etwas enger und die Lüfter ließen sich nicht nebeneinander befestigen.
Danke, ich werde mal die Antwort abwarten und mich ansonsten an die bei Inter Tech gelisteten Händler wenden, aber ist ja schon einmal gut einen preislichen 'Ramen' zu haben ;)


Nicht wirklich, vielleicht hilft das: Flashing IT Firmware to the LSI SAS9211-8i HBA - brycv.com
Ich habe für so etwas eine Werkstatt mit Testplätzen die noch BIOS haben, ist einfach simpler als die EFI-Shell. Vor allen Dingen gibt es für viele Geräte auch noch gar keine EFI-Software, besonders für ältere Controller nicht, so dass man sowieso immer auf ein Mainboard mit BIOS angewiesen ist.
Danke, ich werde mir das mal im neuen Jahr angucken! Habe soeben das letzte Arbeitsprojekt in die Ablage 'DONE' geschoben und konzentriere mich auf den kommenden Jahresabschied ;)


Mögliche Optionen: 2x Z3x11 oder 1 Z3x11 und 1x Z2x6, da hat man dann aber später 5 Slots frei, das ist eine etwas unschöne Zahl. Oder halt 3x Z2x6. In jedem Fall müsstest du noch Festplatten dazu kaufen, eine Festplatte sollte man immer als Ersatz liegen haben. Wen möglich solltest du die Festplatten auch nicht mischen, also in einen RaidZ immer nur Festplatten des selben Typs verwenden, wenn das nicht geht zumindestens Green und Non-Green auseinander halten.

Die SSD muss nicht in einen Einschub, die kannst du mit Klettklebeband irgendwo in das Gehäuse packen oder einen PCI-Festplatten-Einschub wie RaidSonic Icy Box IB-2531StS, PCI-Slotblende für 2.5" Festplatte (25351) verwenden.
Habe meine Bestellung der Toshiba DT01ACA300 ebenfalls nochmal angepasst und die Menge auf 7 umgestellt und dafür noch 2 x WD30EZRX (Green) Bestellt und mache dann folgende Aufteilung:
11 x WD30EZRX -> RaidZ3
06 x DT01ACA300 -> RaidZ2
06 x XXXX -> Zukünftige Aufrüstung

Wie würdest du diese Aufteilung auf die Controller bzw. Backplane verteilen?

Bezüglich Platz für Festplatten bin ich jetzt einfach mal Blond und sage, dass ich den 'Zwischenspeicher' für den Incoming-Ordner noch irgendwo im Gehäuse unterbringe, wenn ich mit weiteren 6 Festplatten einen weiteren Verbund nachrüste :fresse:

Falls wir uns nicht mehr lesen: Einen guten Rutsch und ein erfolgreiches Jahr 2013 wünsche ich euch! :)
 
Nicht wirklich, vielleicht hilft das: Flashing IT Firmware to the LSI SAS9211-8i HBA - brycv.com
Ich habe für so etwas eine Werkstatt mit Testplätzen die noch BIOS haben, ist einfach simpler als die EFI-Shell. Vor allen Dingen gibt es für viele Geräte auch noch gar keine EFI-Software, besonders für ältere Controller nicht, so dass man sowieso immer auf ein Mainboard mit BIOS angewiesen ist.

Einspruch. Als ich letztens mein BIOS flashen wollte (und Rufus noch nicht kannte), hat es mehrere Anläufe gebraucht, bis ich einen USB-Stick soweit hatte, dass ein DOS bootet.

Die EFI shell ist einfach da. Man muss nur seinen Stick finden mit map, und dann funktioniert cd und sas2flash.efi ganz normal und ohne Probleme.

Was den M1015 angeht: EFI > BIOS.

Edit: BIOS hat darüber hinaus noch das Potential, “ERROR: Failed to initialize PAL.” zu werfen, so dass man auf solchen Boards dann zu UEFI gezwungen wird.
 
Zuletzt bearbeitet:
Einspruch. Als ich letztens mein BIOS flashen wollte (und Rufus noch nicht kannte), hat es mehrere Anläufe gebraucht, bis ich einen USB-Stick soweit hatte, dass ein DOS bootet.

Die EFI shell ist einfach da. Man muss nur seinen Stick finden mit map, und dann funktioniert cd und sas2flash.efi ganz normal und ohne Probleme.

Was den M1015 angeht: EFI > BIOS.

Edit: BIOS hat darüber hinaus noch das Potential, “ERROR: Failed to initialize PAL.” zu werfen, so dass man auf solchen Boards dann zu UEFI gezwungen wird.

Kannst du das ein wenig erläutern?
Was meinst du mit rufus?
 
Danke, ich werde die beiden Möglichkeiten (DOS / EFI) durchführen und dann berichten, was ich als einfacher empfunden habe ;)

Hoffe ihr seid alle gut gerutscht! :)
 
Zuletzt bearbeitet:
Einspruch. Als ich letztens mein BIOS flashen wollte (und Rufus noch nicht kannte), hat es mehrere Anläufe gebraucht, bis ich einen USB-Stick soweit hatte, dass ein DOS bootet.

Die EFI shell ist einfach da. Man muss nur seinen Stick finden mit map, und dann funktioniert cd und sas2flash.efi ganz normal und ohne Probleme.

Was den M1015 angeht: EFI > BIOS.
Für mich geht es schneller und einfacher den Menüpunkt "Firmware DOS" auszuwählen und dann in den LSI-Ordner zu cden und dann das Script an zu werfen, ich habe meine eigenen Multi-Boot-USB-Sticks und -DVDs mit allen möglichen Windows- und *NIX-Images und vielen anderen kleinen Helfern wie DBAN usw.
Aber nun gut, wie dem auch sei, je nach Hintergrund und Mitteln kann das Flashen von EFI-Shell dann vielleicht genau so schnell von Hand gehen.

Edit: BIOS hat darüber hinaus noch das Potential, “ERROR: Failed to initialize PAL.” zu werfen, so dass man auf solchen Boards dann zu UEFI gezwungen wird.
Nein, dieser Fehler tritt eben genau nur bei UEFI-Mainboards in DOS auf, das ist so nicht richtig. Kurz um: Auf BIOS-Mainboards kann man nur unter DOS die Firmware flashen, auf UEFI-Mainboards nur auf der EFI-Shell.

Habe meine Bestellung der Toshiba DT01ACA300 ebenfalls nochmal angepasst und die Menge auf 7 umgestellt und dafür noch 2 x WD30EZRX (Green) Bestellt und mache dann folgende Aufteilung:
11 x WD30EZRX -> RaidZ3
06 x DT01ACA300 -> RaidZ2
06 x XXXX -> Zukünftige Aufrüstung

Wie würdest du diese Aufteilung auf die Controller bzw. Backplane verteilen?

Bezüglich Platz für Festplatten bin ich jetzt einfach mal Blond und sage, dass ich den 'Zwischenspeicher' für den Incoming-Ordner noch irgendwo im Gehäuse unterbringe, wenn ich mit weiteren 6 Festplatten einen weiteren Verbund nachrüste :fresse:
Wozu musst du den Zwischenspeicher irgendwo im Gehäuse unter bringen? Du hast 24 Slots und würdest 23 Slots verwenden, die SSD einfach in einen PCI-Einschub verfrachten. Die Austauschplatte muss nicht im Gehäuse sein, da du eh drei verschiedene RaidZ hast könntest du sie sowieso nur einem als Hotspare zu weisen.
Eine 3,5"-Festplatte noch "irgendwo im Gehäuse" unterzubringen wäre ziemliche Bastelei, wenn ich mir meinen Server gerade mal so anschaue wüsste ich auch nicht wo man da noch elegant eine Festplatte unterbringen könnte. Eine SSD kann man überall hinkleben, keine Frage, aber eine 3,5"-Festplatte? Eher nicht.

In einem Produktivserver würde ich natürlich jedem RaidZ ein Hotspare zu weisen, aber da es hier der Platz und das Budget nicht hergeben muss man halt mit kleineren Mitteln arbeiten.

Schau dir mal https://www.google.de/search?hl=de&q=zpool+alert+email an, dann bekommst du automatisch Emails bei zpool Fehlern. Regelmäßiges Scrubben nicht vergessen, ich Scrubbe ein mal im Monat. Eigentlich wäre es besser öfter zu Scrubben, aber da ich aktuell 5 Pools habe die jeweils fast 2 Tage zum Scrubben benötigen fällt wöchentliches Scrubben schon mal raus. Und weniger werden es bestimmt nicht, irgendwann ist der Fileserver ununterbrochen am Scrubben. :fresse:

Die Festplatten einfach so verteilen dass sie über möglichst viele Controller angebunden sind.
Ich schließe Controller immer "horizontal" an und verteile Festplatten "vertikal", so erreicht man eigentlich immer eine sehr gute Verteilung und hat trotzdem eine gute Übersicht.
Alternativ kann man die Festplatten auch "über Kreuz" anordnen, das kann aber sehr unübersichtlich werden.
Ich hoffe es ist verständlich was ich damit sagen möchte. ;)

Beispiel-Zeichnung Server mit 32 Einschüben:
O= Leerer Festplatten-Einschub
V = 3-Way-Mirror
W= Spares für Raidz2 und 3-Way-Mirror
X= Raidz2 8HDDs #2
Y= Raidz2 8HDDs #2
Z= SSD gemirrorter Stripe aus 4 SSDs

Das wäre ein gutes Beispiel:
SAS-Controller 1 YYXX ZOOV
SAS-Controller 2 YYXX ZWOV
SAS-Controller 3 YYXX ZWOV
SAS-Controller 4 YYXX ZOOO

Hier mal ein schlechtes Beispiel mit Bandbreiten-Engpässen und Single Point of Failure:
SAS-Controller 1 YYYY YYYY
SAS-Controller 2 XXXX XXXX
SAS-Controller 3 ZZZZ VVVW
SAS-Controller 4 WOOO OOOO
 
Zuletzt bearbeitet:
Ich ziehe jetzt einfach mal den HW Teil aus dem ZFS Stammtisch hier rein, um ein Abschweifen im Stammtisch zu vermeiden:
Das Thema Überspannung und DVB ist natürlich wichtig, dass hatte ich bei deinem Thread völlig vergessen zu erwähnen.
Allerdings sollte man dann wie schon gesagt auch auf jeden Fall eine USV haben, ansonsten ist das recht inkonsequent. Optimierungen der Stromversorgung wären auch nett, aber dazu ist in der Regel ein wesentlich höheres Budget erforderlich, mit der Geräte-Trennung via LWL und einer hochwertigen USV sollten Überspannungsschäden wirklich sehr sehr unwahrscheinlich werden, das ist quasi der "Einstieg".
Ich habe zu Hause eine 19" APC USV und meine DVB-Karte in einem HTPC. Die Netzwerkabel am Server hängen in einer Überspannungsschutz-Steckerleiste von APC, da verliert man etwas Signalqualität, aber die 5% gehen in Ordnung. Gab dazu auch in einer der letzten c'ts ein Review zu.
Was würdest du für eine USV bei meinem Setup vorschlagen?
Bei meinem Server wären es ja ~500VA ... sprich für zukünftige Addons würd ich jetzt mal auf eine 1000VA Anlage schielen:
PowerWalker VI 1000RT LCD Rack, USB/seriell

Bezüglich der c't: hast du die Ausgabe (Nr.) zufälligerweise im Kopf? ansonsten stöber ich morgen mal im Archiv.

Edith: Für das APC ProtectNet gibts ja auch ein Modul für Coax, dass müsste doch auch was für die TV-Karten sein?! (http://www.apc.com/products/family/index.cfm?id=145)
Des weiteren habe ich an meinem LNB bereits solch billig Adapter von HAMA, die den Lasspitzen ein wenig die schärfe nehmen sollten: http://www.hifi-regler.de/shop/hama...l_tv.php?SID=0c5ce8ccd5b07e109d9941ded4c6afd4

LG

---------- Post added at 02:42 ---------- Previous post was at 02:41 ----------

C0dR hat in http://www.hardwareluxx.de/communit...h-mehrerer-tv-karten-930297.html#post19974952 berichtet dass sich die Quad-DVB-Karte problemfrei durch reichen lässt.
Danke, hab ich gelesen. Im Falle eines Scheiterns meiner Karte, werde ich entweder die verlinkte oder eine Digital Devices mit Octopus holen :)
 
Zuletzt bearbeitet:
Bei deiner Hardware (Bei 24 Festplatten 400W maximaler Verbrauch unter absoluter Volllast die du sowieso nie erreichst) ist eine 500VA etwas zu wenig, da sollte es eine 750VA sein.
Ich persönlich setze nur auf APC, einfach weil es der meist vertretene Hersteller in europäischen Rechenzentren ist und das Produktportfolio sehr umfangreich ist und man vieles aus einer Hand kaufen kann, kleinere Unternehmen sowie große Rechenzentren können mit einem Hersteller abdeckt werden. Andere Hersteller sind auch nicht schlecht, aber andere Installation als APC treffe ich eher selten an. In den USA ist das sicherlich anders.
Siehe: https://geizhals.at/de/?cat=gehups&xf=1494_APC~1496_750~1510_Rackmount~1498_VI#xf_top
Eine VI-USV (Line Interactive) ist für zu Hause ausreichend und ist recht effizient, liegt je nach Modell und Last zwischen 95 und 98%. Eine VFI-USV (Online) wäre natürlich besser, kostet aber wesentlich mehr in der Anschaffung und arbeitet wesentlich ineffizienter, je nach Modell und Last nur 85-90%. Meiner Meinung nach unnötig. Wenn VFI-USV dann muss auch ein physikalisch getrenntes Backup her, ansonsten ist das recht inkonsequent.

Siehe:
USV-Technologien
USV-Rechner
https://de.wikipedia.org/wiki/Unter...requency_Independent_bzw._Online_UPS.2FUSV.29

Das mit dem c't Artikel habe ich gerade mit Desktop-USVs verwechselt, Test in c't 23/2012, da wurde auch der Signalverlust des Überspannungsschutzen für RJ45 mit getestet.
http://www.heise.de/artikel-archiv/ct/2012/23/116_kiosk

Irgendwo hatte ich auch mal einen Test zum Signalverlust von reinen Überspannungschutz-Produkten für RJ45 gelesen, ich kann mich aber gerade nicht erinnern wo.
Zwei solche ähnlichen habe ich: APC ProtectNet Gigabit (PNET1GB).
Meine sind etwas älter und sehen anders aus, die habe ich irgendwann mal beim Abbau eines Racks mit gehen lassen. :fresse:
http://www.apc.com/products/family/index.cfm?id=145

Aber wie schon gesagt, es geht etwas Signalqualität dabei verloren, erwarte also nicht mehr als 950mbit. ;)

Da fällt mir gerade ein dass ich meinem DSL-Router und PC auch eine Desktop-USV spendieren wollte damit ich beim nächsten kurzen Stromausfall nicht wieder mitten in competitive Match raus fliege. :fresse:
 
Zuletzt bearbeitet:
Tschuldigung wenn ich hier reinplatze, aber die Frage könnte auch dem TE helfen:
Welche von den kleinen APCs haben denn keine Lüfter mehr drinnen?
Ich hab sonst immer diese APC Steckdosenleistendinger (APC Back-UPS ES 700VA) genommen für meine kleinen Server im Wohnzimmer, die haben keine Lüfter, aber jetzt erschreckt festgestellt, dass die neuen Modelle keine Steuerung mehr haben, also den Server nicht mehr herunterfahren können.
 
selbst bei meiner 1400er war zwar ein Lüfter drin, der ging jedoch nur an wenn die USV wirklich übernehmen musste.
Sonst war die absolut still.
 
Bezüglich USV werde ich von einem Auftraggeber eine gebrauchte APC 1500VA Rackmount bekommen, genaue Details zu dem Gerät hab ich noch nicht, aber ein neues Akkupack ist wohl noch nicht notwendig bzw. wurde dieses vor knapp 6 Monaten das letzte mal getauscht :)

Habe jetzt nochmal ne Frage zu der von mir bestellten Hardware, und zwar ist heute das Mainboard eingetroffen ... Naja, was soll ich sagen, ich empfinde die Verpackung als Fragwürdig - Sie macht auf mich den Eindruck, als handelt es sich hier um ein gebrauchtes / einen Rückläufer, bei dem schlichtweg kein original Karton mehr vorhanden war:
IMG_20130104_150241.jpg
IMG_20130104_150306.jpg

Ist das normal? Es ist mein erstes Supermicro, desshalb frage ich so blöd ...
 
Ich kaufe immer Retail, ist bei meinem Händler nicht wirklich teurer und man hat einen schönen Karton der sich später beim Verkauf ganz gut macht. Bulk-Ware sieht oft so aus da sich meistens der Händler/Distri um die Verpackung kümmern muss denn die Boards kommen getrennt vom Zubehör in einem großen Karton ohne spezielle Verpackung für den Einzelversand.
 
Zuletzt bearbeitet:
So, heute sind die drei ServeRAID M1505 angekommen und ich habe sie erfolgreich geflasht, allerdings hab ich es über die EFI-Shell nicht hinbekommen, haupsächlich aus dem Grund, dass mir das löschen der IBM FW nicht gelingen wollte und die sas2flash.efi natürlich die 'fehlende' Karte bemängelte ... Also habe ich ein altes Mainboard rausgekramt, mir eine CPU organisiert und via BIOS / DOS geflashed - simpel! :banana:

Wenn alles gut geht, dann gibt's morgen noch die fehlende CPU, Kühler, und den Arbeitsspeicher :sleep: und ich kann endlich mit dem Aufsetzen des Systems beginnen :)
 
So, komplette Hardware ist da! :banana:

Aber leider gibts ein Problem mit den Speicherbänken: Wenn ich DIMM1B / -2B mit den Riegeln bestücke, meldet das Board Speicherfehler / Speicher nicht gefunden (5 x kurzes und 1 x langes Piepen).
Der Speicher selber ist aber i.O. - Habe alle Riegel auf den DIMM1A / -2A getestet und dort wurden sie als O.K. angenommen ... Muss man noch irgendwas im Bios einstellen, oder ist das Board im Sack?! Mich wundert halt, dass beide B-Bänke scheinbar nicht wollen ...

Habe alle möglichen Kombinationen der Bestückung durch! Die Fehlermeldung kommt immer wenn ich einen Riegel auf einem der beiden B-Bänke stecke :heul:
 
Handbuch lesen? 2A und 2B zuerst bestücken.
 
Jaja, verzeih mir die Panik.
Hab es grade selbst raus gefunden :rolleyes:


Edith: Ändert aber nix an der Tatsache, dass die beiden B-Bänke nicht funktionieren ...

Edith die Zweite: *Puh* ist mir beim Einbau der CPU tatsächlich ein Pin verbogen :heul: - Fix wieder gerade gebogen und die 4 Speicherbänke lassen sich normal bestücken und alles läuft smooth :banana:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh