Dell PowerEdge T20 ft. Dell PERC H730 - aufgebohrt und zugenietet

interrobangd

Experte
Thread Starter
Mitglied seit
05.03.2015
Beiträge
14
Dell PowerEdge T20 ft. Dell PERC H730
...aufgebohrt und zugenietet.



Hallo,

ich habe mir ein NAS gebaut und will euch das mal zeigen :)
Aber der reihe nach.

Im Sep. 2014 war der Dell Poweredge T20 für günstige 269,00€ zu haben... daran erinnert sich vielleicht der ein oder andere, denn es haben schätzungsweise rund 700 käufer genau wie ich zugeschlagen (Anzahl verkaufter T20 auf ebay durch Alternate wenn ich mich richtig erinnere).
Passend dazu ist hier der Thread denn ich damal aufmerksam verfolgt habe, danke dafür: http://www.hardwareluxx.de/community/f101/dell-poweredge-t20-1031138.html

Vielleicht denkt der ein oder andere auch mal darüber nach lieber selber ein NAS zu bauen als eine Synology DiskStation zu kaufen- was ich zuerst auch machen wollte, eine DS1815+ kaufen. Schließlich sehen die dinger ja ganz gut aus oder? :love:
Kostet aber auch stolze 800€ oderso.
Ganz ehrlich: das ist zu teuer. Viel zu Teuer für das das bisschen Leistung in dem Plastikschuppen mit FTP server und irgendwelchen Murks den ich soweiso nicht brauche.:heuldoch:
Ein kleiner Server ist im gegensatz dazu so flexibel, das ich ihn neben der NAS-Funktion gleich noch als Mediacenter mit allem schnickschnack wie 4K und 3D (Multi Packaging) unterstützung benutzen kann.

Ich werde das Gehäuse vom T20 also einfach umbauen so dass wie im DS1815+ ganze acht HDDs platzfinden können. Dazu bedarf es aber noch vier weiterer SATA Ports, denn der T20 hat nur vier Ports. Anfangs wollte ich für die weiteren vier Ports einfach eine kleine PCI-E Erweiterungskarte kaufen. Da ich aber so oder so ein RAID 5 haben will bin ich dann aber doch bei der Idee hängen geblieben, ein dedizierten RAID Controller zu kaufen- auch wenn aus Konsumentensicht einiges wie der Preis dagegenspricht, da man ja auch ein Software RAID erstellen kann. Letztlich bin ich sogar mit extra RAID-Controller immernoch günstiger als mit dem DS1815+; denn ich habe mich für den brandneuen Dell PERC H730 entschieden (Hergestellt nach meiner Bestellung!!) und für günstige 280€ gekauft. Meine beobachtung dabei: Aktuelle RAID Controller sind viel günstiger als ältere Modelle. Also am besten immer in die aktuelle Produktliste vom Hersteller gucken anstatt bei eBay oder Amazon nach ein günstigen Controller ausschau zu halten. Sollte meiner mal kaput gehen, dann wird ein neuer gekauft, evtl. ein aktuelles Modell und das VD (virtual device) vom alten migriert.

Dell PERC H730 *unboxing*!
Wie man sieht habe ich dem Controller noch ein Lüfter verpasst. Normalerweise steckt der in Servern oberhalb von 4,5K$ und wird stark durchlüftet. So hat der ROC (Raid On Chip, Prozessor) im Betrieb ohne Lüftung problemlos 50°C erreicht. Ob nun Idle oder nicht, das ändert wenig, vielleicht 5°C+/-. Mit Lüfter hat er nur noch 38°C.
Das wirkt sich natürlich auch auf den Stromverbauch aus. Der Controller zieht irgendwas um die 15 und 25 Watt.




Verglichen mit dem Angbot von Dell/Alternate kann das Fertig NAS von Synology also rein Leistungstechnisch nicht mehr mithalten. Der Diff wäre gewaltig. Dem Xeon E3-1225 v3 (4x 3,2Ghz) und PERC H730 (LSI SAS 3108 = PowerPC 476, dual-core) stünde ein kleiner Intel Atom C2538 gegenüber haha. Gut, die Leistung mag nicht jeder abrufen wollen oder gar brauchen. Aber wenn ich für weniger Geld so viel mehr leistung bekomme und so viel flexibler bin... warum nicht!

Der Plan ist, die alten Festplattenaufnahmen zu entfernen und durch neue zu ersetzen, so dass acht neue Aufnahmen entstehen können- und zwar allesamt quer, so wie die unteren im Originalzusammenbau. So Können alle Laufwerke zur Seite rausgezogen werden wenn es mal sein sollte.
Das sieht erstmal besser aus und die Notwendigkeit eines CD/DVD/BluRay -Laufwerk habe ich nicht. Die passenden Aufnahmen (Käfige) habe ich bei einem Händler in England über eBay kaufen können und stammen aus mehreren ausgeschlachteteten Dell Precision. Einfach mal "Dell HDD Cage / Caddy" suchen oderso. Ein Käfig hat ca. 5-7€ gekostet- ohne diese blauen Einschübe. Die musste ich natülich auch noch finden (die passenden wohlbemerkt, gibt nämlich unterschiedliche Modelle). Ich glaube 3-5€ oderso hat einer gekostet- was auch nicht einfach war, denn Ersatzteile werden mitunter sehr teuer gehandelt. Ist nun schon ein Jahr her als ich das gekauft habe.

Originalzustand: So kennen ihn sicher viele; bis auf den controller, denn der steckt schon drin. Die mitgelieferte, 1TB große Festplatte habe ich verkauft. Also ist der server nochmal günstiger geworden, glaube 40€ waren das.




Die neuen HDD Käfige mussten jedoch noch angepasst werden damit sie Stapelbar werden. So ließen sie sich dann nach einigen löcherbohren zusammenschrauben.




Es geht also los.
Erstmal muss alles ab und raus was ab- und rausnehmbar ist (Frontverkleidung, Netzteil, Mainboard, ...).




Speaker! Wenn das mainboard also schonmal draußen ist, gleich zum 100Watt Lötkolben gegriffen, das Miststück entfernt und durch Pins ersetzt (Ja tatsächlich, ein 25Watt Lötkolben tut es nicht).
Wenn Intel AMT im Standby bzw. der PC aus ist gibt es indifferenzen auf dem Board die im Speaker höhbar werden. In meiner Wohnung definitiv hörbar, richtig nervig wenn es ruhig ist.




Dann wird jede Niete aufgebohrt die nötig ist um die alten Festplattenkäfige rausnehmen zu können. Da sie Teil der Gehäusekonstruktion sind, muss also das ganze Gehäuse zerlegt werden.
Em Ende sind nur noch drei große Teile übrig: Die Mainboardaufnahme mit Rückseite, das Frontpanel und das schwarze Gehäuse. Dieses hält Mainboardaufnahme und Frontpanel zusammen.




...Die original Festplattenaufnahmen/Käfige sind bis heute übring geblieben. Sammt blauer Caddys- Liegen bei mir rum, wer sie brauchen kann bitte melden.




Jetzt ist genug Platz im Gehäuse für neue Festplattenkäfige.
Also kann es erstmal wieder zusammengenietet werden (auch um weiter planen zu können wie die Käfige dann befestigt werden können).




Dank ein paar Winkelleisten aus Aluminum vom Baumarkt um die Ecke (sehr leicht zu verarbeiten) kann dem Käfig zwecks Halterung Kopf und Fuß gebastelt weren. Mit diesem lässt sich der Käfig anschließend im Gehäuse fixieren und fest vernieten.



Ärgerlich aber notwendig: Bevor die HDD Käfige montiert werden können, müssen die USB kabel vom Front-USB-Panel verlängert werden. Denn diese sind zu kurz und müssen einmal bis runter in die Ecke und von dort aus zum Mainboard statt quer durch das Gehäuse. Dafür gibt es allerdings keine Verlängerung zu kaufen - also selber machen (USB 3.0 Header-Kabel gekauft, 30 cm lang, Stecker ab los gehts)!
Das ist echt frickelig, weil diese Drähte zum einen sehr dünn und zum anderen jeweils separat und paarweise mit Aluminiumfolie isoliert sind. Aber das ist noch nicht so schlimm. Die Schirmung wieder aufrecht zu bringen, ohne anfangs zu wissen wie sie funktioniert, hat mir den meisten streß gemacht. Aber gut, problem erkannt und gelößt.




Front-USB und Audio sind nun lang genug, funktionieren wieder und es ist immernoch genug Platz für die Käfige.




Hochzeit! Jetzt muss das alles nur noch zusammengebracht werden.
Die Käfige erhalten zusätzlich zwei Winkelleisten an denen Entkoppler aus Gummi angebracht sind. Diese nehmen dann drei, nebeneinanderliegende 92mm Lüfter auf.
Das NAS wird so wie bei Hochleistungsservern von vorne nach hinten durchgelüftetet, somit werden dann auch die Laufwerke gleichmäßg gekühlt ("Lüften" im wahrsten sinne, bei Servern ist das ein Sturm... dementsprechend laut natürlich).




Der PowerEdge verfügt normalerweise nur über einen CPU und einen Gehäuselüfter. Jetzt sind aber weitere vier Lüfter hinzugekommen die versorgt und gesteuert werden sollen. Einmal am RAID Controller und drei für die Festplatten. Man könnte Sie in Reihe schalten aber es kann nur einer vom Mainboard auf Funktion überwacht werden! Hinzukommt, dass die Lüftersteuerung an den Original Dell Lüfter angepasst ist.
D.h. man kann idr. nicht irgendein Lüfter nehmen, schon gar nicht weil man den Stecker erstman umbauen muss. Die Steuerung verlangt eine Mindestdrehzahl von 1200rpm und eine Maximaldrehzahl von 2600rpm. wird ein Lüfter verwendet der wie meine nur 1600rpm erreicht, wird der Server zwar laufen aber die Steuerung den PWM Duty Cycle auf 100% setzen (fail safe mode). Desweiteren bestünde der Server nicht sein eigenes Testprogamm- was man aber selber starten müsste.
Um beide Fliegen mit einer Klappe zu schlagen habe ich ein kleines STM32F103 Entwicklerboard programmiert welches folgende Aufgaben hat:
- Anlernmodus: die Drehzahlwerte des Originallüfters Lernen und speichern
- Dem Mainboard vorgauckeln das der Originallüfter angeschlossen ist in dem der IC die Drehzahl zurückliefert die das Mainboard für eine korrekte Funktion erwartet.
- Vier weitere Lüfter ansteuern und auf Fehlfunktion überwachen
- Im Fall einer Fehlfunktion (irgendein Lüfter dreh nicht mehr) stoppt der IC die gefakte Drehzahlrückgabe (oder den virtuellen Lüfter, kann man nenen wie man will) an das Mainboard. Dieses wird nun beim nächsten Systemstat melden: "Alert - Previous fan failure." Währenddessen wird dessen Lüftersteuerrung in den "fail safe mode" wechseln.
- Das PWM Signal vom Mainboard an alle angeschlossenen Lüfter weitergeben
- Dem Gehäuselüfter an der Rückseite das PWM Signal vom Mainboard zzgl. 33% Duty Cyle statt des Originalsignals senden, denn er soll schneller drehen als die anderen da er mehr Luft wegschaufeln muss.
Kleine Randnotiz für Profis: Die Arctic Cooling lüfter die ich verwende halten sich nicht an den Intel Standard von 2005 und haben zecks Tachosignal ein pull up widerstand auf 12V gelegt. Das kann man natürlich ohne Spannungsteiler dem IC nicht antun.
Sollte ich jemals andere, Standardkonforme Lüfter benutzen, brauche ich nur den blauen Jumper vom Board ziehen und der Tachopin vom Lüfter liegt direkt ohne Spannungsteiler am IC an.
Das ganze hat mich viel gekostet und wäre ohne Oszilloskope mit meinem Kenntnisstand nicht machbar gewesen.



Festplatten!!! Endlich, mein Lieblingsthema wo ich doch schon so viele habe, dass meine Wohnung nicht von Pflanzen sondern von Festplatten geschmückt wird.
Natürlich darf man hier nur passende, für NAS Systeme hergestellte Festplatten wie die der Western Digital RED Serie verwenden. Analog dazu die PURPLE Serie nur für Überwachungssysteme und die BLUE Serie nur für Desktop Systeme. Ja und die GREEN Serie... für die Wiese. Für unterwegs. :stupid:
Achso stimmt ja, die Green Serie wird doch eingestampft, wegen des schlechten Rufs, den hohen Load Cycle Count. Die wird jetzt laut WD Stellungnahme in der BLUE Serie untergehen. Jetzt aber mit mit einem Timer von nun großzügigen acht statt drei Sekunden. Herzlichen Glückwunsch Western Digital!
Um es Kurz zu machen: Ich habe über das Jahr hinweg drei-vier mal Festplatten gekauft und zwar die "Western Digital 6TB My Book" (externe Festplatte). Aus kostengründen. Diese enthielt anfang des Jahres noch Laufwerke der GREEN Serie, jetzt die BLUE. Ein 6TB Laufwerk hat mich so im Schnitt 199,07€ gekostet- ein guter Preis finde ich.
Bei beiden Typen habe ich den Timer komplett deaktiviert, der Kopf bleibt also solange über der Platte wie der Server eingeschaltet ist. Der Server wird in übringen nicht 24/7 laufen, sondern nur wenn ich ihn brauche (SMB, UPNP Streaming, runterladen, MediaCenter, Blu Ray gucken (ohne Disk Laufwerk),...)

Passende SAS/SATA Kabel sowie Stromkabel musste ich mir natürlich auch noch zulegen. Man hat ja schließlich selten SFF-8643 zu SATA Adapterkabel rumliegen und dem controller sind sie natürlich auch nicht beigelegt.
Ich habe mich für Kabel mit abgewinkelten SATA Stecker entschieden. Anders hätte der Deckel vom Gehäuse nicht mehr drauf gepasst. Diese sind von Adaptec und haben zusammen um die 30€ gekostet. Auch wunderbar, dass die Kabel so schön dünn sind! denn wären sie das nicht, hätte ich ein Problem mit dem verlegen gehabt.




Ahja, eine kleine Erweiterung auf 8GB RAM war nötig. Aber auch das hält sich bei derzeitigen Preisen in Grenzen. Natürlich auch Hynix ECC, genau wie der Riegel der schon von Hause aus drin ist.
Ich habe bestimmt auch noch das ein oder andere Vergessen. Vielleicht noch was zum Stromverbrauch?

Leerlauf: Max. 40 Watt (PERC schaltet Laufwerke nach 30min. aus)
Leerlauf mit Aktiven Platten: 80 Watt.
Spitze beim einschalten: rund 160 Watt.
Beim mäßigen arbeiten um rund 110 Watt.

Das OS ist auf der am boden angeklebten Samsung Pro SSD installiert (256 GiB).
Das VD hat eine GPT Partition die in XFS formatiert ist.
Es Läuft Fedora und Windows 10.
Geplant ist, dass Fedora mittels Xen Windows 10 Virtualisiert. Intel IGD Passthrough funktioniert zwar gut mit kleinen Einschränkungen, aber scheitert leider an 3D, da der Hypervisor nicht auf einige 3D Register des IGD zugreifen kann. Schwarzer Bildschirm in dem Moment!
Also muss der Spieß anderdrum gedreht werden: Windows virtualisiert Fedora! Dann ist kein IGD Passthrough mehr nötig und unter Windows ist auch kein PCI Passthrough möglich, aber man kann Physische Festplattenlaufwerke an VMs weitergeben. Geht in meinem Fall ganz gut, weil ich das VD nur als Datengrab und nicht für das OS benutze.
Aber mit Fedora 24 wird das vielleicht was, denn QEMU kann in der aktuellen Version angeblich IGD Passthrough. Da ich nicht patchen will, warte ich. Bin gespannt!

Seq. Schreiben:
Eine Blu Ray von der SSD auf das VD kopieren: 480MB/s :cool:
Dazu muss man vielleicht wissen: Stripe größe sind 512kB, eben weil ich den Speicher fast ausschließlich zum ablegen von Blu Ray und DVD Images benötige.

Wichtigste Info zum Schluss:
Nettokapazität: 38,2TB

PS: Passt auf den blauen USB-Front-Panel Stecker am Mainboard auf! Dieser hat ein Metalklipp der sich leicht lösen kann und in meinem Fall, da der PC auf dem Tisch lag, auf das Mainboard gefallen ist (ein hochfrequentes Pfeifen, ein "Puff" und die Kurzschlussabschaltung folgte promt).
Es ist bereits mein zweites Mainboard welches mir Dell glücklicherweise und sehr sehr Schnell gewechselt hat (richtig, Dell, nicht ich!)

Danke fürs Lesen,
Fragen? Irgendwelche Spitzen oder Tipps?

UPDATE: Auf Nachfrage hin hab ich den code für den STM32 auf GitHub veröffentlicht:
https://github.com/sh3bang/dell_t20_fancontrol
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die frage stell ich mir gar nicht mehr, weil es geht? weil ich endlich nicht mehr überlegen brauch ob ich den scheiß film nun lösche oder nicht? man weis es nicht genau...
PS: Eh, so schnell kannst Du das gar nicht gelesen haben.
 
Können schon - aber die Bilder sind auch schon schön (und den Text habe ich leider wirklich nur überflogen). Da du das Gehäuse allerdings komplett entkernt hast, hättest du auch gleich ein eigenes bauen können! Die Speichermenge ist eher ... – Festplatten halt, da ist der Lüfterkontroller schon interessanter ;).
 
Dolles Ding ;)
Wäre ich nicht so faul, würde ich das meinem T20 gleich auch antun...

Ein Gedanke zu deinem RAID:
Die Entscheidung Softraid/Hardware-RAID ist heute nicht mehr so klar wie früher: Softraid kann wesentliche Vorteile in punkto Flexibilität bieten, und ist durch moderne CPUs auch in der Leistung keineswegs schlecht.
Und RAID 5 ist für deine Gesamtkapazität nicht ausreichend. Wenn die Daten auch während eines Rebuild halbwegs sicher gelagert sein sollen, würde ich mindestens ein RAID 6 nutzen, oder gleich Softraid, wie z.B. RAIDZ-2/RAID-Z3 unter ZFS, was zusätzlich auch noch Checksums bietet. Auch hat das Softraid den Vorteil, dass man im Falle eines Defekts nicht auf das Vorhandensein eines identischen Controllers angewiesen ist.
 
Zuletzt bearbeitet:
Dolles Ding ;)
Wäre ich nicht so faul, würde ich das meinem T20 gleich auch antun...

Ein Gedanke zu deinem RAID:
Die Entscheidung Softraid/Hardware-RAID ist heute nicht mehr so klar wie früher: Softraid kann wesentliche Vorteile in punkto Flexibilität bieten, und ist durch moderne CPUs auch in der Leistung keineswegs schlecht.
Und RAID 5 ist für deine Gesamtkapazität nicht ausreichend. Wenn die Daten auch während eines Rebuild halbwegs sicher gelagert sein sollen, würde ich mindestens ein RAID 6 nutzen, oder gleich Softraid, wie z.B. RAIDZ-2/RAID-Z3 unter ZFS, was zusätzlich auch noch Checksums bietet. Auch hat das Softraid den Vorteil, dass man im Falle eines Defekts nicht auf das Vorhandensein eines identischen Controllers angewiesen ist.

die frage bleibt also wie ich mir schon dachte nicht aus und ist ja auch spannend. also:

1.
wie schon geschrieben habe ich die platten nicht auf einen schlag sondern über das jahr hinweg gekauft- d.h. ich musste das VD jeweils vergrößern. Der letzte schwung, drei mal 6tb festplatten zu migrieren hat ganze 9,5 Tage gedauert. Währenddessen habe ich mein OS neuinstalliert und rumexperiementiert. DAS geht mit dem softwarraid nicht - zwischen linux und windows hin und her springen, andere distr. ausprobieren während der raid controller völlig autonom sein ding tut :)

2.
ich kenne noch kein sysadmin der auf separate controller verzichtet. zumal es denen die ich kenne egal ist ob der server nun 300€ mehr oder weniger kostet wenn denn die leistung stimmt. Zuverlässigkeit ist alles im Geschäft. Und zuviel zeit bei der administration darf es auch nicht kosten. Der controller ist fix eingesteckt und läuft. Nebenbei: Wenn das was über die laufwerke geht auch nochmal durch die cpu muss, wo man gerade heute so viel auf virtualisierung aufbaut und idr. mehr VMs als kerne hat, dann kann es unter umständen sehr schnell zu eng werden für die prozesse. Nicht vorstellbar beim rebuild (also für mich).

3.
es ist ein mythos den gleichen controller kaufen müssen. Und in der Geschäftswelt 1. kein problem weil der produktzyklus ein anderer ist als zu hause und 2. hardware häufig für ein zeitraum von ein paar wenigen jahren geleast wird. Ein controller kein zweites mal zu bekommen ist sehr unwarscheinlich. Das Beispiel fehlt mir noch und kann ich mir nur bei mir zuhause vorstellen, wenn der controller 9 jahre lang durchzieht und dann plötzlich kaputt geht. Hier im forum ließt man immer viel vom PERC i6 und co. Mein Gott, das mal altes Zeug. Da würde ich auch lieber ein softwareraid nehmen^^

4. ich habe schon meinem VD eine platte entnommen und neu reingesteckt, hat glaube ich 1,5 tage gedauert, könnte ich auch wiederholen um sicher zu gehen. Allerdings damals mit nur 5 platten glaube ich. hat lange gedauert. Aber die Zeit die er sich dafür nehmen kann um laufende prozesse nicht zu stören kann eingestellt werden. Werksseitig sind 30% eingestellt.

Sicher ich gebe zu, für zuhause und für weniger verspielte mag ein softwareraid reichen.
 
hättste mal lieber in gescheite Platten investiert und dich weniger "verspielt" :motz:

cu

hätte? Warum gescheite Platten? was stimmt den mit denen nicht?
Ich habe mit dem Laufwerk bisher keine Probleme. Drehzahl, Stromverbrauch, Zugriffszeiten und Übertragungsraten sind mehr als ausreichend.
Und zwecks Langlebigkeit habe ich das Laufwerk wie beschrieben umkonfiguriert.
Der Server liegt in meiner Fernsehbank und ist ehr wie ein PC im Einsatz, läuft wenn ich ihn brauche. Ich denke die Platten halten lange genug falls Du vielelleicht das kritisierst.

Oder meinst Du ich sollte lieber wie heute bei Servern üblich zwecks IOPS auf 2,5" SAS HDDs mit relativ geringer Kapazität (300-600GB) und 10.000rpm setzen? Sry, unnötig und teuer.
 
Zuletzt bearbeitet:
Also ob Soft oder HW-RAID und RAID5 vs. x sind ja zwei verschiedene Punkte.

Das mit dem RAID5 ist schnell abgehakt: Jede Festplatte ist ständigem Datenverlust unterlegen, den man ja in Form MTBR angegeben bekommt. Dementsprechend kannst du dir ausrechnen, wie viele Daten in MByte du beim Ausfall einer Festplatte mit statistischer Sicherheit verlieren wirst, dadurch dass sie auf dem degraded-Array nicht mehr bitfehlerfrei vorhanden sind. Falls während des Rebuild nur eine weitere HD ausfällt, dann ist das ein Totalverlust - und die Wahrscheinlichkeit ist bei ca. 30Stunden Höchstbelastung am Stück nicht gerade niedrig.
Und davon ausgehend, dass bei Totalausfall einer weiteren Festplatte während des Rebuild selbst bei doppelter Redundanz nur noch eine einzige Kopie der Daten existiert, dann beinhaltet diese auch mit fast 100% Wahrscheinlichkeit schon einige Bitfehler und beschädigte Dateien, was sogar eine dreifache Redundanz angebracht erscheinen lässt, wobei XFS da durch seine Prüfsummern eventuell Schlimmeres verhindern könnte.

Was die HW-Controller angeht halte ich es eher für ein Gerücht, dass dieser durch einen Beliebigen ersetzbar sei (wie es bei Softraid der Fall ist). Und es ging bei der Gegenüberstellung ja nicht um den Preis, denn einen zusätzlichen IT-Mode-Adapter, der kaum weniger kostet, braucht man beim Betrieb von ZFS an vielen Festplatten ja ebenso. Ich bin nach vielen Jahren (seit dem Amiga!) mit den diversen LSIs auf ZFS umgestiegen, weil ich es einerseits nach vergleichen aller Optionen für wesentlich sicherer hielt, diesem meine Daten anzuvertrauen und anderseits auch etwas enttäuscht war, über die stets äusserst begrenzte Maximalfestplattengröße die durch den Controller erlaubt wurde, was häufiges Ersetzen der Controller durch Nachfolgemodelle erzwungen hat (und eine Migration am selben Controller häufig ausschließt). In Verbindung mit Softraid nur an billig zu denken ist falsch. Ein ZFS mit seinem immensen Bedarf an ECC-RAM (und für hohen RAM-Ausbau geeigneter Boards) macht es sogar recht kostspielig. Wenn man ZFS einsetzt macht man das aus Überzeugung, nicht aus Sparsamkeit. Z.B. das ZFS eben nur tatsächlich vorhandene Daten resilvern muss, und nicht die gesamte Kapazität des Arrays, ist ein Riesenvorteil, der die Zeit des Rebuilds (und somit auch die Ausfallwahrscheinlichkeit einer weiteren Festplatte) in den meisten Fällen deutlich verkürzt- Zwar kannst du dein OS nicht währenddessen einfach neustarten, aber immerhin kann das RAID dennoch online sein und der Fall eines OS-Neustarts auf einem Server dürfte wohl doch eher selten sein, und wenn man ihn denn rebootet, dann kann er in beiden Fällen, also bei HW-RAID wie auch beim SoftwareRAID seine Dienste so oder so nicht währenddessen anbieten, was die Verfügbarkeit des RAIDs während des Reboots doch wenig nützlich erscheinen lässt. Die durch Kombination von RAID und Filesystem entstehende Symbiose bietet weitere Vorteile in Bezug auf Datenintegrität, die anders nicht zu erreichen sind, z.B. dass die Checksums im Zweifelsfalle den Rebuild unterstützen können, was bei unabhängigen Komponentenso nicht funktioniert.
 
Zuletzt bearbeitet:
Soviel also zur Theorie und dem drohenden Datenverlust. Demnach müsste schon nach zweimaligen auslesen einer 6TB Platte mind. ein Bit gekippt sein. Ist bisher nicht vorgekommen, zumindest nicht das ich wüsste.
Der Controller wird sicher genug Strategien im Umgang mit Lesefehlern kennen. Ein Fehler kann ja auch bei der übertragung passieren, muss ja nicht zwangsweise die Platte sein. Wäre schlimm wenn es keine verfahren zur Korrektur gäbe. ZFS ist sicher toll - aber Ich vertraue dem Controller einfach mal.
Bzgl. Migration VD anderer Modelle: steht im Handbuch.
achso, und Speicherbegrenzung gibts auch nicht.
 
Zuletzt bearbeitet:
Klar weisst du von fehlerhaften Daten nichts, bis du genau diese verwenden möchtest. Und diesen schleichenden Verfall kann ein reines RAID nur unter Einsatz von mehrfacher Redundanz relativ sicher vermeiden.
Was die Speicherbegrenzung angeht, gilt das nur solange bis es eben doch Datenträger gibt, die das bisher vom Hersteller erwartete übertreffen, wie es halt schon immer war. Ich habe noch keinen Controller gesehen, der technisch befähigt wäre "unendlich" große Datenträger zu verwalten.
 
Backup, so oder so, bleibt regel nummer Eins!
Das letzte mal als ich ein Datencrash hatte, hat mir Linux eine NTFS Partition beim Absturz zerschossen. Dagegen ist kein Kraut gewachsen. In dem Fall nichtmal eine Backup MFT.

Aber noch nie ist mir aufgrund vom Festplattendefekt was verloren gegangen ohne das ich es nicht rechtzeitig bemerkt hätte.
Ganz nebenbei: Die Anzahl der Blöcke ist mind. achtstellig oder mehr, muss mal nachgucken. Defekte Sektoren gibt es gerade mal (und zwar von anfang an) Acht! Der Kontroller führt Buch darüber ;-)
Das zeigt doch ganz gut wie es um die Quallität heutiger Laufwerke gestellt ist. Theorie und Praxis halt :-)

Ein Laufwerk zum sicherstellen der Paritäten muss mir reichen. Fehlerhafte Blöcke z.b., diese z.b. auszuklammern, darum kümmert sich das laufwerk selbst und/oder der Controller tut es (z.b. patrol read).
Das Dateisystem XFS hat auch möglichkeiten zum Konsistenzcheck. Also ich bekomme ganz sicher mit wenn wo was kaputt ist. Und wenn es nur eine Datei ist, ist das auch nicht weiter schlimm bei der Menge an Daten.

Was die Speicherkapazität angeht: Der Controller erhält Softwareupdates und hat ein top PowerPC drauf. Ich glaube das reicht für die nächsten Jahre auch aus.
Also jedenfalls hat der PERC null probleme mit mein 6TB großen Platten. Von "unendlichkeit" war auch nicht die Rede, sondern nur davon, das es derzeit keine Grenze gibt.

Ich bin mir sicher das beide Systeme ihre Vorteile haben. Aber für mich war das wichtigeste, dass ich bei einem Defekt eine Chance habe. Und die habe ich garantiert. Das ist mir der Aufand wert.
 
Immer dieser ZFS vs. Raid Controller "Krieg". Es geht hier um einen Homeserver, auf dem laut Threadersteller hauptsächlich Filme liegen. Klar kann man hier riesen Geschütze auffahren und sich gegen alles absichern, aber macht das Sinn für ein paar Bluerays?
Viele Nutzer wollen Windows einsetzen und haben wenig bis keinen Bezug zu ZFS/XFS whatever. Klar kann man hier VMs einsetzen (Freenas/Windows) aber auch das ist schon wieder umständlich. Windows kann ja mittlerweile auch ReFS, was viele Vorteile von ZFS in die Windowswelt bringt.

Zu den Festplatten: Ich habe hier selber 4 WD Green 2,5 TB die seit über 4 Jahren ihren Dienst im RAID brav verrichten. Die Idle Time habe ich dabei verändert. Es gibt genug Leute die damit gut fahren und deren Ansprüchen das genügt.
In einem Unternehmen würde ich das prdouktiv NIE einsetzen, aber zu Hause finde ich das legitim. Ich habe eine gewisse Sicherheit, die zwar größer sein könnte, aber sie reicht.

Zum T20: Ich ärger mich immernoch damals nich zugeschlagen zu haben, gab das Angebot ja mehrfach. Dann stieg der Preis. Tolle Sache der Umbau. Ich hätte das ganze einfach in ein anderes Gehäuse verbaut. Wäre für mich der einfachere Weg gewesen.
 
...
Oder meinst Du ich sollte lieber wie heute bei Servern üblich zwecks IOPS auf 2,5" SAS HDDs mit relativ geringer Kapazität (300-600GB) und 10.000rpm setzen? Sry, unnötig und teuer.
Da gibt's schon auch noch welche dazwischen, die preislich kaum teurer, aber trotzdem für 24x7 ausgelegt sind, mit den unvermeidlichen Vibrationen klar kommen und den Controller im Fehlerfall nicht aus dem Tritt bringen (Stichwort TLER).

- - - Updated - - -

Immer dieser ZFS vs. Raid Controller "Krieg". Es geht hier um einen Homeserver, auf dem laut Threadersteller hauptsächlich Filme liegen. Klar kann man hier riesen Geschütze auffahren und sich gegen alles absichern, aber macht das Sinn für ein paar Bluerays? ...

Trotzdem praktisch, wenn man nette Features wie Snapshots etc. dazu bekommen kann. Grade in Zeiten der Crypto-Trojaner kenn ich da schon ein paar Leute, die ihre Controller liebend gerne (vorher) eingetauscht hätten.

cu
 
Da gibt's schon auch noch welche dazwischen, die preislich kaum teurer, aber trotzdem für 24x7 ausgelegt sind, mit den unvermeidlichen Vibrationen klar kommen und den Controller im Fehlerfall nicht aus dem Tritt bringen (Stichwort TLER).

TLER - das soll doch gerade verhindern das mein Controller das Laufwerk voreilig rausschmeißt!? Naja, wenn das mal passieren sollte, stecke ich es eben wieder rein und lass ihn rebuilden. Evtl noch vorher löschen, das er das Laufwerk auch annimt.

bzgl. Vibrationen kann ich nichts negatives feststellen. .. irgendwelche leistungseinbrücher oderso. Nur leises rumpeln :-)
Überhaupt würde ich gerne mal Fakten zu kennen lernen, irgendwie halte ich das für Marketingbullshit und Panikmache^^
Die platten drehen auch nur mit 5400rpm was ich sehr angenehm finde, denn wie gesagt, liegt in meiner Fernsehbank und dient auch als Mediacenter.

Und 24x7 ist ja nicht nötig in meinem fall. Will ich auch gar nicht.
 
ja nee, alles Marketing BS.
Frag einfach nicht nach Tipps, wenn du eh keine brauchst.

cu
 
ja nee, alles Marketing BS.
Frag einfach nicht nach Tipps, wenn du eh keine brauchst.

cu

Entschuldig, das sollte Dich nun nicht beleidigen!

Wie wird denn nun mit den Virbrationen die so ein Laufwerk erzeugt umgegangen? Was machen dann die Laufwerke wenn die Virbrationen zunehmen? Steht das irgendwo bei WD beschrieben? Was wenn alle gleichzeig arbeiten, bleiben dann alle Stehen und warten bis Ruhe ist? Wie soll ich mir das als Laie vorstellen?
Erzählen können die Hersteller doch viel wenn es ums verkaufen geht. Seagate redet dann zwar von verbesserten "Zuverlässigkeitswerten" und nennt technische Details wie Sensoren und Maßnahmen um Virbationen zu minimieren -aber was dann passiert, sagen sie nicht. Und schon gar nicht nennt irgendwer Zahlen an dem ich erkennen kann ob der Kauf solcher teuren Laufwerke sich lohnt! Und das ist das wichtige. Verstehst du was ich meine? Ich bin gezwungen zu das glauben.

Ich hatte mal ein 20GB Archos Mp3 Player, noch bevor Apple mit den iPod furore machte. Der hat nichtmal ein Beschleunigunssensor gehabt und baumelte stets in meiner Jackentasche währen er neue Titel nachladen musste. Die platte ist immernoch ok. Nur das große Display ging irgendwann nicht mehr :(
 
hier z.B. sind die RV Sensoren kurz und bündig beschrieben: 24/7-Laufwerke: Was ist anders? - Ausfallsicherheit: Wo 24/7-Festplatten sinnvoll sind

und hier noch a bisl Marketing von WD zum Thema TLER: http://www.wdc.com/en/library/other/2579-001098.pdf

cu

Ah, genau das will ich wissen. Sehr interessant!
Mal sehen ob ich bei mein Platten die TLER Funktion aktivieren kann. Aber ich glaube ehr nicht, soll wohl nur bei den alten gehen.

Die RV Sensoren sollen lt. dem Artikel von Tomshardware vorallen bei entkoppelten Platten sinnvoll sein. Bei mir sind die Käfige allerdings richtig fest montiert und so eng, dass die blauen Caddys sich nicht bewegen bzw. nicht wackeln können. Das müsste ja, wenn ich das richtig verstehe, entgegen dem versehendlichen Schreiben auf benachbarte Spuren immerhin etwas zuträglich zu sein. Wenn nicht, muss ich wohl hoffen das sich die Laufwerke nicht gegeneinander ausspielen.

- - - Updated - - -

... Tolle Sache der Umbau. Ich hätte das ganze einfach in ein anderes Gehäuse verbaut. Wäre für mich der einfachere Weg gewesen....
Gibt kein anderes Gehäuse das klein genug ist um in meine Fernsehbank zu passen und welches acht 3,5" Aufnahmen hat.
Der Midi Tower des T20 ist gerade zu perfekt, denn der verfügbare Platz ist optimal ausgenutzt.
 
Wo hast du denn den Raid Controller so günstig herbekommen?
Bei MTX Computer

Dell Artikelnummer 405-AADX
Dell PERC H730 RAID Adapter mit 1 GB Cache-405-AADX

Bestellt am 11.12.2014 für 278,84 (inkl. Versand) :banana:
Die Zeiten sind vorbei, hätte mal besser genau wie den Dell T20 gleich mehrmals kaufen sollen, arr!
Ein Grund ist aber vermutlich auch, dass man mit Dell OMSA den Controller erst ein halbes Jahr später (!) administrieren konnte und die den Controller vielleicht deswegen nicht verkaufen konnten.
Da haben sich wohl die Java Entwickler wieder in ihren endlosen Framework und Programmierparadigmen verrannt :asthanos:

Firmwareupdates gab es auch schon ein paar. Mittlerweile steht auch nicht mehr LSI im PERC BIOS, sondern Avago.
 
Ich baue gerade auch aus einem T20 ein NAS,möchte dafür ein Raid 10 nutzen, mir fehlen aber noch ein paar Teile bis das Projekt weitergeht. Morgen kommt erstmal der Raid Controller an, ist aber nur ein h310. Wie hast du die restlichen 4 Festplatten an den Stromkreis angeschlossen? Hast du das Power Expansion Cable genutzt? Suche nämlich nach einer anderen Möglichkeit, da es nirgends zu erhalten ist. Am Ende sollten es 6x 8 TB + meine SSD sein.

Würde mich über eine Antwort freuen.
 
Sie Adapter und Kabel im T20 Sammelthread da solltest du auf die nötigen Alternativen stoßen.
 
Moin moin,
Respekt tolle Arbeit!
Ich habe ein ähnliches Projekt vor.
Allerdings will ich nur das Gehäuse vom T20 nutzen.
Von den Abmessungen her passt es genau in die Ecke meines alten Homeserver-Gehäuse.
Den Inhalt habe ich komplett schon zu laufen, nur bin ich mit dem jetzigen Gehäuse nicht so sehr zufrieden. wenn man mal an eine Platte will, muß man den ganzen Kram auseinanderbauen.
Momentan habe ich das hier:
https://geizhals.de/silverstone-precision-ps08-schwarz-sst-ps08b-a854461.html?hloc=de
Nun ist das ja ein Luxusproblem und ich möchte die Sache so günstig wie möglich gestalten.
Zum Gehäuse kommen noch 3x die Dell-Festplattenkäfige "KC230". Das ist auch so das Beste was man finden kann, wenn man von der Seite belüften will.
Ich habe hier ein paar Dell Optiplex 7010 MT im Büro zu stehen. (baugleiches Blechgehäuse wie T20)
Dort werden die Festplatten schon ganz gut warm, also ist Belüftung unbedingt notwendig.
OK kurz, weiß jemand ne günstigere Quelle als Ebay für diese KC230 ??
Bei 3 Stück bin ich gut über 60€ - mehr als das Gehäuse gekostet hat.
Danke für die Antwort. ;)

Man könnte ja auch sowas einbauen:
https://www.moddiy.com/products/5%252din%252d3-Device-Module-Hard-Disk-Cage-SAS%7B47%7DSATA-Expander-Enclosure.html
.. aber dann wirds eng von der Breite her - müßte man ein Loch für den Lüfter in Klappe und Wand machen.
Die Platten sind auch ziemlich dicht aneinander.
 
Zuletzt bearbeitet:
Hallo ich nochmals.
habe mir mittlerweile ein neuwertiges T20-Case in der Bucht preiswert geschossen.
Dazu in den USA - Käfige und blaue Caddys geordert.
Die Käfige "KC230" sind sehr schlecht(preiswert) in D zu bekommen. Habe gleich einen 4er Satz KC230 erwischt.
Da ich nur 6 Platten verbauen will werden ich wohl 1x KC230 übrig haben.
Dazu die blauen Caddys die an den Seiten sehr schmal sind. Da kommt dann seitwärts mehr Luft an die HDD ran.
Ich werde wohl zur Belüftung vorn 2x 93mm -Lüfter reinsetzen und dazu in die Frontplatte ein Loch reinschneiden.
Hinten an der Abdeckplatte kommt dann ein Staubsieb drangeklebt.
Da ich wohl auch das Gehäuse dafür entnieten/vernieten muss, nochmals eine Nachfrage zum Nieten.
Original sind meiner Meinung Senkkopfnieten mit Kopfdurchmesser 5mm drin.
Sowas finde ich aber nirgends - maximal 6mm Senkkopf oder 5mm Flachkopf.
Was hast du für einen Typ genutzt? (sieht aus wie Flachkopf). :confused:


Grüße und Danke für die Antwort.
 
Tolle arbeit :love:

P.S.: Wenn jemand einen T20 braucht meiner steht ab Donnerstag zum verkauf.
 
Moin moin,
stark angelehnt an den Postersteller habe ich auch ein T20-Case modifiziert.
Allerdings nicht ganz so extrem. Wenn man dünne Lüfter nimmt, passen die auch vorn rein.
Ich habe noch ein Staubgitter von innen an die Frontverkleidung geklebt, damit nicht Spinnen und Mäuse in den Lüfter kommen. :haha:
Nun kann ich auch mal eine Festplatte ziehen, ohne den CPU-Lüfter zu demontieren.

Allerdings habe ich ein Fujitsu D3222-B mit Q87-Chipsatz verbaut. Die SSD ist oben im DVD-Schacht untergebracht.
Die anderen 5 HDDs in den original-Dell-Caddys. Da muß man sehr aufpassen, es gibt auch andere Dell-Caddys die weniger gute Durchlüftung haben.
Unten links hängen drei Floppy-DTV-C. Ist also quasi mehr ein Videorecorder ;)
Das Kabelgewurste an den TV-Karten gefällt mir noch nicht so richtig - da muß ich noch mal eine 3Y Spannungsversorgung löten.

Altes-Case:
20170826_180328_cleaned.jpg

nach Umbau auf T20:
20170826_212640_cleaned.jpg

Umbauphasen:
20170819_205153_cleaned.jpg

20170812_122100_cleaned.jpg

20170819_205822_cleaned.jpg

20170819_205159_cleaned.jpg
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh