Planung eines Homeservers - V2 - Anmerkungen?

P4schissel

Enthusiast
Thread Starter
Mitglied seit
08.01.2006
Beiträge
353
Ort
Landau Pfalz
Hallo Forum,

--- Akutelles Konzept in Post 20 ---
bisher hatte ich einen kleinen Homeserver in Form eines HP N40L mit 4*3TB im Raid-Z1.
Da ich allerdings langsam an die Kapazitätsgrenzen komme und das ZFS Raid nicht ohne weiteres erweiterbar ist, bin ich auf der Suche nach einer neuen, besseren Lösung.
Dafür hab' ich mich heute zusammen mit einem Kumpel ausgiebig mit der Thematik befasst.
Ziel ist ein System mit Hardware-Raid-Controller, das sowohl online Kapazitätserweiterung als auch Raid-Level-Migration unterstützt.
Wir wollen dann beide einen Server mit anfangs 4 HDDs im Raid5 aufbauen und dann Stück für Stück, je nach Bedarf, weitere Festplatten einbinden und auf Raid6 migrieren.
Da das ja nicht ganz risikolos geht, werden wir die Daten gegenseitig Sichern.
Einsatzzweck ist hauptsächlich ein performanter Datenspeicher, der ein GBIT Lan gut auslasten soll und schön zu administrieren ist. (FreeNAS und NAS4Free haben mir hier nicht so gut gefallen)
Ausserdem soll es natürlich so günstig wie sinnvoll möglich sein.
Wir haben beide noch von Früher einen Yeong Yang YY-B0420 rumstehen, den wir zu dem Zweck verwenden würden.
Ansonsten stellen wir uns folgendes Setup vor:

  • Asus P8B-M oder Asus P8B WS
  • 8GB DDR3 ECC Ram
  • Intel Celeron 1610T
  • Adaptec 6805 + BBU oder LSI MegaRAID 9265-8i + BBU
  • 4*3 oder 4*4 TB NAS HDDs
  • SSD als Systemplatte

Hierzu haben wir aber ein paar Fragen:
  1. Haben wir irgendwas nicht beachtet bzw. habt ihr Anmerkungen was man besser machen könnte?
  2. Reicht die CPU Leistung?
  3. Wie wichtig ist Buffered DIMM? Das Mainboard unterstützt keinen, ist das ein Problem?
  4. Gibt es Alternativen zum Raidcontroller? Oder ist einer der beiden vorzuziehen und weshalb?
  5. Wie wichtig ist eine BBU? Wir wollen natürlich nicht, dass wir nach jedem Stromausfall erst Tagelang rebuilden müssen.
  6. Warum hat der Controller keinen ECC Ram? Scheinen ja Raidcontroller allgemein eher nicht zu haben, dabei würde man doch denken, dass es grade die brauchen.

Schonmal vielen Dank für alle Tipps und Anregungen :)

Lg, p4schissel
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
..meine 2cents bzw. Anmerkungen:

- S1155 kann nur unbuffered memory
- S1155 kann nur unregistered ECC (edit: wollte sagen, S1155 kann keine RDIMMs, weil registered ECC immer *nicht* unbuffered ist, also UDIMMs ECC nehmen)
- für 2x UDIMMs ist das kein Problem....das kriegst Du für die geplanten 8GB noch gut hin.
- CPU mit "Model T" begrenzt nur die Power nach oben. In der Annahme, dass die Kiste mehr im idle ist als im Max-Power, bringt Dir das "T" gegenüber den "normal-Modell" nix.
Wenn Du das Geld hast, lieber eine CPU "grösser" nehmen..im idle sind die S1155er alle gleich gut.
- Ich würde immer zum Server Board tendieren, auch wg. IPMI....Alternative zum ASUS: SM X9SM-iiF
- Festplattenkäfig/Einbaurahmen für den YY vorhanden/geplant?...ich habe den kleinen Bruder YY-B0221 und das ist ohne - selbst vorn- eine miese Fummelei.
 
Zuletzt bearbeitet:
Das mit dem Idleverbrauch ist 'ne gute Anmerkung, war mir nicht bewusst, da können wir uns das T wirklich sparen. Kühler für die CPU haben wir beide noch liegen, insofern ist boxed oder tray egal.
Gut zu wissen ist auch, dass der Sockel allgemein keine Buffered DIMMs unterstützt. Anfangsausstattung soll sogar nur ein einzelner 8GB Riegel sein. In Zukunft wohl nicht über 16GB gehen, wobei ich auch 32GB mit 4*8 nicht kategorisch ausschließen würde. Registered Ram soll ja, so wie ich das verstehe, den Controller entlasten, für stabileren Betrieb sorgen und vor "Flipped Bits" im Ram selbst schützen. Da das System hauptsächlich ein Fileserver und ggf. Downloadknecht/VM Host ist, der Daten nicht ewig im Ram vorhält und auch keine großen Datenbanken mit hohem I/O bereitstellt, sollte doch normaler ECC für unsere Zwecke genügen. Oder sehe ich das falsch?
IPMI sieht für mich wie ein nettes Feature aus, das man sich gönnen kann, wenn das Board zufällig günstig zu holen ist. Und das Asus ist doch ein Serverboard?! Hat ja den gleichen Chipsatz wie das, das du vorschlägst.
Die Festplatten kommen beim Cube in die 5,25er Schächte, da kommt man Super dran wenn das rechte Seitenteil ab ist. Wir haben ohnehin nicht diese 3,5" HDD Rahmen wie der B0221 :)
Vielen Dank für deine Tipps :)
 
Mein Vorschlag:

Lasst den Raid Controller weg. Besorgt euch 2 Unraid Plus oder Pro Lizenzen (im Doppelpack billiger) und synct wichtige Daten über das verfügbare Bittorrent Sync Plugin. Günstiger, erweiterbar und für euer Vorhaben völlig ausreichend.

Gruß
 
Re: Planung eines Homeservers - Anregungen und Verbesserungsvorschläge gesucht!

Hol auf jeden fall eine Boxed-CPU. Die hat drei statt einem Jahr Garantie und einen höheren Wiederverkaufswert;)
 
Re: Planung eines Homeservers - Anregungen und Verbesserungsvorschläge gesucht!

...statt einer BBU wäre vielleicht eine kleine USV sinnvoll.
 
Also es gibt ECC/non-ECC und buffered/unbuffered...verschiedene Dinge.
ECC ist das Mittel gegen "flipped" bits....buffered/unbuffered ist der Unterschied in der Ansteuerungs-Elektronk der RAM Chips (load)...je mehr Module unbuffered umso grösser das Risiko, dass das Signal "nicht mehr durchkommt".
Um das zu kompensieren werden bei mehreren Modulen meist die Takte gesenkt...buffered/registered Module haben das Problem nicht, weil sie ein Zwischenregister haben...sind daher etwas langsamer, aber elektrisch stabiler.
Guck mal hier: http://www.hardwareluxx.de/community/f242/ecc-oder-ecc-reg-975674.html
Buffered und registered sind auch nicht technisch identisch, aber inhaltlich das Gleiche.
Was gibt es so zu kaufen an DDR3s:

- unbuffered, mit und ohne ECC
- registered, mit ECC

andere Modelle finde ich nicht.

zu IPMI...nur das erste ASUS Board ist ein Server Board und hat auch IPMI...als Alternative dazu das SM.
Das hat aber nix mit dem Haupt-Chipsatz zu tun.
Ich weiss nicht, was das IPMI von Asus kann...das von SM ist Klasse, inkl. KVM-over-IP...geht alles per Browser...auch einbinden von ISOs von Deinem PC aus von dem Du zugreifst...perfekt zum booten/remote installieren.
 
Danke für eure Posts :)
Unraid gefällt mir nicht, weil es nicht unter Windows läuft. Ich möchte definitiv nen Server 2008 aufsetzen.
Allerdings glaube ich auch, dass ein Software-Raid für unsere Zwecke ausreicht. Ich wusste nur nicht, dass es da so schöne Lösungen gibt.
Über Unraid bin ich jetzt auf Snapraid und Flexraid gestoßen, sieht beides sehr interessant aus :) Im Moment tendiere ich zu Flexraid. Die spärlichen Infos die ich gefunden habe wirken alle vielversprechend.
Und wenn ich das Software Raid nehme brauche ich ja weder USV noch BBU, sondern hol mir einfach eine Überspannungssichere Steckdosenleiste.
Auf dem Pool wird dann eh hauptsächlich gelesen und kaum geschrieben.
Danke auch für die Erklärung mit dem Ram Modulen :)
Nach dem IPMI hab ich mittlerweile auch geschaut. Scheint ja wirklich ein super praktisches Feature zu sein.
Leider bietet Asus das beim P8B-M nur als Zusatzfeature in Form einer Aufsteckplatine für ca. 40€ an. Da kann ich dann wohl auch gleich ein Supermicro Board nehmen.
Kann mir noch wer sagen, wieso Raidcontroller kein ECC Ram haben? :bigok:

Beste Grüße,
p4schissel
 
...oki, hmmm...die Info mit Win-SRV2008 kam dann aber eher erst jetzt raus ;)

Deine Ansicht zum Thema USV usw ist etwas komisch...Du weisst schon, dass Raid (egal ob Hard oder Soft) nur die Verfügbarkeit erhöht aber kein Backup ersetzt !?!
Bei Software Raid ist die "BBU" Dein RAM...Stromausfall kann das Raid beschädigen und zum inkonsistenten Zustand führen...ergo: immer eine USV an den Fileserver.

Guck Dir für Win mal StableBit DrivePool an...verschiedene Grössen mischbar und "Feeder-Disk" möglich...finde ich ganz nett.
Dann die Disks über Snapraid auf eine Parity Disk "absichern"....aussreichend für Daten, die sich nicht oft ändern, zB die DVD/BluRay Sammlung.

...wieso haben RaidController kein ECC Ram?..weiss nicht...haben sie keines?...nur weil es nirgendwo dabei steht sagt das erstmal nix..evtl haben es ja Alle und es ist daher nix Besonderes ;)
 
Da hast du völlig recht, hätte ich vorher dazuschreiben sollen.. Sorry!
Klar ersetzt Raid kein Backup, deshalb wollen wir auch beide nen Fileserver machen und uns gegenseitig als Backuplösung dienen.
Aber ne USV brauch ich doch nur am HW-Raid? Wenn es beim Snapshotraid nen Stromausfall gibt, passiert ja im Grunde nicht mehr als bei jedem anderen Rechner: In der Regel geht er ohne Beschädigung einfach aus.
Stablebit und Snapraid schau ich mir heute abend an, bin grade auf dem Sprung. Danke!

[edit] und gerade hab ich für 40 Euro ein P8B-M bei Ebay geschossen. Das Board steht also schonmal fest :)
 
Zuletzt bearbeitet:
Aber ne USV brauch ich doch nur am HW-Raid? Wenn es beim Snapshotraid nen Stromausfall gibt, passiert ja im Grunde nicht mehr als bei jedem anderen Rechner: In der Regel geht er ohne Beschädigung einfach aus.

Hmm...OK...also ich wäre zumindest mal besorgt, was passiert, wenn der nach dem Stromausfall wieder angeht...oder wenn das sogar x-mal im Minutentakt passiert...das himmelt meist irgendein HW-Teil.
Was aber auch passieren kann ist, das Dein Filesystem kaputt geht, wenn gerade irgendein Prozess es benutzt...oder zB nur einzelne Files betroffen sind....insbesondere beim schreiben.
 
Was wird es eigentlich für ein Gehäuse, wenn ich mal fragen darf?

IPMI ist ein spezielles Serverfeature. IntelAMT tut genau das gleiche und ist bestandteil der Desktopchipsätze Q87...

Dass die komischen Celerons und I3-CPUs angeblich ECC unterstützen, klingt für mich etwas eigenartig. Aber nicht immer ist die Auflistung in den Preisvergleichen korrekt. Auch ist sie selten vollständig, das nur aml am Rande.

Zu deinem RAID-Vorhaben. RAID5/6 scheint ja hier unter den LUXXern sehr beliebt zusein. Ich habe auch einen Controller, der RAID5/6 kann jedoch verwende ich keinen dieser höheren RAID-Modi. Vier entscheidende Gründe sprechen gegen ein höheres RAID in einem Home-Server.
1) geht der Controller kaputt, kann es riesen Ärger geben
2) Controller sind sehr teuer
3) Den Speedvorteil den der RAID5 bietet, wirst du ohne 10GBit Nezwerk nicht nutzen können.
4) Ein RAID5 verlangt immer danach, dass alle Platten laufen - selektives anschalten der nur benötigten Speicherplätze ist nicht möglich
So zahlt man den Betriebsstrom für die Platten, die laufen, aber keine konkrete Aufgabe haben (und das summiert sich gewaltig)

Raid-Controller benötigen ausserdem viel Strom, gerade bei RAID5.

Über all dem steht die Doktrin, das System so einfach wie möglich zu halten. RAID5 wiederspricht dem Konzept deutlich. Ohne RAID5 bist du voll flexibel und kannst schnell und adäquat auf Störungen im System reagieren ohne die Leistungsfähigkeit in seiner Gesamtheit einzuschränken (Raid5-Rebuildt ist glaube ich nicht ohne...).
Also ich würde mir das mit dem RAID5 genau überlegen und vielleicht doch mal gegen RAID1 oder RAID10 abwägen.

USV: irgendwie genau so "sinnvoll" wie ECC im Home-Serverbereich, essei denn man hat nachgewiesene Probleme mit dem Stromnetz. Inviestier lieber in gute NAS oder besser Nearline-Platten und eine gute Alarm-Backplane.
sst-2131sas.png

(c) Chieftec - SST-2131SAS

PS: Mein Server-Board wird ein D3222-B aus der Extended Lifecycle Reihe von Fujitsu. (Test-> C't 13/16)
http://www.planet3dnow.de/vbulletin...aten)-Server?p=4809917&viewfull=1#post4809917
 
Zuletzt bearbeitet:
My 2 Cents:

Finger weg von Raid 5 wenn es um "Erweiterbarkeit" geht.... die Redundanz von nur einer Platte ist grad in Lastbereichen wie Migration oder Rebuild sehr grenzwertig.
Imho, wenn dafür schon Hardware Raid, dann mind. Raid 6.

Ob BBU oder nicht.... ich bin der Meinung eine USV macht einen besseren (und umfangreicheren) Job und ist von den Kosten her "gleich". Allerding ist auch hier nicht alles Gold was glänzt.... und meist bedeutet eine USV auch wieder einen höheren Stromverbrauch, grad wenn man inline USVs nimmt.

die "neueren" Adaptec Controller unterstützen den Spindown von Festplatten-Arrays nach einstellbarer Idle Zeit.... sind also eine gute Wahl wenn es darum geht auch die letzten Watts zu sparen ... allerding sollte man dann auch zu Festplatten greifen, welche diese Spincycles vertragen.


Wenns ums reine Erweitern und Stromsparen geht ist nichts besser als ein Drivepool (z.B. WHS 2011 mit Stablebit Drivepool)
Man hat keinerlei zusätzlich nötige Komponenten, die normalen Stromsparmechanismen greifen und die einstellbare Autoduplizierung sichert wichtige Daten auf eine 2. oder sogar 3. physikalische HDD), zur erweiterung steckt man einfach beliebige Platten dazu und bindet diese in den Pool ein.

Vorteile:
sehr günstige und stromsparende Hardware möglich
sicher auch gegen den Ausfall des Hostsystems/der Controller, da jede Platte in jedem beliebigen Rechner auslesbar ist
beliebige Festplatten und Festplattengrößen kombinierbar
Duplizierung einstellbar (z.B. für eher unwichtige Daten keine Duplizierung, für sehr wichtige z.B. 3fach Duplizierung)
supereinfache Einrichtung/Erweiterung und Nutzung

leider hat diese Methode 2 Nachteile:
man benötigt immer den x-fachen Platz/Datei je nach Duplizierung und die Schreib/Leseraten hängen von den einzeln verwendeten HDDs ab und können nicht gesteigert werden (wobei Windows eh mehr bremst bei normalen Shares als es moderne Festplatten würden).
 
Zuletzt bearbeitet:
Dass die komischen Celerons und I3-CPUs angeblich ECC unterstützen, klingt für mich etwas eigenartig. Aber nicht immer ist die Auflistung in den Preisvergleichen korrekt. Auch ist sie selten vollständig, das nur aml am Rande.

...dann mal in die Specs bei Intel selbst gucken...ausserdem mal auf die Specs der Boardhersteller gucken.
Im den S1155 bords von SM laufen i5 und i7 *nicht*, weil sie kein ECC unterstützen....Celeron, Pent-G, i3 und XEONs aber schon.
Ja, ist ein bischen wie verkehrte Welt, aber das muss Intel selbst entscheiden...leider gibt es keine Desktop Boards, die ECC unterstützen.
Deshalb gehe ich bei Low-End auf AMD SAM3+ und ASUS boards...die können alle ECC.

USV: irgendwie genau so "sinnvoll" wie ECC im Home-Serverbereich, essei denn man hat nachgewiesene Probleme mit dem Stromnetz.

ECC hat nix mit der Stromversorgung zu tun, sondern mit statistisch verteilten Problemen, bei denen ein Bit im RAM "einfach mal spontan um-flippt".
Vielleicht weil ein Neutrino durchsaust oder so ;)
Ein Rechenzentrum sieht sowas häufiger als ein Home-User.
Wenn ich z.B. aber in hochsichere, verfügbare Filesysteme investiere, die auf Software-Raid basieren, wie ZFS, dann macht es keinen Sinn das Thema ECC wegzulassen...IMHO ganz oder garnicht.

Edit: ..und an Probleme im Stromnetz werden wir uns wohl in Zukunft wieder mehr gewöhnen müssen.
Die Energiewende sorgt dafür; die dezentrale Einspeisung bringt Spannung und Frequenz durcheinander und die Netzbetreiber werden nicht immer alles verhindern können.
Das ist heute in vielen ländlichen Gebieten mit hoher Einspeisung schon so.
 
Zuletzt bearbeitet:
Dass Celeron und I3 ECC haben und der I7 nicht versteh' noch einer...

Wenn ZFS so derart anfällig ist, würde ich es schlicht nicht verwenden.
 
Zuletzt bearbeitet:
Wenn ZFZ so derart anfällig ist, würde ich es schlicht nicht verwenden.

:rofl:

...es ist genau anders rum...ein normales RAID ist viel anfälliger als ZFS, weil es kein copy-on-write hat.
In einem normalen Raid sind die Daten mit ECC also immer noch nicht sicher, aber in einem ZFS - Raid schon, deshalb "ganz oder garnicht".
 
Nachdem ihr uns hier auf einiges hingewiesen habt, haben wir uns was neues überlegt.
Aber zuerst nochmal zu den Rahmenbedingungen:
Wir beide haben Umfangreiche Mediendatenbanken mit bisher 9 bzw. 6 TB Umfang (Filme, Serien, Musik). Dazu kommen ein paar hundert GB relativ unwichtige Daten, wie Windows-, Programm- und Spieleimages.
Als wirklich wichtig ordnen wir eigentlich nur unsere privaten Fotos, Dokumente und Unisachen ein. Das sind bisher gerade mal ~100GB.
Neben der reinen Sicherungsfunktion soll der Server noch zum Encoding verwendet werden. Ausserdem möchten wir Leistungsreserven für ESXi haben, da der Server mindestens 3-4 Jahre halten soll und wohl beide in der Richtung experimentieren.

Jetzt haben wir folgendes, überarbeitetes Konzept:
  • Supermicro X8SIL
  • Xeon L3426
  • 8-16GB ECC Ram
  • HostBus Adapter mit 8*Sata/SAS, zB Adaptec 6805H
  • Raid1+externes Backup für private Daten (3*500GB)
  • Drivepool mit Stablebit + Snapraid oder Flexraid für Mediendateien (Anfangs 4*4TB)
  • SSD als Systemplatte mit Server2008R2 oder WHS2011
  • Be Quiet Straight Power E9 80+ Gold 400W

Diese alte Plattform habe ich gestern unfassbar günstig ergattern können (Board und CPU zusammen 80 Euro).
Klar ist, dass der Stromverbrauch höher als bei aktuellen Rechnern ist. Ich gehe im Idle von circa 50 Watt aus.
Das dürften maximal (!) 25Watt mehr sein, als ein Haswell Xeon im Idle braucht. Macht auf 4 Jahre Dauerbetrieb eine Differenz von 250 Euro.
Die Stromkosten sind weit weniger als ich jetzt investieren müsste, um einen Haswell Xeon zu kriegen.
Zieht man jetzt noch die Zeiten ab, in denen der Server aus ist (bestimmt nochmal 6 Wochen im Jahr), lohnt es sich denke ich, auf so ein "altes Ross" zu setzen.
IPMI ist nicht drin, aber WOL und Remotedesktop tun es für unsere Bedürfnisse auch. Wenn wirklich mal nixmehr geht hab ich immernoch nen Monitor und Tastatur.

Nochmal zu euren Tipps:
ojumle: Gehäuse wird ein Cube oder ein gedämmter Sharkoon Midi Tower. Backplanes brauchen wir keine, wüsste nicht wofür. Lüfterausfall kann ich auch mit anderen Tools überwachen, da brauch ich keine Backplane. Und es muss ja kein hochverfügbares System sein. Wenn wirklich mal ne Platte hin ist, hab ich auch durchaus Zeit erstmal zu schrauben.
pumuckel und ojumle: Sehe ich mittlerweile genauso, für die Mediendateien ist so ein Snapshotraid absolut ausreichend! Schreibraten von 100MB/S sind für mich völlig im Rahmen. Und das Konzept das nur die Platte anläuft die ich grade brauche und ich trotzdem ne begrenzte Redundanz habe, finde ich schon sehr gut.
hominidae: ECC hab ich ja jetzt so oder so. Laut einer Betrachtung von Google kommen wohl Ramfehler auch sehr viel öfter vor als man glaubt. Nur machen flipped Bits ja bei Videofiles sowieso nichts. Aber jetzt ists dabei und das soll mir recht sein :) Ob ich ne USV dranhänge überlege ich mir dann, wenn ich mit der Kiste so weit bin. Und was Dateisicherheit angeht gibt es wohl wirklich nichts besseres als ZFS :bigok:

Gibt's noch weitere Anmerkungen? Bisher habt ihr mir echt viel weitergeholfen! Muchas gracias :bigok:

[edit] Das P8B-M von Ebay war übrigens defekt obwohl als "definitiv funktionstüchtig" beschrieben :mad:
 
Zuletzt bearbeitet:
Es ist nicht nur der Alarm bei Lüfterausfall, auch geht der Alarm bei Temperaturüberschreitung an. Ferner sieht man sofort, welche HDD defekt ist durch eine LED. Einfaches wechseln der Datenträger macht die Sache perfekt für den Home-Server - Meine Meinung.

Ob ZFS wirklich von nöten ist, da hab ich so meine Zweifel. Ich für mein Anwendungszenario beabsichtige das Sytsem so einfach wie möglich zu halten. Kann Windows eigentlich mit ZFS umgehen?

ECC - schaden kanns sicher nicht

PS: mein Desktop PC läuft seit ca. 4 Jahren 24/7, 3,5 Jahre davon bei 100% CPU-Load und intensiver RAM-Nutzung - Bluescreens oder eigenartige Systemabstürze, die sich auf Speicher zurückführen lassen kann ich an einer Hand abzählen, wenn überhaupt. Wenn das System abschmiert, dann in der Regel durch defekte Festplatten oder Stromausfall. Die klassischen Bluescreens sind hier seit Jahren passe.
 
[edit] hoppla falscher thread
 
Zuletzt bearbeitet:
Kann ich zwar nachvollziehen, allerdings wäre mir das nicht genug, HDD Defekt erst zu erkennen, wenn sie hinüber ist. Ich will automatisierte Smart-Tests. Das kann laut einer Festplattenstudie seitens Google bis zu 2/3 der Festplattenausfälle "vorhersagen". Und die 5 Minuten Differenz zwischen Erkennen durch LED und erkennen durch Seriennummer machen es für mich nicht aus :)
Wie gesagt, ich kann die Motivation für so eine Backplane gut nachvollziehen, aber ich brauche sie denke ich nicht.
 
...also das X8SIL ist cool...habe selbst das "-F" mit dem L3426....rennt wirklich gut, auch mit ESXi, da beide Netzwerkkarten direkt ohne Tweaks gehen.
80EUR inkl. Professor ist ja fast schon gestohlen ;-)
Du brauchst für Deins ne GraKa für die Installation, oder?
Ich werde meins bald ummustern zur Workstation...habe schon eine PCIe x1 GraKa (HD6450 mit 2GB HIS 6450 Silence 2GB DDR3 PCIe x1 DP/DVI/VGA < HIS-Specials < Desktop Grafik < Products | HIS Graphic Cards) hier rumliegen...da ich 32GB RDIMMs habe wird das lustig (Quebes-OS werde ich mal probieren)

Das WOL musst Du testen...IMHO kann es kein S3, zumindest im BIOS...mein Linux konnte es nicht schlafen legen...habe aber auch das "-F".

Warum ein Raid1?
Du kannst doch einen zweiten Pool mit Stablebit machen, Duplizierung an und read-striping auch an....voila.
 
Zuletzt bearbeitet:
Also wenn es kein WOL könnte, das wäre ja schon armseelig ;) Könnte bei dir ne Treibersache sein, hatte ich auch bei FreeNAS und dem OnboardLAN des N40L. Da hat nur eine Intel NIC Abhilfe schaffen können. Ist aber reine Mutmaßung.

Mit dem Netzteil könntest du Recht haben. Die WD Red hat nen Anlaufstrom von 1,75A +-10%. Ich werde mal bei Be Quiet anfragen, wie die Rails belegt sind. Wenn die Optischen Laufwerke getrennt vom EPS und ATX Stecker sind würden 18A reichen. Andernfalls wird es eben ein doppelt so teures Seasonic 400W Fanless mit Single Rail.
Ich hab das BeQuiet deshalb ausgewählt, weil es sehr günstig ist und in Reviews sehr gelobt wird, insbesondere was die Effizienz angeht.

Wenn Stablebit relatime dupliziert ist das natürlich noch besser, hab mich damit noch nicht richtig befasst.

Wieso du dir ne PCI-Express x1 Grafikkarte besorgt hast verstehe ich nicht wirklich. Der Anschluss auf dem Board ist doch hinten geschlitzt, da kannst du auch ne x16 reinstecken, die dann halt auf x8 läuft.
 
Zuletzt bearbeitet:
Jein,
"normaler" PCI-E Slot bis 25Watt
PEG Slot bis 75Watt
Die Zusatzanschlüsse sind erst ab 75Watt Stromverbrauch verbaut und dienen als Ergänzung zu der Versorgung durch den Slot.

Deshalb kann ich mir gut vorstellen, dass der Betrieb einer normalen Graka mit PCI-E x16 Interface in einem normalen PCI-E Slot problematisch ist. Die Karten mit PCI-E x1 Interface dürften ja per Spezifikation nicht mehr als 25W verbrauchen.
 
Also wenn es kein WOL könnte, das wäre ja schon armseelig ;) Könnte bei dir ne Treibersache sein, hatte ich auch bei FreeNAS und dem OnboardLAN des N40L. Da hat nur eine Intel NIC Abhilfe schaffen können. Ist aber reine Mutmaßung.

...also für ein Server Board ist es nicht unbedingt armselig, ist eben kein UseCase für ein Board das 24x7 Design und Standard-EinsatzSzenario hat.
Ich habe auch irgendwo Hinweise gefunden, das es eben nicht geht ... zumindest mit meinem "-F" Modell.
Edit: ..und an den Intel-Nics kann es ja hier nicht liegen ;)

Mit dem Netzteil könntest du Recht haben. Die WD Red hat nen Anlaufstrom von 1,75A +-10%. Ich werde mal bei Be Quiet anfragen, wie die Rails belegt sind. Wenn die Optischen Laufwerke getrennt vom EPS und ATX Stecker sind würden 18A reichen. Andernfalls wird es eben ein doppelt so teures Seasonic 400W Fanless mit Single Rail.
Wieso?
Das Superflower 400W ist sogar günstiger ;) Netzteile mit Leistung ab 300W, Anzahl 12V-Ausgänge: 1x, 80 PLUS: 80 PLUS Gold Preisvergleich | Geizhals Deutschland
Ich habe des SF 600W Platinum und bin sehr zufrieden.

Wieso du dir ne PCI-Express x1 Grafikkarte besorgt hast verstehe ich nicht wirklich. Der Anschluss auf dem Board ist doch hinten geschlitzt, da kannst du auch ne x16 reinstecken, die dann halt auf x8 läuft.

Na, weil meine Slots eben *nicht* hinten geschlitzt sind ;)
Und mit dem Dremel wollte ich nicht ran, schliesslich habe ich es nicht so günstig geschossen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh