19'' Server aus alter Hardware, oder lieber Neuer?

n3

Enthusiast
Thread Starter
Mitglied seit
22.02.2010
Beiträge
538
Hallo Zusammen,

ich habe hier diesen Serverschrank: DIGITUS Netzwerk-Schrank | 19 Zoll | 12 HE | 600 mm Tiefe

Hierfür möchte ich einen Homeserver bauen mit möglichst normaler Hardware. Ich würde gern Microsoft Hyper-V Server (Typ 1) installieren und darauf jeweils folgende Services/Anwendungen laufen lassen:
  • Windows mit ETS (zur Parametrierung von meinem Smart Home) (läuft bereits im Hyper-V)
  • Home Assistant (läuft bereits im Hyper-V)
  • Firewall (vermutlich Sophos)
  • Backup-Server
  • OwnCloud (ggf. oder Alternative)
  • Daten Logger (derzeit logge ich meine PV Daten auf einem Raspy)
  • Pi-hole (ggf. zumindest hatte ich es mal notiert)
Ich meine mit einem 4HE Gehäuse, müsste ich normale Hardware verwenden und dann ist die Frage, ob ich meinen aktuellen PC nehme und daraus den Server baue und meinem PC ein Update verpasse, oder ob ich lieber günstigere und neuere Hardware für den Server nehmen sollte. Meine Hardware derzeit ist:
  • i7-6800k Broadwell-E @3,46Hz (Kühler ist min. 120x120mm)
  • EVGA 131-HE-E095
  • 4x G.Skill DDR4-2132 (1066MHz) 8GB
  • nvidia Quadro P620
Da ich hier auch ein Backup/OwnCloud nutzen will, plane ich bisher mit einem RAID5 System aus 3-5 HDDs.

Was denkt ihr, lieber neue und günstigere Hardware und falls ja, welche? Habt ihr auch eine Empfehlung für ein Gehäuse?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist kein Serverschrank, sondern ein Netzwerkschrank. Steht btw. auch schon in der Beschreibung von Digitus.
Dementsprechend bringt man da auch keine Server unter, bzw. nur bedingt.
Zur Info, richtige Server sind tiefer als dein gesamter Schrank an Tiefe hat. Daher sind Serverschränke min. 80cm eher 100/120cm tief. Das sind dann auch richtige Serverschränke.
Weiterhin ergibt sich daraus auch, dass die Be-/Entlüftung bei dir nur mäßig ist und das dann thermisch ein Thema wird. (Access)Switche (welche in einen Netzwerkschrank kommen) habe in der Regel auf den gesamten Schrank aufsummiert die Last, die dein Server im unteren Lastprofil hat.

Durch den Schrank reduzierst du zum einen die Auswahl an Cases massiv.
allenfalls noch
und das wars dann auch schon.
Das wäre mit das einzige Case, was deinen Ansprüchen genügt und halbwegs unterzubekommen ist.

Des Weiteren sollte man die thermische Last nicht vergessen, die so nen Server in einem solche kleinen Schrank einbringt. Wenn man 100W einbringt, dann wird das entweder mollig warm oder man muss stark in Entlüftung investieren, was am Ende wieder Lautstärke aber auch Stromaufnahme endet. So kann es schonmal sein, dass du 10W nur für die Entlüftung hast.

Ob die HW ausreicht oder nicht, kannst du nur anhand der Lasten bewerten. Potent für das ein oder andere ist sie jedenfalls.
Man darf nicht vergessen, dass wir in letzten Jahren massiv in Richtung Effizienz gegangen sind. Deine HW ist also nicht sonderlich gut, wenngleich noch ältere HW noch schlechter ist.

Wenn du eh nen Upgrade des PCs planst, dann teste erstmal mit der HW rum. (die kann man auch ohne Case in dem Schrank betreiben) Am besten mit unterschiedlichen Lastprofilen und das je min .24h burnin.
Dann weiß du, wo du landen wirst und ob es überhaupt Sinn macht in dem Schrank weiterzumachen sprich, ob, das Case Sinn macht oder nicht.
Andernfalls entweder extern in einem normalen Tower betreiben oder aber die ServerHW auch neu kaufen und darauf achten, dass man die thermischen Limits einhält. Hier könnten dann die "T"-CPUs Sinn machen, da diese nen niedriges Wärmelimit haben.
 
Danke für deinen Beitrag!

Gut, ein Serverschrank wäre zu überdimensioniert und ich habe damals beim Netzwerkschrank darauf geachtet, dass er möglichst tief ist. Hab mir deine Liste mal angeschaut und was spricht gegen diese Gehäuse hier?

oder

Das Gehäuse hat imho eine gute Entlüftung und die erste Version sogar einen zusätzlichen Lüfter für die Festplatten. Der Netzwerkschrank verfügt oben über Lüfter, die die Abwärme aus dem Gehäuse abführen. Alternativ kann ich auch die vordere Tür demontieren. Der Netzwerkschrank steht im Hausanschlussraum, wo durch die ganze Technik, Heizung, Batterie, etc. etwas wärmer ist. 24-26°C sind aber imho OK und notfalls kann ich die Luft abführen.

Klar, dass meine Hardware nicht auf dem aktuellsten Stand ist, ist klar. Fürs tägliche Arbeiten sowie Lightroom und Photoshop reicht es. Aktuell läuft HomeAssistent in einer VM und die ETS Software sporadisch mit. Ich weiß aber nicht, wie es mit der Last aussieht, wenn ich ein Backup und Owncloud nutze. Will z.b. meine Daten (vor allem Bilder) weg von meinem Rechner und auf den Server laden. Wie ich das ganze bewerkstellige ist noch unklar. Reicht RAID5/6 und Owncloud, oder kommt noch zusätzlich ein Backup? Wieviel Last Sophos etc. verursachen kann ich nicht einschätzen.

Ich kann das mit der aktuellen Hardware nur bedingt testen. Der Rechner ist produktiv im Einsatz und ich könnte hier höchstens direkt Testen, aber eben nicht im Netzwerkschrank. Für mich sind das aber eigentlich zu viele "Wenns" Wenn ich neue Hardware für den Server nehme, habe ich kein Lastproblem und thermisch sollte es besser laufen.

Wenn es neue Hardware wird, in welche Richtung sollte es bei der CPU gehen? Wenn es darum geht Wärme abzuführen, dann kann ich mir sicherlich ein Kanal bauen und die Wärme direkt ins freie Pusten. Wir haben eine Kontrollierte Wohnraumlüftung und daher schon Öffnung für Zu- und Abluft. Die Abluft kann ich sicherlich nutzen, aber der Zuluft wird es schwieriger weil ich hier erst nach dem Filter abzwacken könnte, der Luftstrom aber fürs Haus gerechnet ist. Egal, zu Off-Topic.

Würde das obere Gehäuse passen und welche Hardware würdet ihr empfehlen?
 
was spricht gegen diese Gehäuse hier?
Dein Zollstock. Dein Rack ist 60cm tief. Davon gehen ganz grob 10cm ab, wo die 19" Aufnahme in Relation zur Tür angebracht ist. Macht also ab da 50cm nach hinten.
Die Silverstones sind 45cm tief. Sind also 5cm Luft. Jetzt krabbelste mal unter den Tisch, mit dem besagten Zollstock und misst den Abstand vom Netzteil bis zu dem Teil des Stromkabels, wo du der Meinung bist es sorgenfrei zu biegen, um nicht knicken zu sagen.
Was für ein Gefühl hast du?

Selbiges gilt dann für Netzwerkkabel.
Aber nicht nur Kabel sind ein Thema, auch der Luftwiderstand beim Entlüften des Servercases.

Ansonsten, ein RAID ersetz kein Backup. Siehe auch den Sammelthread hier. Du solltest dir da echte Gedanken machen, da ich stark annehme, dass diese Daten einen gewissen Wert haben. In diesem Zuge sei erwähnt, dass man glaube bei Amazon Prime unendlich (LOL?) viele Bilder speichern kann.
Eine Entlüftung für den Server ins freie brauchst du nicht machen, da hast du ganz andere Erzeuger im Raum. Wichtig ist nur, was passiert im Schrank.
Firewall kann halt alles und nichts sein. Geht von "Atom" bis "octacore Xeon" als Mindestanforderung.

Aber da kann sicherlich noch der ein oder andere was zu sagen. Ansonsten sind in aller Regel die Anforderungen der Leute hier mehr oder minder gleich , so dass es für dich durchaus Sinn macht, die unzähligen Threads mal fürs Ideen holen zu durchforsten.
Evtl. wäre sogar ein NAS die bessere Lösung? (mal von der Firewall ab) Die können auch Docker und VMs und sind natürlich deutlich kompakter. Und bringen auch Dienste für Filesync mit.
Wenngleich fürs NAS ein ZFS-based-Ansatz schon besser wäre.

Achso, wenn ZFS ein Plan wäre, dann ECC Hardware, also eh alles neu kaufen...
 
Zuletzt bearbeitet:
Würde das obere Gehäuse passen und welche Hardware würdet ihr empfehlen?
Ich denke es würde sehr, sehr knapp.
Der Schrank mit 600 (von Glas bis Rückwand) und das Gehäuse mit 446 (dazu kommen Abstand bis zum Glas/die Griffe & Kabel/Anschlüsse an der Rückwand) werden eben nicht passen.
Evtl mal über eines mit Anschlüssen Vorn nachdenken,.

Edit: ...too late

....oder ein schönes NAS oben drauf stellen ;-)
 
solten beide von der Tiefe her reinpassen - kommt halt drauf an, wo genau die Schiene in Deinem Schrank befestigt ist.
Für Strom und Netzwerk-kabel gibt es auch welche mit gewinkeltem Stecker - bleibt noch das Luft-Problem

wie ist der Schrank denn montiert?
Beitrag automatisch zusammengeführt:

....oder ein schönes NAS oben drauf stellen ;-)
in schön, passt das auch in den Schrank ;)
 
....oder ein schönes NAS oben drauf stellen ;-)
Und direkt ne Grabkerze daneben, für den Fall falls es runterfällt.
Ich kenne im HWR eigentlich nur so, wenn etwas runterfallen/umgestoßen werden kann, dann passiert das auch.

EDIT: Noch ne Idee zum Thermik. Im Zweifel einfach nen Gitter davor schrauben, sprich Glas raus oder gleich die komplette Tür weg und irgendwie festspaxen.
Dann muss der Server im Zweifel nicht die eigenen Luft umquirlen.

2ndEDIT:
Ansonsten hat das Maß der Silverstone Cases schon nen Grund. ;) (die kommen nicht aus einer verlorenen Designerstammtischwette)
Miss es nach und bewerte für dich, was du meinst klappen könnte.
Bedenke auch, da du wohl auch nen Switch mit Patchkabel bzw. Patchpanel drin hast.
 
Zuletzt bearbeitet:
Und direkt ne Grabkerze daneben, für den Fall falls es runterfällt.
Ja, kann passieren, aber dann eher eines auf Basis rPi :-)

Ich habe auf dem Schrank (OK, der sitzt in der Ecke) ein ML04: https://geizhals.de/silverstone-milo-ml04-schwarz-sst-ml04b-10164-a963855.html ... und werde das bald, mal auf ein GD06 umrüsten: https://geizhals.de/silverstone-grandia-gd06b-schwarz-sst-gd06b-10146-a623818.html
Selbst mit der Pico-PSU statt schwerem ATX fegt da niemand was runter...

Ich kenne im HWR eigentlich nur so, wenn etwas runterfallen/umgestoßen werden kann, dann passiert das auch.
Aus Erfahrung kann ich nur sagen, dass der Feinstaub vom Wäschetrockner das grössere Übel ist ;-)
Keller wäre wesentlich "reiner" und kühler.
 
Ich habe eben nachgemessen und hätte hinten zur Rückwand 5cm, wobei mit abgewinkelten Kabeln das kein Problem ist. Luftwiderstand ist dann eher das Thema. Der Schrank hängt an der Wand, sodass die oberen Lüfter im Netzwerkschrank die Luft nach unten drücken und diese unten entweichen kann. Somit könnte die Luft hinten direkt nach unten abgeleitet werden.

5cm sind schon nicht viel, aber wenn ich die Tür raus lasse und dafür sorgen das die warme Luft halbwegs abtransportiert wird, Sollte es gehen. Ich habe ja 12HE und der Server würde 4HE einnehmen. Dann noch 1HE für Switch und 1HE für das Patchpanel. Wenn ich ein Gehäuse mit z.B. 35cm nehme, dann habe ich ja das Problem, dass im Gehäuse alles sehr eng ist. Dafür könnte die Luft hinten besser weg. Optimal ist irgendwie nichts.

Was mich aber etwas erstaunt hat...
Aus Erfahrung kann ich nur sagen, dass der Feinstaub vom Wäschetrockner das grössere Übel ist ;-)
Keller wäre wesentlich "reiner" und kühler.
Wie meinst du das? Wir planen unseren Trockner in den Raum zu stellen.
Beitrag automatisch zusammengeführt:

P.S. Das ein RAID kein Backup ist, ist mir klar. Ich habe mir hier noch keine Gedanken gemacht, ob ich z.B. mit Raid6 einen Ausfall sicherstelle und ein Backup ebenfalls auf dem gleichen Raid System machen, oder auf separate Platten, oder in die Cloud etc. Müsste mich da mehr mit dem Thema Own Cloud etc. auseinandersetzen. Hardware war irgendwie auf der Prioliste weiter oben ;-)
 
Ich habe eben nachgemessen und hätte hinten zur Rückwand 5cm, wobei mit abgewinkelten Kabeln das kein Problem ist. Luftwiderstand ist dann eher das Thema. Der Schrank hängt an der Wand, sodass die oberen Lüfter im Netzwerkschrank die Luft nach unten drücken und diese unten entweichen kann.
...warme Luft steigt aber auf. Ausserdem ist im HWR die Luft in Bodennähe bestiimt kühler als weiter oben im Raum....so viel Druck bis unten im Rack erzeugen diese Lüfter nicht.

Somit könnte die Luft hinten direkt nach unten abgeleitet werden.
s.o.

5cm sind schon nicht viel, aber wenn ich die Tür raus lasse und dafür sorgen das die warme Luft halbwegs abtransportiert wird, Sollte es gehen.
...die Tür sorgt auch dafür, dass überhaupt ne Luftsäule aufgebaut werden könnte, von unten nach oben. Willst Du ein Open-Rack bauen? Dann nimm Regalbretter...geht auch.

Ich habe ja 12HE und der Server würde 4HE einnehmen. Dann noch 1HE für Switch und 1HE für das Patchpanel.
Du braucht min. 1 oder 2 Elemente zum durchreichen vom Patchpanel nach hinten (wo Dein Server die Anschlüsse hat), zB sowas: link
Weiters evtl Platz für einen Router (1HE), ein, zwei Fachböden um zB ein Kabelmodem, Mediakonverter, Fritz draufzustellen (eher 2HE Verbrauch pro Boden Verbrauch), eine Steckdosenleiste (1HE), eine USV (2HE), einen POE-Injektor oder 2ten Switch (je 1HE)

Macht nochmal eher weitere 2-8HE ... wird also eng.
Wenn ich ein Gehäuse mit z.B. 35cm nehme, dann habe ich ja das Problem, dass im Gehäuse alles sehr eng ist. Dafür könnte die Luft hinten besser weg. Optimal ist irgendwie nichts.
Wenn das Ding 50W verbraucht, muss das auch erstmal alles weg.

Wie meinst du das? Wir planen unseren Trockner in den Raum zu stellen.
Ganz einfach...Wäsche macht Flusen, ein WT bewegt die Luft und die Filter halten nicht alles ab...Ich sehe deutliche Unterschiede bei den "Wollmäusen", die sich im HWR und dem Büro ansammeln und beides wird regelmässig gesaugt/geputzt....ich würde empfehlen, die ansaugende Seite der Lüfter mit G3/G4 Fliess "abzudichten".
Wenn Du ne KWL hast, weisst Du was ich meine....braucht man allerdings eben stärkere Lüfter.
 
Eben, Warme Luft steigt auf, i.d.R. baut man das so, vorne unten kalte Luft rein, hinten oben warm raus - ergo würde es also ggf. wirklich Sinn machen ein entsprechendes Mesh-Gitter in die Tür zu packen oder zumindest dort, wo der "Server" dann läuft
Man kann auch Nylonstrumpfhosen als Filter nehmen - lässt sich auch leichter vor die Lüfter spannen...

Eine Kabeldurchführung muss nicht unbedingt als 1HE ausgeführt sein, schaut natürlich schicker aus.

Ein "Backup" auf dem selben RAID wie die Originaldaten ist kein Backup - nicht mal auf der selben Hardware! - entweder man macht das mit ner USB-Platte - regelmäßig - oder ganz ausgelagert in einem 2ten System.
Alles andere ist am Ende nur doppelte Datenhaltung...
 
Ich werde mich mal auf die Seite von von @n3 stellen:

Ich sehe keine ernsthaften Probleme im Privaten Umfeld ein 45cm langes Case in einen 60cm Schrank zu bekommen das paßt problemlos.

Die bisher aufgeführen Dienste/VM's werden im Privaten umfeld kaum leistung ziehen und auch der i7-6800k Broadwell-E ist nicht umbedingt eine Stromschleuder wenn er nicht unter Volldampf laufen muß.

So sehe ich auch keine wirklichen Temperatur Probleme nur wie schon erwähnt würde ich auch den Lüfter oben raussaugen lassen und NICHT reinblasen.
 
Ich sehe keine ernsthaften Probleme im Privaten Umfeld ein 45cm langes Case in einen 60cm Schrank zu bekommen das paßt problemlos.
Das ist schlichtweg falsch. Der Kollege hat ja schon mitbekommen, dass hinten nur 5cm Platz sind. Da passt schonmal der Standard-Kaltgerätestecker nur mit knickendem Kabel rein. Muss man also schonmal einen gewinkelten Stecker nehmen. Weiter geht es dann bei den anderen Kabel. Zum Glück gewinnt man hier etwas Platz, weil das MB und die IO-Slots nochmal gut 1,5cm nach hinten versetzt sind.
Nur bringt man bei starren Kabeln, insbesondere z.B. TFT-Kabel entsprechende Kräfte auf den Port, da das Kabel hinten, durch das Gegendrücken an die Rückwand, entsprechende Kräfte auf den Port am MB/Karte einbringt. Weiter geht es dann mit irgendwelchen DAC- oder auch SAS Kabel die man evtl. auch noch hat.
Pauschal kommt es also sehr darauf an, was man damit am Ende noch macht, bzw. wo man in ein paar Jahren steht. Und das sollte man sich bei den Preisen der Cases überlegen ob man da in 5 Jahren nochmal in das Case investieren will. 5cm Luft hinten ist nicht wirklich viel und für mich weit weg von problemlos.

Auch wenn man bei den aktuellen Anwendungen keine höhere Last erwartet, sollte man nicht vergessen, dass sich die CPU 140W genehmigen kann. Auch die eingesetzte GPU (die mehr oder minder benötigt wird) bringt nochmal bestimmt 10W mit ein. Hinzu kommen der Rest wie HDDs, RAM usw. So langen wir am Ende, bei Volllast der CPU bei lockeren 200W summiert. Das sollte man also im Blick haben und viel wichtiger auch nen Burnin (also Volllast) machen, über 24h. So bekommt man ein Gefühl, wo man im Ernstfall landen könnte und kann z.B. an den Lüftern Hand anlegen. Im Idealfall haben die Lüfter ne Temp-Regelung, sowas ist bei Rittal gefühlt Standard. Sprich, wenns heiß wird, dreht der Lüfter halt auf.

Dennoch halte ich die gedachte Plattform ggf. für ungeeignet, wenn man z.B. in Richtung ZFS gehen möchte. (ECC-RAM) Daraus ergibt sich ggf. eh schon ein anderer Bedarf. Und wenn die HW für die aktuelle Verwendung ausreicht, muss man die ja nicht zwingend wechseln.
Neuere Plattformen sind da eben, auch bei Volllast, stromsparender. Da reden wir natürlich nicht von 10%. Das kann aber schon signifikant sein.
Dennoch ergibt sich auch da das Schaffen der Gewissheit.
Denn, ganz wichtig, vor sich hinkochende HW hat eine geringere Lebensdauer. Sprich, auch wenn die es evtl. noch in der SPEC ist, muss es auf Dauer nicht gut sein.
Daher eben dringlichst darauf achten, was da passiert und ggf. Maßnahmen ergreifen. Kann dann eben alles mögliche sein, stärkere Lüfter, Tempregelung, Gitter usw.

Meine Meinung dazu. Ideal wäre für die Wärme natürlich, wenn vorne und hinten perforiert wäre, wie es eben auch bei richtigen Serverschränken der Fall. Ist halt blöd bei einem Wandschrank.
 
Naja du gehst halt vom maximum von 200Watt aus, so rechnen wir halt in der Firma auch und legen dementsprechend die Serverschränke, USV, Klimaanalagen für aus.

Aber im privaten Umfeld würde ich bei dem PC bei 30-50 Watt Verbrauch ausgehen dazu noch mal 5-20 Watt für den Switch.
Und diese Leistung richtet in den Verteilungsschrank keinen großen Schaden an.

Und selbt wenn der Server mal wirklich auf 100% Last laufen sollte gibt das ja keine Kernschmelze sondern die Intel CPU taktet sich dann sehr schnell auch runter sollte es ihr zu warm werden.


Und klar wäre neue Hardware immer beser, nur macht es Sinn was neues zu kaufen wenn er den 6800K bereits hat und er derzeit eh keine Leistungshungrigen Anwendungen hat?


Wegen den nur 5cm Abstand nach hinten kann man auch entweder die vorderen Befestigungs Schienen um 5cm weiter nach vorne setzen, oder man schraubt den Server mitttels Abstand klötzchen oder Abstandsrohr um 5cm weiter vorne an, dann hat er vorne noch so 3-5cm und hinten halt 10cm Platz und schon gibt es keine Pobleme mehr.

Einen Server in einen 600mm Gehäuse ist halt in meinen Augen immer 'gebastelt' aber das reicht zumindest in meinen Augen im privaten Umfeld voll und ganz aus.
Wenn man natürlich jemand ist der alles immer 100% Perfekt haben will sollte man wie schon geschrieben wurden einen richtigen Serverschrank mit 900-1000mm Tiefe kaufen.
 
Ich gehe zum einen von der Maximallast aus, aber auch davon, dass ne X99 CPU im IDLE bei weitem über einer S1151 CPU liegt und da dann noch die GPU dazukommt.
Die 50W sehe ich bei dem Rechner eher im IDLE, eigentlich sogar minimal mehr. Sprich, wir landen im Grundlastbetrieb mit den Apps irgendwo im höheren zweistelligen Bereich, meiner Meinung nach.
Und klar taktet die CPU runter, aber was macht nen Spannungswandler oder nen Kondensator, wie bekommt der die Temp runter, wenn es im Case mollig warm wird? Da ist keiner mit nem Palmenwedel, der ihm frische Luft zufächelt. Will sagen, es ist ein Unterschied ob eine CPU aufgrund der Umgebungstemp throttelt (und damit zwangsweise auch andere Komponenten bei höheren Temps betrieben werden) oder weil der Kühlkörper, bei passender Umgebungstemp die Wärme nicht wegbekommt.
Mit Switch und ggf. Router sind wir dann schnell bei dreistelliger Leistungsaufnahme.

Und klar wäre neue Hardware immer beser, nur macht es Sinn was neues zu kaufen wenn er den 6800K bereits hat und er derzeit eh keine Leistungshungrigen Anwendungen hat?
Ja, das tut es. Denn er muss so oder so etwas kaufen. Entweder für sich nen neuen Rechner, damit er die alte HW übernehmen kann oder er behält die alte HW und muss dann ServerHW kaufen.

In dem Moment wo ECC dazu kommt, weil man z.B. ZFS fürs NAS will, spätestens da wären wir 100% beim Server Neukauf, egal ob er selber nen neuen Rechner will oder nicht.
Sprich Geld geht in die Sache so oder so rein.
Beitrag automatisch zusammengeführt:

Wegen den nur 5cm Abstand nach hinten kann man auch entweder die vorderen Befestigungs Schienen um 5cm weiter nach vorne setzen,
Da könnte wiederum ein Problem mit den Patchkabel vom Switch/Patchpanel geben, Biegeradius, besonders dann, wenn man sehr Kurze nimmt, weil beides übereinander ist und man keine Schlaufen haben will.
Da musst du stellenweise schon mit dem dicken Arm die Tür zumachen. Und diese Kräfte gehen dann anteilig auf die Ports des Switches. (und das bei jedem Mal, wo man Schrank auf/zu macht)

EDIT:
Was man nicht vergessen sollte, das z.B. realistisch erreichte 100W 24/7 im Jahr nicht nur ~350EUR vom Konto saugen (mal ohne Solar gerechnet), sondern auch gut thermische Last in den Raum selber einbringen.
Wenn man z.B. ~150W 24/7 in einen relativ kleinen Raum pumpt, dann wird es da warm, ganz abgesehen vom Schrank. Im Sommer schon 3x.
Trockner und Co. tragen ihr übriges dazu bei.
Es braucht also keine enorm großen Leistung für ein unschönes Klima. Je nachdem was man selber in dem Raum noch so machen will, wird es auch einem selber eher unangenehm.

Evtl. hat der TE ja die Chance das mal durchzumessen, dann haben wir nen Ansatz.
 
Zuletzt bearbeitet:
Ich meine mit einem 4HE Gehäuse, müsste ich normale Hardware verwenden und dann...
Zu Gehäuse steht oben ja schon alles.

ist die Frage, ob ich meinen aktuellen PC nehme und daraus den Server baue und meinem PC ein Update verpasse, oder ob ich lieber günstigere und neuere Hardware für den Server nehmen sollte. Meine Hardware derzeit ist:
  • i7-6800k Broadwell-E @3,46Hz (Kühler ist min. 120x120mm)
  • EVGA 131-HE-E095
  • 4x G.Skill DDR4-2132 (1066MHz) 8GB
  • nvidia Quadro P620
Da ich hier auch ein Backup/OwnCloud nutzen will, plane ich bisher mit einem RAID5 System aus 3-5 HDDs.

Was denkt ihr, lieber neue und günstigere Hardware und falls ja, welche? Habt ihr auch eine Empfehlung für ein Gehäuse?
Glaubenskrieg...

  • Du solltest in jedem Fall auf ECC-Speicher setzen.
  • 8 GB ist in jeder Variante viel zu wenig.
  • Je nachdem, was Du auch in Zukunft darauf machst in Richtung Virtualisierung sind 6/12 Kerne/Threads arg knapp bemessen.
  • Ist Windows Server mit Hyper-V die eigentliche Plattform oder Windows 10/11, dann läufst Du geradewegs in die MS-Lizenzierungsfalle. Eleganter geht das mit mehr Kernen und mit RHEL/Ubuntu/Fedora/Alma als Serverplattform mit qemu/KVM. Dann kannst Du auch Windows Server 2019/2022 (zB AD+WDS+Backup) auch zweimal installieren, solange die Core-Anzahl passt und genug CALs hast.
  • ...
Bestehende Hardware:
Bleibst Du grundsätzlich bei der Hardware, dann lässt sich nur wenig machen, denn: auch der alte RAM ist bereits so teuer, wie aktueller RAM. Da ist wenig Raum zum optimieren.

Ähnliche Hardware:
  1. Du kannst auf eine Ryzen 7 5700G Plattform mit Billig-Board wie zB Gigabyte A520M (60EUR) gehen. Dadurch hast Du die PCIe Slots frei (integrierte Grafik), aktuellen Speicher und der Ryzen kann auch ECC Speicher. Leider nur 2-Kanal. Das Board bietet nur einen Typ ECC-Speicher an. Da sollte es aber auch andere Boards geben. Vorteil: PCIe 3.0x16 frei. Reicht für einen HW-RAID-Controller oder eine 10G/40G/56G/100G Netzwerkkarte Richtung Workstation.
  2. Statt dem Billig Board ein B550 Board + Ryzen 7 5700G mit 1x PCIe 3.0 x16 und 1x PCIe 3.0 x 4. Passt wieder eine gebrauchte NIC rein mit 10G-100G, sowie ein HW-Raid -Controller. M2 und SATA Ports kann man gut für SSDs verwenden (klar SATA SSD an SATA Port, nicht NVME). Der Vorteil gerade mit Broadcom HW-RAID für die Daten ist, dass es gar nicht auf Deiner CPU liegt und dass es die alten Broadcoms (die für aktuelle SATA/SAS ausreichen) ab 70+ EUR gibt. zB beim 9260-8i kann man dann eben (unter Linux) die SATA-SSDs oder NVME als Cache davorhauen. Hast Du eine alte, schnelle SATA-SSD, idealerweise mit Power Loss Protection, dann geht da was.
Gebrauchter Server:
Wäre bei dem, was Du geschrieben hast meine Wahl. Man will sich ja auch verbessern und ein guter Server mit PCIe Gen3, 16+ Kernen bringt mehr Optionen und die Möglichkeit das Netz zu Hause auf 10G oder mehr upzugraden. Am ehesten würde ich da nach Supermicro schauen: meist günstig gebraucht und Server-Hardware, die aber nahe an aktueller Consumer-Hardware ist. X10/X11 (Intel Generation) oder H11/H12 (AMD Generation) ist da die Wahl. Broadcom Controller laufen eigentlich immer in allen echten Servern, Speicher lässt Du Dir bei Kingston raussuchen: läuft und günstig: https://www.kingston.com/germany/de. Alternativ findet sich ein günstiger 2xCPU Server mit zwei sexy XEON.

Richtig gute Hardware, selbst gebaut - nur Eckpunkte:
  • EPYC low: 7232P + H12SSL-NT oder H12-SSL-CT (beides 10G Netzwerkports) letzte Generation Epyc, PCIe 4.0, 128 PCIe Lanes, da geht was... ca. 700-850 EUR für Board inkl. CPU.
  • WEPYC: TR Pro 3955WX mit M12SWA-TF SuMi Board (nicht auf Geizhals, das Board gibt es schon ab 450 EUR inkl. MwSt. woanders) - 1500 EUR für Board und CPU weg. Dafür PCIe 4.0, unendlich viele PCIe Lanes, 8-Kanal-Speicher,... Das Board alleine erlaubt schon einige M.2 + U.2 Laufwerke, wo eben auch günstige Enterprise NVMEs dran passen.
  • EPYC guut: 7443P + H12SSL-NT oder H12-SSL-CT (beides 10G Netzwerkports) aktuelle Generation Epyc, PCIe 4.0, 128 PCIe Lanes, da geht richtig was: Monster in Preis:IO:Leistung. 1700-1800 EUR für Board + CPU. Mit 24 Kernen, 48 Threads reicht das für alles in Virtualisierung aus und ist ein IO-Monster als NAS etc.

In Preis:Leistung ist der letzte "EPYC guut" unschlagbar. Die Plattform kann für lange Zeit alles. 8-Kanal-Speicher (8 Speicherriegel braucht es da, also alle Bänke voll) haut 200+ GT/s raus. 4, 6, 8 virtuelle Maschinen und je nachdem wie Du Storage planst, kann die nix umhauen...

Weiterer Vorteil bei Epyc low, WEPYC und Epyc guut: Du kannst alle Leistung der Workstation auf den Server auslagern. Selbst die GPU, dann reicht am Arbeitsplatz ein bllig-Kleinstrechner für 400-600 EUR und man hat doch über KVM oder Hyper-V die Performance einer High-End Workstation.

Over and out. Bei Fragen einfach schreiben.
 
Zuletzt bearbeitet:
PS - Supermicro: Supermicro-Gehäuse findest Du günstig auf Geizhals. Auf den ersten Blick eventuell teuer, aber die sind zum Teil inklusive Netzteil und manche mit Hot Swap Einschüben inklusive. Da werden die unter dem Strich richtig günstig. Und bei Supermicro-Boards immer schauen, in welche Richtung der CPU-Sockel schaut - meist sind die 90° gedreht, sodass Du entweder den Supermicro-Kühler kaufen solltest oder einen Standardkühler, den man um 90° drehen kann oder eine AIO oder custom WaKü. Muss man wissen, sonst macht der Kauf von Supermicro im Nachgang keinen Spass (y)
 
Fertige SM-Server als auch 2-CPU Systeme gibts i.d.R. aber nicht in <45cm... - dann kann man die Hardware auch gleich so in den Schrank werfen...

Ich werf mal noch die China-Boards mit ins Rennen - ich selber fahre seit letztem Jahr als Workstation mit einem Atermiter X79 mit nem E5-2650 und 64GB ECC-RAM und ner 1050Ti
3D-Konstruktion macht damit Spaß, zocken geht auch - hat zwar nur 4 SATA-Anschlüsse, aber wenn man ne PCIe-X1 Grafikkarte in den Server steckt bleibt der X16 für nen Controller frei - oder die 4 onboard reichen aus, weil man noch ne NVME-SSD mit aufs Board packen kann.

Da geht dann nochmal was im Preis - is halt nicht die neueste Hardware, tut aber solide seinen Dienst und man hätte eigentlich ne große Auswahl an günstigen CPUs auf dem gebraucht-Markt.
 
Fertige SM-Server als auch 2-CPU Systeme gibts i.d.R. aber nicht in <45cm... - dann kann man die Hardware auch gleich so in den Schrank werfen...
Ich glaube da hat er sich einfach etwas "verkauft" und redet es sich evtl. schön oder will es nicht "seltsam" aussehen lassen, dass das voreilig war.

Nur die Wahrheit ist auch - jeder der tief in dem Thema steckt und da auch vieles umsetzt hat sich schon verkauft oder verbastelt. Da ist der Netzwerkschrank, den man auch auf ebay wieder loseisen kann das Kleinste. Meine "letzten Sünden" der letzten Wochen mag ich auch nicht sehen ;).
 
...warme Luft steigt aber auf. Ausserdem ist im HWR die Luft in Bodennähe bestiimt kühler als weiter oben im Raum....so viel Druck bis unten im Rack erzeugen diese Lüfter nicht.

...die Tür sorgt auch dafür, dass überhaupt ne Luftsäule aufgebaut werden könnte, von unten nach oben. Willst Du ein Open-Rack bauen? Dann nimm Regalbretter...geht auch.
Wären bei den engen Platzangebot hinten ein OpenRack in Sinne davon, dass ich die Tür offen lasse, besser?

Du braucht min. 1 oder 2 Elemente zum durchreichen vom Patchpanel nach hinten (wo Dein Server die Anschlüsse hat), zB sowas: link
Weiters evtl Platz für einen Router (1HE), ein, zwei Fachböden um zB ein Kabelmodem, Mediakonverter, Fritz draufzustellen (eher 2HE Verbrauch pro Boden Verbrauch), eine Steckdosenleiste (1HE), eine USV (2HE), einen POE-Injektor oder 2ten Switch (je 1HE)

Macht nochmal eher weitere 2-8HE ... wird also eng.

Wenn das Ding 50W verbraucht, muss das auch erstmal alles weg.
4HE für das Gehäuse sind da. Aktuell habe ich 1HE Patchpanel, 1HE Durchreiche, 1HE Switch inkl. PoE, 1HE Steckdosen und Ablage. Neben dem Gehäuse und ggf. USV soll nichts mehr rein. Notfalls kommt die USV nicht in den Schrank

Ganz einfach...Wäsche macht Flusen, ein WT bewegt die Luft und die Filter halten nicht alles ab...Ich sehe deutliche Unterschiede bei den "Wollmäusen", die sich im HWR und dem Büro ansammeln und beides wird regelmässig gesaugt/geputzt....ich würde empfehlen, die ansaugende Seite der Lüfter mit G3/G4 Fliess "abzudichten".
Wenn Du ne KWL hast, weisst Du was ich meine....braucht man allerdings eben stärkere Lüfter.
Danke für den Tipp.

Ein "Backup" auf dem selben RAID wie die Originaldaten ist kein Backup - nicht mal auf der selben Hardware! - entweder man macht das mit ner USB-Platte - regelmäßig - oder ganz ausgelagert in einem 2ten System.
Alles andere ist am Ende nur doppelte Datenhaltung...
Danke das du darauf aufmerksam machst. Aktuell sind es noch ein grobes Konzept und durch die Fragen wird es genauer. Derzeit ist der Plan die Daten von den PCs auf den Server zu verlagern. Bisher ist hier nextcloud angedacht, wobei ich nicht weiß, ob ich den Mehrwert gegenüber einer reinen Datenhaltung benötige. Die Daten werden dann aus nextcloud täglich inkremental in die Cloud gesichert. Somit habe ich ein Backup unabhängig vom Standort.
Ich werde mich mal auf die Seite von von @n3 stellen:

Ich sehe keine ernsthaften Probleme im Privaten Umfeld ein 45cm langes Case in einen 60cm Schrank zu bekommen das paßt problemlos.

Die bisher aufgeführen Dienste/VM's werden im Privaten umfeld kaum leistung ziehen und auch der i7-6800k Broadwell-E ist nicht umbedingt eine Stromschleuder wenn er nicht unter Volldampf laufen muß.

So sehe ich auch keine wirklichen Temperatur Probleme nur wie schon erwähnt würde ich auch den Lüfter oben raussaugen lassen und NICHT reinblasen.
Danke für deine Sichtweise. Ich verstehe die Problematik der Anderen und es sensibilisiert mich bzgl. der Probleme. Derzeit laufen ja zwei VMs parallel auf meinem PC und da sehe ich ja, dass die Last nicht so groß ist. Klar, der Server wird mehr machen.

Das ist schlichtweg falsch. Der Kollege hat ja schon mitbekommen, dass hinten nur 5cm Platz sind. Da passt schonmal der Standard-Kaltgerätestecker nur mit knickendem Kabel rein. Muss man also schonmal einen gewinkelten Stecker nehmen. Weiter geht es dann bei den anderen Kabel. Zum Glück gewinnt man hier etwas Platz, weil das MB und die IO-Slots nochmal gut 1,5cm nach hinten versetzt sind.
Nur bringt man bei starren Kabeln, insbesondere z.B. TFT-Kabel entsprechende Kräfte auf den Port, da das Kabel hinten, durch das Gegendrücken an die Rückwand, entsprechende Kräfte auf den Port am MB/Karte einbringt. Weiter geht es dann mit irgendwelchen DAC- oder auch SAS Kabel die man evtl. auch noch hat.
Pauschal kommt es also sehr darauf an, was man damit am Ende noch macht, bzw. wo man in ein paar Jahren steht. Und das sollte man sich bei den Preisen der Cases überlegen ob man da in 5 Jahren nochmal in das Case investieren will. 5cm Luft hinten ist nicht wirklich viel und für mich weit weg von problemlos.
Hm, ich werde da aber nicht so viele Anschlüsse haben. Stromkabel und Netzwerk zum Switch. Wozu ein TFT Kabel? Den Server richtige ich einmal außerhalb des Schrankes ein, dann kommt er in den Schrank, wird gebootet und ich greife remote darauf zu.

Auch wenn man bei den aktuellen Anwendungen keine höhere Last erwartet, sollte man nicht vergessen, dass sich die CPU 140W genehmigen kann. Auch die eingesetzte GPU (die mehr oder minder benötigt wird) bringt nochmal bestimmt 10W mit ein. Hinzu kommen der Rest wie HDDs, RAM usw. So langen wir am Ende, bei Volllast der CPU bei lockeren 200W summiert. Das sollte man also im Blick haben und viel wichtiger auch nen Burnin (also Volllast) machen, über 24h. So bekommt man ein Gefühl, wo man im Ernstfall landen könnte und kann z.B. an den Lüftern Hand anlegen. Im Idealfall haben die Lüfter ne Temp-Regelung, sowas ist bei Rittal gefühlt Standard. Sprich, wenns heiß wird, dreht der Lüfter halt auf.
GPU wird nicht benötigt. Den Server den du hast, plane ich ja nicht.
Dennoch halte ich die gedachte Plattform ggf. für ungeeignet, wenn man z.B. in Richtung ZFS gehen möchte. (ECC-RAM) Daraus ergibt sich ggf. eh schon ein anderer Bedarf. Und wenn die HW für die aktuelle Verwendung ausreicht, muss man die ja nicht zwingend wechseln.
Neuere Plattformen sind da eben, auch bei Volllast, stromsparender. Da reden wir natürlich nicht von 10%. Das kann aber schon signifikant sein.
Dennoch ergibt sich auch da das Schaffen der Gewissheit.
Denn, ganz wichtig, vor sich hinkochende HW hat eine geringere Lebensdauer. Sprich, auch wenn die es evtl. noch in der SPEC ist, muss es auf Dauer nicht gut sein.
Daher eben dringlichst darauf achten, was da passiert und ggf. Maßnahmen ergreifen. Kann dann eben alles mögliche sein, stärkere Lüfter, Tempregelung, Gitter usw.

Meine Meinung dazu. Ideal wäre für die Wärme natürlich, wenn vorne und hinten perforiert wäre, wie es eben auch bei richtigen Serverschränken der Fall. Ist halt blöd bei einem Wandschrank.
Ich bin jetzt davon weg, meine aktuelle Hardware zu verwenden. Plane den Server neu zu bauen, überlege aber ggf. etwas gebrauchtes zu holen. Tendenz ist aber eher Neuanschaffung, da ich längerfristige mit arbeiten will. Ich bin derzeit auch am überlegen, ob ich überhaupt ECC-RAM brauche. Wenn es nur die 50€ pro 16GB sind, kann ich das hinnehmen, aber wenn jetzt dadurch CPU und MB teurer werden, ist das Fraglich. Ich will ja kein reines NAS als Backup, sondern Firewall, Home Server, etc. und ja, aber meine Daten darauf lagern, aber ein Backup der Daten ist dann in der Cloud.

Naja du gehst halt vom maximum von 200Watt aus, so rechnen wir halt in der Firma auch und legen dementsprechend die Serverschränke, USV, Klimaanalagen für aus.

Aber im privaten Umfeld würde ich bei dem PC bei 30-50 Watt Verbrauch ausgehen dazu noch mal 5-20 Watt für den Switch.
Und diese Leistung richtet in den Verteilungsschrank keinen großen Schaden an.

Und selbt wenn der Server mal wirklich auf 100% Last laufen sollte gibt das ja keine Kernschmelze sondern die Intel CPU taktet sich dann sehr schnell auch runter sollte es ihr zu warm werden.


Und klar wäre neue Hardware immer beser, nur macht es Sinn was neues zu kaufen wenn er den 6800K bereits hat und er derzeit eh keine Leistungshungrigen Anwendungen hat?


Wegen den nur 5cm Abstand nach hinten kann man auch entweder die vorderen Befestigungs Schienen um 5cm weiter nach vorne setzen, oder man schraubt den Server mitttels Abstand klötzchen oder Abstandsrohr um 5cm weiter vorne an, dann hat er vorne noch so 3-5cm und hinten halt 10cm Platz und schon gibt es keine Pobleme mehr.

Einen Server in einen 600mm Gehäuse ist halt in meinen Augen immer 'gebastelt' aber das reicht zumindest in meinen Augen im privaten Umfeld voll und ganz aus.
Wenn man natürlich jemand ist der alles immer 100% Perfekt haben will sollte man wie schon geschrieben wurden einen richtigen Serverschrank mit 900-1000mm Tiefe kaufen.
Ich hatte auch schon überlegt, ob ich die Schiene vorne irgendwie umplazieren kann, damit ich hinten mehr als 5cm habe. Ich sehe es auch, dass ich keine 200W auf Dauer haben werde. Klar ist, dass ich die Temperatur sorgfältig beobachten werde. Sollte es dann kritisch werden, kann ich nachjustieren.

Glaubenskrieg...
  • Du solltest in jedem Fall auf ECC-Speicher setzen.
  • 8 GB ist in jeder Variante viel zu wenig.
  • Je nachdem, was Du auch in Zukunft darauf machst in Richtung Virtualisierung sind 6/12 Kerne/Threads arg knapp bemessen.
  • Ist Windows Server mit Hyper-V die eigentliche Plattform oder Windows 10/11, dann läufst Du geradewegs in die MS-Lizenzierungsfalle. Eleganter geht das mit mehr Kernen und mit RHEL/Ubuntu/Fedora/Alma als Serverplattform mit qemu/KVM. Dann kannst Du auch Windows Server 2019/2022 (zB AD+WDS+Backup) auch zweimal installieren, solange die Core-Anzahl passt und genug CALs hast.
  • ...
Die Frage nach ECC ist aktuell noch offen. Brauche ich es wirklich, wenn ich kein ZFS/NAS haben will? Aktuell habe ich auch nicht 8GB, sondern 4x 8GB also 32GB.
Ich denke auch, dass ich viele Kerne benötige und hier kann es schnell sehr teuer werde. Werde hier also schauen was sich preislich am meisten lohnt. AMD Threadripper wäre sicherlich nett, aber der Preis... Es wird wohl kein Threadripper/Xeon werden.

Bestehende Hardware:
Bleibst Du grundsätzlich bei der Hardware, dann lässt sich nur wenig machen, denn: auch der alte RAM ist bereits so teuer, wie aktueller RAM. Da ist wenig Raum zum optimieren.

Ähnliche Hardware:
  1. Du kannst auf eine Ryzen 7 5700G Plattform mit Billig-Board wie zB Gigabyte A520M (60EUR) gehen. Dadurch hast Du die PCIe Slots frei (integrierte Grafik), aktuellen Speicher und der Ryzen kann auch ECC Speicher. Leider nur 2-Kanal. Das Board bietet nur einen Typ ECC-Speicher an. Da sollte es aber auch andere Boards geben. Vorteil: PCIe 3.0x16 frei. Reicht für einen HW-RAID-Controller oder eine 10G/40G/56G/100G Netzwerkkarte Richtung Workstation.
  2. Statt dem Billig Board ein B550 Board + Ryzen 7 5700G mit 1x PCIe 3.0 x16 und 1x PCIe 3.0 x 4. Passt wieder eine gebrauchte NIC rein mit 10G-100G, sowie ein HW-Raid -Controller. M2 und SATA Ports kann man gut für SSDs verwenden (klar SATA SSD an SATA Port, nicht NVME). Der Vorteil gerade mit Broadcom HW-RAID für die Daten ist, dass es gar nicht auf Deiner CPU liegt und dass es die alten Broadcoms (die für aktuelle SATA/SAS ausreichen) ab 70+ EUR gibt. zB beim 9260-8i kann man dann eben (unter Linux) die SATA-SSDs oder NVME als Cache davorhauen. Hast Du eine alte, schnelle SATA-SSD, idealerweise mit Power Loss Protection, dann geht da was.
GPU brauche ich eigentlich nicht. Etwas integriertes sollte reichen. Netzwerk wäre wichtig, damit ich meinen Switch (Zyxel-GS1920) anschließen kann. Plane bisher auch eher SW-RAID. In den anderen Beiträgen wird auch davon abgeraten HW-RAID zu nehmen. Wenn ich dich richtig verstehe, dann würdest du HW-RAID nehmen, um die CPU zu entlasten, oder gebe es noch weitere Vorteile?

Gebrauchter Server:
Wäre bei dem, was Du geschrieben hast meine Wahl. Man will sich ja auch verbessern und ein guter Server mit PCIe Gen3, 16+ Kernen bringt mehr Optionen und die Möglichkeit das Netz zu Hause auf 10G oder mehr upzugraden. Am ehesten würde ich da nach Supermicro schauen: meist günstig gebraucht und Server-Hardware, die aber nahe an aktueller Consumer-Hardware ist. X10/X11 (Intel Generation) oder H11/H12 (AMD Generation) ist da die Wahl. Broadcom Controller laufen eigentlich immer in allen echten Servern, Speicher lässt Du Dir bei Kingston raussuchen: läuft und günstig: https://www.kingston.com/germany/de. Alternativ findet sich ein günstiger 2xCPU Server mit zwei sexy XEON.
Ich habe mich mal grob umgeschaut und die meisten gebrauchten Server sind nicht in 450mm tiefen Gehäusen zu bekommen. Es ist ja professionelle Hardware für Serverschränke und ich habe "nur" einen Netzwerkschrank mit 600mm Tiefe. Daher scheidet die Option aus, außer ich gehe weg vom Netzwerkschrank.

Richtig gute Hardware, selbst gebaut - nur Eckpunkte:
  • EPYC low: 7232P + H12SSL-NT oder H12-SSL-CT (beides 10G Netzwerkports) letzte Generation Epyc, PCIe 4.0, 128 PCIe Lanes, da geht was... ca. 700-850 EUR für Board inkl. CPU.
  • WEPYC: TR Pro 3955WX mit M12SWA-TF SuMi Board (nicht auf Geizhals, das Board gibt es schon ab 450 EUR inkl. MwSt. woanders) - 1500 EUR für Board und CPU weg. Dafür PCIe 4.0, unendlich viele PCIe Lanes, 8-Kanal-Speicher,... Das Board alleine erlaubt schon einige M.2 + U.2 Laufwerke, wo eben auch günstige Enterprise NVMEs dran passen.
  • EPYC guut: 7443P + H12SSL-NT oder H12-SSL-CT (beides 10G Netzwerkports) aktuelle Generation Epyc, PCIe 4.0, 128 PCIe Lanes, da geht richtig was: Monster in Preis:IO:Leistung. 1700-1800 EUR für Board + CPU. Mit 24 Kernen, 48 Threads reicht das für alles in Virtualisierung aus und ist ein IO-Monster als NAS etc.

In Preis:Leistung ist der letzte "EPYC guut" unschlagbar. Die Plattform kann für lange Zeit alles. 8-Kanal-Speicher (8 Speicherriegel braucht es da, also alle Bänke voll) haut 200+ GT/s raus. 4, 6, 8 virtuelle Maschinen und je nachdem wie Du Storage planst, kann die nix umhauen...

Weiterer Vorteil bei Epyc low, WEPYC und Epyc guut: Du kannst alle Leistung der Workstation auf den Server auslagern. Selbst die GPU, dann reicht am Arbeitsplatz ein bllig-Kleinstrechner für 400-600 EUR und man hat doch über KVM oder Hyper-V die Performance einer High-End Workstation.

Over and out. Bei Fragen einfach schreiben.
Das wäre natürlich sehr schick, aber der Preis...
PS - Supermicro: Supermicro-Gehäuse findest Du günstig auf Geizhals. Auf den ersten Blick eventuell teuer, aber die sind zum Teil inklusive Netzteil und manche mit Hot Swap Einschüben inklusive. Da werden die unter dem Strich richtig günstig. Und bei Supermicro-Boards immer schauen, in welche Richtung der CPU-Sockel schaut - meist sind die 90° gedreht, sodass Du entweder den Supermicro-Kühler kaufen solltest oder einen Standardkühler, den man um 90° drehen kann oder eine AIO oder custom WaKü. Muss man wissen, sonst macht der Kauf von Supermicro im Nachgang keinen Spass (y)
Wie oben schon geschrieben, habe ich keine 450mm tiefen mit 4HE gefunden, damit ich günstigere Consumer Hardware verbauen kann.
 
  • Ist Windows Server mit Hyper-V die eigentliche Plattform oder Windows 10/11, dann läufst Du geradewegs in die MS-Lizenzierungsfalle. Eleganter geht das mit mehr Kernen und mit RHEL/Ubuntu/Fedora/Alma als Serverplattform mit qemu/KVM. Dann kannst Du auch Windows Server 2019/2022 (zB AD+WDS+Backup) auch zweimal installieren, solange die Core-Anzahl passt und genug CALs hast.
Der Hyper-V Server ist kostenlos: "Die Standalone-Ausführung Microsoft Hyper-V Server 2016 ist kostenlos erhältlich und entspricht einer Windows-Server-2016-Installation in der Core Edition ohne grafische Benutzeroberfläche und mit aktivierter Hyper-V-Rolle." Laut Wiki. Als Alternative habe ich hier jetzt häufiger proxmox gelesen. Habe aber noch die Vor- und Nachteile nicht so identifiziert.
 
Hyper-V Server ist kostenlos, das ist korrekt; den gibt es allerdings ab der Serverversion 2022 nicht mehr, man muss somit auf Version 19 oder 16 bspw zurückgreifen.
Und solange du bspw eine lizenzierte W10/11 hast mit aktivierter Hyper-V Rolle läuft du auch nicht in eine Lizenzfalle. Welche denn auch, Server 19/22 wird nach Cores lizenziert, wobei jeder Server mit min. 16 Cores und jede CPU mit min 8 Cores gewertet wird (es muss die Hardware lizenziert werden und nicht das was du an eine VM weiterreichst). Dazu sind 2 OSE bei der Standard Version inkludiert, wie du die aufsplittest ist dir überlassen. Wenn du nen andren Hypervisor nutzt, kannste 2 VMs lizensieren oder 2 Hyper-V Container; willste bspw Server 19 Std als Hypervisor, dann geht nur noch 1 VM mit dieser Lizenz.
CALs brauchste nur für die Anzahl der Clients die drauf zugreifen und hat erstmal mit der OS Lizenzierung nix zu tun.
 
Die Frage nach ECC ist aktuell noch offen.
Du brauchst ECC nur auf Maschinen, von denen Du Daten langfristig behalten willst. Das ist unabhängig von ZFS. Speicherst Du keine wichtigen Daten auf der Maschine, dann musst Du nur überlegen, wie wichtig Dir das einwandfreie funktionieren ist. Nimmst Du es mit "Server" nur ein bisschen ernst, dann willst Du immer ECC. Ist auch nicht viel teurer, hat eben kein Bling Bling und übertakten wirst Du den eh nicht.

Davon ab, ist es eine Wohltat, wenn die Maschine so gar nicht ungeplant abschmiert (zumindest unter Linux/BSD, Windows zickt mal, wenn ein Treiber nicht ganz passt). Kein ECC: Kiste schmiert gerne mal ab - idR. 2mal pro Jahr (die Statistik gibt es tatsächlich).

Ab hier kannst Du entscheiden. Für meinen Teil kann ich mir einen Server ohne ECC so gar nicht vorstellen.

Ich denke auch, dass ich viele Kerne benötige und hier kann es schnell sehr teuer werde. Werde hier also schauen was sich preislich am meisten lohnt. AMD Threadripper wäre sicherlich nett, aber der Preis... Es wird wohl kein Threadripper/Xeon werden.
Die Frage ist was für eine Maschine und was für Kerne. NAS, Hyper-V für Office etc, da reicht auch evtl ein Rome oder Naples Epyc.

Tipp: Kommst Du günstig an einen gebrauchten EPYC 7371 (16 Kerne) oder EPYC 7542 (32 Kerne), eventuell gar zwei, dann hau rein, gerade der 7371 sollte jetzt öfter gebraucht erhältlich sein. Auf ebay gibt es einen Italiener der haut alle 4 Monate solche Epycs mit 1 € Startgebot raus. Manche verkauft er richtig teuer, andere gehen weg, dass einem die Tränen kommen: zB ein TR Pro 3955X für 520 EUR (und immer brav mit paypal Käuferschutz ;) ). Alle CPUs, die ich nannte, habe eine respektable single core Leistung, die noch auf der Höhe der Zeit sind (der 3955WX sowieso).

Als reinen Server bevorzuge eher Epyc, eben wegen Preis es sei denn Dir kommt eine günstiger TR Pro unter.

GPU brauche ich eigentlich nicht. Etwas integriertes sollte reichen.
Daher mein Vorschlag einer richtig günstigen Lösung auf Basis 5700G oder 5600G. CPU+MB knapp über 300 neu.

Netzwerk wäre wichtig, damit ich meinen Switch (Zyxel-GS1920) anschließen kann. Plane bisher auch eher SW-RAID. In den anderen Beiträgen wird auch davon abgeraten HW-RAID zu nehmen. Wenn ich dich richtig verstehe, dann würdest du HW-RAID nehmen, um die CPU zu entlasten, oder gebe es noch weitere Vorteile?
HW-RAID, SW-RAID ist aktuell eher eine Glaubensfrage. Fühlst Du Dich sicher mit einem SW-RAID und kennst Dich aus, dann klar: gute Lösung. Ist es eher ein: lass mich in Ruhe und funktioniere (sofern Alerting an ist), dann wäre es eher ein HW-Raid Controller.

Meine Erfahrung:
HW-RAID: schneller als die Software-Raids (mit wenigen Ausnahmen) mit Cache und Cache-SSDs sind die nach wie vor richtig gut. Das kann man auch mit SW-RAID konfigurieren nur Windows oder Linux (mdadm) haben da noch Luft nach oben. Speziell mdadm ist kein performance-Monster (seit letztem großen Patch gehts im lesen, im schreiben blutet der immer noch).

SW-RAID: für Spezialeinsätze, insbesondere NVME PCIe 4.0 Laufwerke gibt es zB raidix und Konsorten. Die brennen richtig ab (noch mehr mit P5800X). Die erreichen dann eben auch in der Realität das theoretische physikalische Maximum zu 95%+ (außerdem kostenlos für bis zu 4 nvme). Aber auch da musst Du wissen was Du tust.

Ich habe mich mal grob umgeschaut und die meisten gebrauchten Server sind nicht in 450mm tiefen Gehäusen zu bekommen. Es ist ja professionelle Hardware für Serverschränke und ich habe "nur" einen Netzwerkschrank mit 600mm Tiefe. Daher scheidet die Option aus, außer ich gehe weg vom Netzwerkschrank.
Also mal ehrlich: angenommen der Netzwerkschrank war ein eher suboptimaler Kauf, weil Du nicht sooooo ganz an die Länge dachtest.... Was ist besser: alle Käufe ab hier an dem "suboptimalen Kauf" ausrichten (und nie ganz zufrieden sein), oder den Schrank einfach verkaufen zB auf ebay und es richtig gut machen?

Das wäre natürlich sehr schick, aber der Preis...
Immer relativ! Für ca. 3,5 K kommt da schon ein ansehnliches Komplettsystem raus. Andere kaufen für 4,5 - 12K einen Gaming-Computer. Da klingt der Server vernünftiger...

Wie oben schon geschrieben, habe ich keine 450mm tiefen mit 4HE gefunden, damit ich günstigere Consumer Hardware verbauen kann.
Dann nimm einen Zwischenboden und leg einfach ein Kleingehäuse rein. Dann ist es eben nicht auf Schienen. Sieht weniger Profi aus, aber die "Tower im 19" auf dem Zwischenboden-Lösung" sah ich schon bei Firmen jeder Größe - inkl. der Großbanken. Sieh nur zu, dass die Belüftung für Dich passt: Arctic P12 PWM und P14 PWM sind da Dein Freund (bzw. auch PST) - billig, leise, hoher Luftdruck.
 
HW-RAID, SW-RAID ist aktuell eher eine Glaubensfrage. Fühlst Du Dich sicher mit einem SW-RAID und kennst Dich aus, dann klar: gute Lösung. Ist es eher ein: lass mich in Ruhe und funktioniere (sofern Alerting an ist), dann wäre es eher ein HW-Raid Controller.

Meine Erfahrung:
HW-RAID: schneller als die Software-Raids (mit wenigen Ausnahmen) mit Cache und Cache-SSDs sind die nach wie vor richtig gut. Das kann man auch mit SW-RAID konfigurieren nur Windows oder Linux (mdadm) haben da noch Luft nach oben. Speziell mdadm ist kein performance-Monster (seit letztem großen Patch gehts im lesen, im schreiben blutet der immer noch).

SW-RAID: für Spezialeinsätze, insbesondere NVME PCIe 4.0 Laufwerke gibt es zB raidix und Konsorten. Die brennen richtig ab (noch mehr mit P5800X). Die erreichen dann eben auch in der Realität das theoretische physikalische Maximum zu 95%+ (außerdem kostenlos für bis zu 4 nvme). Aber auch da musst Du wissen was Du tust.
ähm... nö! - einfach nö! - Hardware RAID kann z.B. nicht wie ZFS oder BTRFS Snapshots oder gar Integrität der Daten an sich prüfen, desweiteren hat es keine Features wie Dedup und Co.
Natürlich gibt es Szenarien in denen Hardware-RAID ganz ok ist, z.B. ein RAID1 für die OS-Installation auf nem System das sonst nicht viel macht, aber für alles andere würde ich immer ein Software-RAID in einer entsprechenden OS-Lösung nehmen - selbst die großen Storagesysteme machen kein HardwareRAID mehr sondern ein entsprechendes SoftwareRAID mit Überwachung.

Also mal ehrlich: angenommen der Netzwerkschrank war ein eher suboptimaler Kauf, weil Du nicht sooooo ganz an die Länge dachtest.... Was ist besser: alle Käufe ab hier an dem "suboptimalen Kauf" ausrichten (und nie ganz zufrieden sein), oder den Schrank einfach verkaufen zB auf ebay und es richtig gut machen?
Der Netzwerkschrank hängt aber an der Wand - ein Serverschrank wird das also nicht werden - wenn der Platz dafür nicht da ist, muss man damit leben und da ist es ggf. schon einfacher auf diese "Bastellösungen" zu greifen, als sich in die andere Richtung zu verbiegen - es gibt ja einen Nischenmarkt der auch für entsprechendes Geld bedient wird - hier sollte man eben das beste draus machen!

Immer relativ! Für ca. 3,5 K kommt da schon ein ansehnliches Komplettsystem raus. Andere kaufen für 4,5 - 12K einen Gaming-Computer. Da klingt der Server vernünftiger...
für 4,5-12k kauf ich mir ein Auto, aber sicher keinen PC... meine letzten Investitionen lagen bei <1000€ und reichen die nächsten 3-5 Jahre...
kommt also auch immer drauf an...
 
ähm... nö! - einfach nö! - Hardware RAID kann z.B. nicht wie ZFS oder BTRFS Snapshots oder gar Integrität der Daten an sich prüfen,
Ein RAID ist kein Filesystem. ZFS macht keinen Sinn auf einem eigenen Software- oder Hardware-RAID.

selbst die großen Storagesysteme machen kein HardwareRAID mehr sondern ein entsprechendes SoftwareRAID mit Überwachung.
Sag das mal Broadcom. Die sind also pleite und wissen es noch nicht.

für 4,5-12k kauf ich mir ein Auto, aber sicher keinen PC... meine letzten Investitionen lagen bei <1000€ und reichen die nächsten 3-5 Jahre...
Meinungen eben. Würde @konfetti ernsthaft etwas im Umfeld 3D o.ä. machen, dann würde er merken, dass er für <1000€ nicht mal die halbe Grafikkarte bekommt, die er braucht. Und nur im Serverbereich sind bei Neusystemen <1000€ mehr als eng. Selbst gebraucht wird es ab 16 Kernene + Storage etc eng.

kommt also auch immer drauf an...
Ob man RAID mit einem Filesesystem vergleicht oder nicht. Ja, ich weiß: ZFS ist das einzig Wahre (Glaubenskrieg :d ).
 
Ein RAID ist kein Filesystem. ZFS macht keinen Sinn auf einem eigenen Software- oder Hardware-RAID.
Eben, ZFS macht keinen Sinn auf HardwareRAID - ZFS ersetzt dein HardwareRAID - ZFS ist eben mehr als nur RAID...
Sag das mal Broadcom. Die sind also pleite und wissen es noch nicht.
Ich weiß zwar nicht, was Du da jetzt genau verwechselst, aber wenn Du Dir eben die großen Storagesysteme (HPE, DELL, you-name-it) anschaust, wirst Du sehn, das z.B. eine 3PAR kein reines HardwareRAID ist, das auch eine Eternus kein reines HardwarRAID ist, das NIMBLE gleich 2x kein HardwareRAID ist...

Meinungen eben. Würde @konfetti ernsthaft etwas im Umfeld 3D o.ä. machen, dann würde er merken, dass er für <1000€ nicht mal die halbe Grafikkarte bekommt, die er braucht. Und nur im Serverbereich sind bei Neusystemen <1000€ mehr als eng. Selbst gebraucht wird es ab 16 Kernene + Storage etc eng.
Ich weiß zwar nicht was Du genommen hast, aber hier ein 19" Serversystem für den Company-Produktivbereich mit der Anforderung @home in nem Netzwerkschrank zu vergleichen hat auch nichts mit "Ernsthaft 3D" zu tun.
3D ist vieles und doch so wenig... - wenn man nicht auf Echtzeit3DUltrarealistisch steht und das nicht braucht, kommt man auch heute noch sehr gut mit ner Grafikkarte um die 300€ hin. - Hat vor 2-3 Jahren auch gereicht...
Ob man RAID mit einem Filesesystem vergleicht oder nicht. Ja, ich weiß: ZFS ist das einzig Wahre (Glaubenskrieg :d ).
Das ist kein Glaubenskrieg, sondern eine Frage des Verständnisses...

-
Wir sollten also wieder auf die Ursprungsausführung des TE zurückkommen und Ihn in SEINER Suche unterstützten.
Für den Einstieg in die eigene "IT-Welt zu Hause" würde ich durchaus erst einmal versuchen mit dem geringesten Aufwand zurecht zu kommen, da die Hardware in 3-4 Jahren eh ersetzt werden wird, kann er bis dahin ja Erfahrungen sammeln und sich auch um einen richtigen Serverschrank gedanken machen...
 
HW-RAID, ZFS, 3PAR, Eternus, NIMBLE, unreines Hardware-RAID und ja ZFS (das wahre, eine RAID) >>> Hardware-RAID. Aber ZFS immer mit dedup... :poop:

Wir sollten also wieder auf die Ursprungsausführung des TE zurückkommen und Ihn in SEINER Suche unterstützten.
Jo, frage ich mich seit Deinem letzten und vorletzten Posting, weil null relevanter Inhalt zum Thema des OP.
 
Ich stecke in der Materie nicht so tief drinne, aber 4,5k bis 12k für einen Gaming PC finde ich auch übertrieben. Ich habe kurz geschaut und das teuerste was man kaufen kann lag bei 6k. Sicherlich gibt es vielleicht jemanden der sich etwas noch potenteres hinstellt, aber wir reden hier von absoluten Einzelfällen. Klar, ich interessiere mich auch für Autos und ein V12 Sauger ist sicherlich was schickes und es gibt Menschen die sich sowas kaufen, aber mir reicht auch ein aufgeladener 4 Zylinder und wenn der Geldbeutel es zulässt ist ein Reihen-Sechs-Zylinder für mich mehr als ausreichend. Wieder auf den Server bezogen muss man ja festhalten, dass ich aktuell meine VMs parallel auf meinem normalen Rechner betreibe. Klar wird es auf dem Server mehr, aber es wird sich in Grenzen halten. Auch habe ich keinen Platz für einen Serverschrank, sondern muss hier mit den Netzwerkschrank klar kommen.

Meine aktuelle Liste sieht daher wie folgt aus:
- Eines der oben von mir genannten Gehäuse, wobei ich nicht weiß ob RM41-H08 oder RM41-506
- Ryzen 7 Pro 5750G mit 8/16 Kernen
- Mainboard B550M Tuf Gaming
- RAM 32GB/64GB ECC hier noch unklar was genau
- Proxmox anstelle Hyper-V
- Netzwerkkarte wird wohl Onboard bleiben, da mein Swicht Zyxcel GS1920-24HPv2 eh nur 1Gbit kann
 
Bei den Gehäusen würde ich schauen, was Du an Storage planst.
ansonsten ist GH ja hier ganz hilfreich:

wie oben schon geschrieben, wenn Du mehr Platz hast, auch gut, ggf. könntest Du auf 45cm Tiefe gehn, dann sollte aber die Glastür durch eine perforierte Front ersetzt werden.

Mach doch einmal ein Foto von Deinem Schrank, mit Lineal, wo man sieht, wieviel Platz vom 19" Rahmen bis vorne zur Tür ist.
 
Ich stecke in der Materie nicht so tief drinne, aber 4,5k bis 12k für einen Gaming PC finde ich auch übertrieben.
Aktuell liegen GraKas und High-End SSDs preislich jenseits von allem.

dass ich aktuell meine VMs parallel auf meinem normalen Rechner betreibe.

Klar wird es auf dem Server mehr, aber es wird sich in Grenzen halten. Auch habe ich keinen Platz für einen Serverschrank, sondern muss hier mit den Netzwerkschrank klar kommen.
Wenn Du das so schreibst, wird es viel mehr ;). Alles gut, geht wohl fast jedem so.

Meine aktuelle Liste sieht daher wie folgt aus:
- Eines der oben von mir genannten Gehäuse, wobei ich nicht weiß ob RM41-H08 oder RM41-506
- Ryzen 7 Pro 5750G mit 8/16 Kernen
- Mainboard B550M Tuf Gaming
- RAM 32GB/64GB ECC hier noch unklar was genau
- Proxmox anstelle Hyper-V
- Netzwerkkarte wird wohl Onboard bleiben, da mein Swicht Zyxcel GS1920-24HPv2 eh nur 1Gbit kann
Finde ich gut, außer: ich weiß nicht ob Du das Asus B550M Tuf Gaming wirklich brauchst. Durch den 5750G Pro ist der Bus eh PCIe 3.0. Heißt: Du kannst genauso gut ein A550 Board nehmen. Übertakten kannst Du auch nicht, insofern musst du auch nicht auf VRMs schauen. Heißt:
Mit einer (Zusatz-)Karte würde auch ein A550 Board reichen (bis zu 100€ gespart, die kannst woanders brauchen). Mit zwei oder mehr Karten je nach PCIe lane Anforderungen dann doch ein x570.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh