...warme Luft steigt aber auf. Ausserdem ist im HWR die Luft in Bodennähe bestiimt kühler als weiter oben im Raum....so viel Druck bis unten im Rack erzeugen diese Lüfter nicht.
...die Tür sorgt auch dafür, dass überhaupt ne Luftsäule aufgebaut werden könnte, von unten nach oben. Willst Du ein Open-Rack bauen? Dann nimm Regalbretter...geht auch.
Wären bei den engen Platzangebot hinten ein OpenRack in Sinne davon, dass ich die Tür offen lasse, besser?
Du braucht min. 1 oder 2 Elemente zum durchreichen vom Patchpanel nach hinten (wo Dein Server die Anschlüsse hat), zB sowas:
link
Weiters evtl Platz für einen Router (1HE), ein, zwei Fachböden um zB ein Kabelmodem, Mediakonverter, Fritz draufzustellen (eher 2HE Verbrauch pro Boden Verbrauch), eine Steckdosenleiste (1HE), eine USV (2HE), einen POE-Injektor oder 2ten Switch (je 1HE)
Macht nochmal eher weitere 2-8HE ... wird also eng.
Wenn das Ding 50W verbraucht, muss das auch erstmal alles weg.
4HE für das Gehäuse sind da. Aktuell habe ich 1HE Patchpanel, 1HE Durchreiche, 1HE Switch inkl. PoE, 1HE Steckdosen und Ablage. Neben dem Gehäuse und ggf. USV soll nichts mehr rein. Notfalls kommt die USV nicht in den Schrank
Ganz einfach...Wäsche macht Flusen, ein WT bewegt die Luft und die Filter halten nicht alles ab...Ich sehe deutliche Unterschiede bei den "Wollmäusen", die sich im HWR und dem Büro ansammeln und beides wird regelmässig gesaugt/geputzt....ich würde empfehlen, die ansaugende Seite der Lüfter mit G3/G4 Fliess "abzudichten".
Wenn Du ne KWL hast, weisst Du was ich meine....braucht man allerdings eben stärkere Lüfter.
Danke für den Tipp.
Ein "Backup" auf dem selben RAID wie die Originaldaten ist kein Backup - nicht mal auf der selben Hardware! - entweder man macht das mit ner USB-Platte - regelmäßig - oder ganz ausgelagert in einem 2ten System.
Alles andere ist am Ende nur doppelte Datenhaltung...
Danke das du darauf aufmerksam machst. Aktuell sind es noch ein grobes Konzept und durch die Fragen wird es genauer. Derzeit ist der Plan die Daten von den PCs auf den Server zu verlagern. Bisher ist hier nextcloud angedacht, wobei ich nicht weiß, ob ich den Mehrwert gegenüber einer reinen Datenhaltung benötige. Die Daten werden dann aus nextcloud täglich inkremental in die Cloud gesichert. Somit habe ich ein Backup unabhängig vom Standort.
Ich werde mich mal auf die Seite von von
@n3 stellen:
Ich sehe keine ernsthaften Probleme im Privaten Umfeld ein 45cm langes Case in einen 60cm Schrank zu bekommen das paßt problemlos.
Die bisher aufgeführen Dienste/VM's werden im Privaten umfeld kaum leistung ziehen und auch der i7-6800k Broadwell-E ist nicht umbedingt eine Stromschleuder wenn er nicht unter Volldampf laufen muß.
So sehe ich auch keine wirklichen Temperatur Probleme nur wie schon erwähnt würde ich auch den Lüfter oben raussaugen lassen und NICHT reinblasen.
Danke für deine Sichtweise. Ich verstehe die Problematik der Anderen und es sensibilisiert mich bzgl. der Probleme. Derzeit laufen ja zwei VMs parallel auf meinem PC und da sehe ich ja, dass die Last nicht so groß ist. Klar, der Server wird mehr machen.
Das ist schlichtweg falsch. Der Kollege hat ja schon mitbekommen, dass hinten nur 5cm Platz sind. Da passt schonmal der Standard-Kaltgerätestecker nur mit knickendem Kabel rein. Muss man also schonmal einen gewinkelten Stecker nehmen. Weiter geht es dann bei den anderen Kabel. Zum Glück gewinnt man hier etwas Platz, weil das MB und die IO-Slots nochmal gut 1,5cm nach hinten versetzt sind.
Nur bringt man bei starren Kabeln, insbesondere z.B. TFT-Kabel entsprechende Kräfte auf den Port, da das Kabel hinten, durch das Gegendrücken an die Rückwand, entsprechende Kräfte auf den Port am MB/Karte einbringt. Weiter geht es dann mit irgendwelchen DAC- oder auch SAS Kabel die man evtl. auch noch hat.
Pauschal kommt es also sehr darauf an, was man damit am Ende noch macht, bzw. wo man in ein paar Jahren steht. Und das sollte man sich bei den Preisen der Cases überlegen ob man da in 5 Jahren nochmal in das Case investieren will. 5cm Luft hinten ist nicht wirklich viel und für mich weit weg von problemlos.
Hm, ich werde da aber nicht so viele Anschlüsse haben. Stromkabel und Netzwerk zum Switch. Wozu ein TFT Kabel? Den Server richtige ich einmal außerhalb des Schrankes ein, dann kommt er in den Schrank, wird gebootet und ich greife remote darauf zu.
Auch wenn man bei den aktuellen Anwendungen keine höhere Last erwartet, sollte man nicht vergessen, dass sich die CPU 140W genehmigen kann. Auch die eingesetzte GPU (die mehr oder minder benötigt wird) bringt nochmal bestimmt 10W mit ein. Hinzu kommen der Rest wie HDDs, RAM usw. So langen wir am Ende, bei Volllast der CPU bei lockeren 200W summiert. Das sollte man also im Blick haben und viel wichtiger auch nen Burnin (also Volllast) machen, über 24h. So bekommt man ein Gefühl, wo man im Ernstfall landen könnte und kann z.B. an den Lüftern Hand anlegen. Im Idealfall haben die Lüfter ne Temp-Regelung, sowas ist bei Rittal gefühlt Standard. Sprich, wenns heiß wird, dreht der Lüfter halt auf.
GPU wird nicht benötigt. Den Server den du hast, plane ich ja nicht.
Dennoch halte ich die gedachte Plattform ggf. für ungeeignet, wenn man z.B. in Richtung ZFS gehen möchte. (ECC-RAM) Daraus ergibt sich ggf. eh schon ein anderer Bedarf. Und wenn die HW für die aktuelle Verwendung ausreicht, muss man die ja nicht zwingend wechseln.
Neuere Plattformen sind da eben, auch bei Volllast, stromsparender. Da reden wir natürlich nicht von 10%. Das kann aber schon signifikant sein.
Dennoch ergibt sich auch da das Schaffen der Gewissheit.
Denn, ganz wichtig, vor sich hinkochende HW hat eine geringere Lebensdauer. Sprich, auch wenn die es evtl. noch in der SPEC ist, muss es auf Dauer nicht gut sein.
Daher eben dringlichst darauf achten, was da passiert und ggf. Maßnahmen ergreifen. Kann dann eben alles mögliche sein, stärkere Lüfter, Tempregelung, Gitter usw.
Meine Meinung dazu. Ideal wäre für die Wärme natürlich, wenn vorne und hinten perforiert wäre, wie es eben auch bei richtigen Serverschränken der Fall. Ist halt blöd bei einem Wandschrank.
Ich bin jetzt davon weg, meine aktuelle Hardware zu verwenden. Plane den Server neu zu bauen, überlege aber ggf. etwas gebrauchtes zu holen. Tendenz ist aber eher Neuanschaffung, da ich längerfristige mit arbeiten will. Ich bin derzeit auch am überlegen, ob ich überhaupt ECC-RAM brauche. Wenn es nur die 50€ pro 16GB sind, kann ich das hinnehmen, aber wenn jetzt dadurch CPU und MB teurer werden, ist das Fraglich. Ich will ja kein reines NAS als Backup, sondern Firewall, Home Server, etc. und ja, aber meine Daten darauf lagern, aber ein Backup der Daten ist dann in der Cloud.
Naja du gehst halt vom maximum von 200Watt aus, so rechnen wir halt in der Firma auch und legen dementsprechend die Serverschränke, USV, Klimaanalagen für aus.
Aber im privaten Umfeld würde ich bei dem PC bei 30-50 Watt Verbrauch ausgehen dazu noch mal 5-20 Watt für den Switch.
Und diese Leistung richtet in den Verteilungsschrank keinen großen Schaden an.
Und selbt wenn der Server mal wirklich auf 100% Last laufen sollte gibt das ja keine Kernschmelze sondern die Intel CPU taktet sich dann sehr schnell auch runter sollte es ihr zu warm werden.
Und klar wäre neue Hardware immer beser, nur macht es Sinn was neues zu kaufen wenn er den 6800K bereits hat und er derzeit eh keine Leistungshungrigen Anwendungen hat?
Wegen den nur 5cm Abstand nach hinten kann man auch entweder die vorderen Befestigungs Schienen um 5cm weiter nach vorne setzen, oder man schraubt den Server mitttels Abstand klötzchen oder Abstandsrohr um 5cm weiter vorne an, dann hat er vorne noch so 3-5cm und hinten halt 10cm Platz und schon gibt es keine Pobleme mehr.
Einen Server in einen 600mm Gehäuse ist halt in meinen Augen immer 'gebastelt' aber das reicht zumindest in meinen Augen im privaten Umfeld voll und ganz aus.
Wenn man natürlich jemand ist der alles immer 100% Perfekt haben will sollte man wie schon geschrieben wurden einen richtigen Serverschrank mit 900-1000mm Tiefe kaufen.
Ich hatte auch schon überlegt, ob ich die Schiene vorne irgendwie umplazieren kann, damit ich hinten mehr als 5cm habe. Ich sehe es auch, dass ich keine 200W auf Dauer haben werde. Klar ist, dass ich die Temperatur sorgfältig beobachten werde. Sollte es dann kritisch werden, kann ich nachjustieren.
Glaubenskrieg...
- Du solltest in jedem Fall auf ECC-Speicher setzen.
- 8 GB ist in jeder Variante viel zu wenig.
- Je nachdem, was Du auch in Zukunft darauf machst in Richtung Virtualisierung sind 6/12 Kerne/Threads arg knapp bemessen.
- Ist Windows Server mit Hyper-V die eigentliche Plattform oder Windows 10/11, dann läufst Du geradewegs in die MS-Lizenzierungsfalle. Eleganter geht das mit mehr Kernen und mit RHEL/Ubuntu/Fedora/Alma als Serverplattform mit qemu/KVM. Dann kannst Du auch Windows Server 2019/2022 (zB AD+WDS+Backup) auch zweimal installieren, solange die Core-Anzahl passt und genug CALs hast.
- ...
Die Frage nach ECC ist aktuell noch offen. Brauche ich es wirklich, wenn ich kein ZFS/NAS haben will? Aktuell habe ich auch nicht 8GB, sondern 4x 8GB also 32GB.
Ich denke auch, dass ich viele Kerne benötige und hier kann es schnell sehr teuer werde. Werde hier also schauen was sich preislich am meisten lohnt. AMD Threadripper wäre sicherlich nett, aber der Preis... Es wird wohl kein Threadripper/Xeon werden.
Bestehende Hardware:
Bleibst Du grundsätzlich bei der Hardware, dann lässt sich nur wenig machen, denn: auch der alte RAM ist bereits so teuer, wie aktueller RAM. Da ist wenig Raum zum optimieren.
Ähnliche Hardware:
- Du kannst auf eine Ryzen 7 5700G Plattform mit Billig-Board wie zB Gigabyte A520M (60EUR) gehen. Dadurch hast Du die PCIe Slots frei (integrierte Grafik), aktuellen Speicher und der Ryzen kann auch ECC Speicher. Leider nur 2-Kanal. Das Board bietet nur einen Typ ECC-Speicher an. Da sollte es aber auch andere Boards geben. Vorteil: PCIe 3.0x16 frei. Reicht für einen HW-RAID-Controller oder eine 10G/40G/56G/100G Netzwerkkarte Richtung Workstation.
- Statt dem Billig Board ein B550 Board + Ryzen 7 5700G mit 1x PCIe 3.0 x16 und 1x PCIe 3.0 x 4. Passt wieder eine gebrauchte NIC rein mit 10G-100G, sowie ein HW-Raid -Controller. M2 und SATA Ports kann man gut für SSDs verwenden (klar SATA SSD an SATA Port, nicht NVME). Der Vorteil gerade mit Broadcom HW-RAID für die Daten ist, dass es gar nicht auf Deiner CPU liegt und dass es die alten Broadcoms (die für aktuelle SATA/SAS ausreichen) ab 70+ EUR gibt. zB beim 9260-8i kann man dann eben (unter Linux) die SATA-SSDs oder NVME als Cache davorhauen. Hast Du eine alte, schnelle SATA-SSD, idealerweise mit Power Loss Protection, dann geht da was.
GPU brauche ich eigentlich nicht. Etwas integriertes sollte reichen. Netzwerk wäre wichtig, damit ich meinen Switch (Zyxel-GS1920) anschließen kann. Plane bisher auch eher SW-RAID. In den anderen Beiträgen wird auch davon abgeraten HW-RAID zu nehmen. Wenn ich dich richtig verstehe, dann würdest du HW-RAID nehmen, um die CPU zu entlasten, oder gebe es noch weitere Vorteile?
Gebrauchter Server:
Wäre bei dem, was Du geschrieben hast meine Wahl. Man will sich ja auch verbessern und ein guter Server mit PCIe Gen3, 16+ Kernen bringt mehr Optionen und die Möglichkeit das Netz zu Hause auf 10G oder mehr upzugraden. Am ehesten würde ich da nach Supermicro schauen: meist günstig gebraucht und Server-Hardware, die aber nahe an aktueller Consumer-Hardware ist. X10/X11 (Intel Generation) oder H11/H12 (AMD Generation) ist da die Wahl. Broadcom Controller laufen eigentlich immer in allen echten Servern, Speicher lässt Du Dir bei Kingston raussuchen: läuft und günstig:
https://www.kingston.com/germany/de. Alternativ findet sich ein günstiger 2xCPU Server mit zwei sexy XEON.
Ich habe mich mal grob umgeschaut und die meisten gebrauchten Server sind nicht in 450mm tiefen Gehäusen zu bekommen. Es ist ja professionelle Hardware für Serverschränke und ich habe "nur" einen Netzwerkschrank mit 600mm Tiefe. Daher scheidet die Option aus, außer ich gehe weg vom Netzwerkschrank.
Richtig gute Hardware, selbst gebaut - nur Eckpunkte:
- EPYC low: 7232P + H12SSL-NT oder H12-SSL-CT (beides 10G Netzwerkports) letzte Generation Epyc, PCIe 4.0, 128 PCIe Lanes, da geht was... ca. 700-850 EUR für Board inkl. CPU.
- WEPYC: TR Pro 3955WX mit M12SWA-TF SuMi Board (nicht auf Geizhals, das Board gibt es schon ab 450 EUR inkl. MwSt. woanders) - 1500 EUR für Board und CPU weg. Dafür PCIe 4.0, unendlich viele PCIe Lanes, 8-Kanal-Speicher,... Das Board alleine erlaubt schon einige M.2 + U.2 Laufwerke, wo eben auch günstige Enterprise NVMEs dran passen.
- EPYC guut: 7443P + H12SSL-NT oder H12-SSL-CT (beides 10G Netzwerkports) aktuelle Generation Epyc, PCIe 4.0, 128 PCIe Lanes, da geht richtig was: Monster in Preis:IO:Leistung. 1700-1800 EUR für Board + CPU. Mit 24 Kernen, 48 Threads reicht das für alles in Virtualisierung aus und ist ein IO-Monster als NAS etc.
In Preis:Leistung ist der letzte "EPYC guut" unschlagbar. Die Plattform kann für lange Zeit alles. 8-Kanal-Speicher (8 Speicherriegel braucht es da, also alle Bänke voll) haut 200+ GT/s raus. 4, 6, 8 virtuelle Maschinen und je nachdem wie Du Storage planst, kann die nix umhauen...
Weiterer Vorteil bei Epyc low, WEPYC und Epyc guut: Du kannst alle Leistung der Workstation auf den Server auslagern. Selbst die GPU, dann reicht am Arbeitsplatz ein bllig-Kleinstrechner für 400-600 EUR und man hat doch über KVM oder Hyper-V die Performance einer High-End Workstation.
Over and out. Bei Fragen einfach schreiben.
Das wäre natürlich sehr schick, aber der Preis...
PS - Supermicro: Supermicro-Gehäuse findest Du günstig auf Geizhals. Auf den ersten Blick eventuell teuer, aber die sind zum Teil inklusive Netzteil und manche mit Hot Swap Einschüben inklusive. Da werden die unter dem Strich richtig günstig. Und bei Supermicro-Boards immer schauen, in welche Richtung der CPU-Sockel schaut - meist sind die 90° gedreht, sodass Du entweder den Supermicro-Kühler kaufen solltest oder einen Standardkühler, den man um 90° drehen kann oder eine AIO oder custom WaKü. Muss man wissen, sonst macht der Kauf von Supermicro im Nachgang keinen Spass
Wie oben schon geschrieben, habe ich keine 450mm tiefen mit 4HE gefunden, damit ich günstigere Consumer Hardware verbauen kann.