[Sammelthread] HomeServer Vorstellung - Bilder + Kommentare

In der Tat, kam noch ne Evo960 dazu inzwischen, hat aber quasi nichts verändert 42-43W idle. Je nach Raumptemp (Fanspeed).
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hoffe das ist ok, hier mal kein Server sondern meine "Workstation":

Noch etwas work-in-progress, aber funktional ist's jetzt und das Grobe steht.

Mainboard: ASRock TRX40 Taichi
CPU: AMD TR 3960X
RAM: 64GB Kingston HyperX 3600@CL17 (non-ECC)
GPU1: RTX 2080Ti
GPU2: GTX TitanXp (mit Monitor-Dummy)
USB: Renesas USB3.0 Controller-Karte
SSD1: Samsung SM961 1TB
SSD2: Intel 660p 2TB
NIC: Mellanox Connectx-4 (Dual QSFP28 100Gbit)
Case: Thermaltake Core P7 TG

Sonstiges:
Kühlung: Watercool CPU- & GPU-Block, Aquacomputer Aquaero 6, Aquacomputer DFS High Flow USB
Lüfter: 2x Noctua Chromax 140
USB: Acquacomputer Vision, 8-fach USB-Hub mit diversen USB-Geräten

01_WorkstationNah_klein.jpg


Wie der ein oder andere vielleicht schon in anderen Threads gesehen hat, ist das besondere an diesem Build, dass da nicht einfach Windows oder Linux darauf installiert ist. Vielmehr laufen darauf 2 Systeme als virtuelle Machinen mit ESXi als Basis, und eine VM davon ist so konfiguriert , dass sie sich von einer ganz normalen Windows Installation quasi nicht unterscheidet.

VM1 Einsatzzweck: Spielen lokal am Rechner
OS: Windows 10 Pro
Passthrough-Hardware: 2080Ti, Renesas USB3.0 Controller-Karte, Samsung SSD SM961 (OS), Intel 660p (Spiele), Aquacomputer-USB-Geräte (Aquaero, DFS)

ESXi:
VM1.jpg


Screenshot (Ausschnitt) aus der laufenden lokalen VM1:

ScreenshotVM1.png


VM2 Einsatzzweck: Game-Streaming (headless)
OS: Windows 10 Pro
Passthrough-Hardware: TitanXp
Streaming: Nvidia Game Streaming mit Moonlight als Client-Software

ESXi:
VM2.jpg


Screenshot aus der laufenden Streaming-VM2 (connected über Moonlight):

VM2_Streaming.jpg


Muss mal schauen, ob ich nach all den Wochen des Frickelns und Ausprobierens mal ein kleines HowTo bzw. Worklog schreibe.
 
Zuletzt bearbeitet:
Und warum genau installierst du Moonlight jetzt nicht auf der selben Maschine wie deine "normale"?
Oder spielen auf der zweiten VM andere Personen als du?
 
Genau, den Gamer kann ich auch problemlos streamen - aber an den darf der Rest der Familie oder Freunde nicht dran. :d
 
Aaaaaah :-) D.h. für dich hast ne VM mit der 2080 Ti und für den Rest dann die Titan Xp :d


Wie machst du das mit der GPU für ESXi?
Ich hatte mal was ähnliches geplant - damals mit unRAID, da hatte ich dann aber das Problem das ich nicht beide GPUs an je eine VM durchreichen konnte.
Der Plan war damals für mich eine VM mit 1080 Ti und eine weitere VM für Office Arbeiten mit der iGPU der CPU einzurichten und das ging eben nicht, weil unRAID die primäre GPU immer für sich nimmt.
Wie macht das ESXi?
 
Zuletzt bearbeitet:
ESXi geht auch komplett headless, d.h. wenn du nach der Installation einmal das management Netzwerk konfiguriert hast, brauchst Du eigentlich keinen Monitor oder Peripherie an der Kiste. Server halt. ;)

Bootet also auch, wenn Du ESXi alle GPUs „wegnimmst“. So auch in meiner aktuellen Kiste, der 3960X hat ja keine iGPU und das Board hat auch nix.
 
Ja, sollte unraid ja eigentlich auch so machen - aber tut es nicht.

Muss ich mich wohl nochmal mit ESXi hinsetzen :d
 
Ist alles eine gewisse Pest. Bei ESXi ist’s anscheinend schwieriger die GPU mit Passthrough zum Laufen zu bekommen.
 
Ja, bei unraid gehts relativ easy.
Aber eben, dafür braucht es eine weitere GPU nur für unraid - wo aber normal keine GUI läuft ...
 
Was war denn das Problem mit dem Headless Unraid ?
Und mit welcher Version hattest du das ausprobiert ?
 
Ich konnte die Primäre GPU einfach nicht anderweitig zu weisen weil die dem Host OS (Unraid) zugewiesen war.
Welche Version das genau war weiss ich nicht mehr.

Es gabs damals zwar ein "Workaround" das man der 1080Ti das BIOS in der VM nochmal zuteilt, aber das wollte bei mir auch nicht so richtig funktionieren.
Habe das dann aber auch nicht weiter verfolgt, weil es damals auch nur eine spielerei war.
 
Intel I5 4570
ASRock H97 Killer
2*4GB DDR 3 1600Mhz Kingston
Bei quiet Pure Power CM 550W
Thermaltake Urban S31
Crucial SSD 250Gb
8 TB Western Digital
4 TB Western Digital
3 TB Western Digital
2 TB Samsung

Darauf läuft openmediavault 4
Transmission
syncthing
Plex Server
Handbrake mit watch folder

Idle mit HDD Spindown Knapp über 30W.
73dbefe61e8c24c0243faa4b2ca6f32e.jpg


Gesendet von meinem Mi A2 mit Tapatalk
 
Zuletzt bearbeitet:
Das ist doch auch nur ein normales Linux drunter, da kann man die Ausgabe auch auf die serielle Konsole lenken, ne GPU brauchts da sicher nicht.
 
@ Nacrana

Daddelkiste und Serverboard ... mmmmhm ... neeeee

@ sch4kal

ich kann nur sagen was ich gesehen hab, sobald ich die primäre GPU einer VM zuweisen wollte ging dies nicht, da die GPU schon dem Host zugewiesen ist.

Wie gesagt, ich hab damals das dann nicht weiter verfolgt.
Und das ist jetzt auch gut schon 1 - 1 1/2 Jahre her ... kann gut sein das es nun anders ist.
 
Sorry, sind diese: HyperX HX436C17PB3K2/32 Predator DDR4 32GB (Kit 2x16GB), 3600MHz CL17 DIMM XMP

Davon halt 2 Kits. Hatte das mit CL14 noch in Erinnerung als die mit 3200 liefen. Aktuell stumpf auf XMP Profil ohne Tuning.
 
Zuletzt bearbeitet:
Intel I5 4570
ASRock H97 Killer
2*4GB DDR 3 1600Mhz Kingston
Bei quiet Pure Power CM 550W
Thermaltake Urban S31
Crucial SSD 250Gb
8 TB Western Digital
4 TB Western Digital
3 TB Western Digital
2 TB Samsung

Darauf läuft openmediavault 4
Transmission
syncthing
Plex Server
Handbrake mit watch folder

Idle mit HDD Spindown Knapp über 30W.

Gesendet von meinem Mi A2 mit Tapatalk

Ich habe eine ähnliche Config in Unraid laufen.
I5-4670K auf einem Asrock H97 Pro
5 Platten drin
1 Cache SSD
SAS Controller.

im Spindown mit 4 Docker Containern braucht meine Kiste 55 Watt. Das ist mir ehrlich gesagt deutlich zuviel und ich überlege ob es Sinn ergibt sich was neues anzuschaffen um auf dauer strom zu sparen. Das Problem ist, dass wir demnächst ins Eigenheim ziehen und ich dementsprechend Home Automation usw als Container auf dem Ding laufen lassen möchte. Aber bei 55 Watt summiert sich das ganz schnell.

Jemand Vorschläge ?
 
Idle wenn die Festplatten laufen sind es 45W. Und dein Controller wird bestimmt auch 10W brauchen.
 
Mehr, hab das h97 fatality mal gemessen mit einer ssd, 4x ram, g1620, an nem BQ B8 System Power 300w, ganze 13w im idle, da ist also offensichtlich noch einiges nicht im schlaf.
 
13W bei vier Ram-Riegeln ist schon völlig unglaubwürdig. Die nehmen mind 1,5W pro Stück, Module ab 16 GB auch gerne 2-2,5W/St.
Fehlerhaftes Messgerät.
Ich lasse mich allerdings schon Recht häufig über falsche Messwerte aus.
Beispiel: Mein Celeron j3455 ("10W TDP"), 1x4Gb RAM, eine DVB-S2/Max S8 und eine 1TB Samsung 840 EVO hatten 26 W hinter dem Netzteil (Effizienz?!).
Ein 300W Netzteil bei "gemessenen" 13W dürfte ja eher einem "Real"Verbrauch von 10W entsprechen. Das ist Unsinn bei Deiner genannten Konfig.

Macht bitte hier den Fragenden nicht ständig komische Vorstellungen von Verbräuchen. Die kaufen dann noch den -5W sparsameren Prozessor für 100€ und wundern sich dann, dass sie mit ihrem eigenen Messgerät keine -25W realisieren...
 
Es waren 4x 2gb 1,35v, zugegeben, nicht wirklich 0815, aber wohl vergleibchabar mit 2x4gb normalen.
Uund dass ich dabei natürlich den idle meine, und das auch 100% so meine ist hoffentlich auch klar, das ding stand vor dem ablesen etwa 2h ohne Aufgaben rum. Ebenfalls mit allem deaktiviert, im UEFI, was nicht nötig ist, inkl usb...
Gemessen mit zusätzlichem Verbraucher von 44w auf der Leiste, das mache ich ebenfalls immer so, weil die kleinen Messwert mein Gerät eher nicht korrekt an zeigt.
Aber selbst wenn ich das mit dem RAM falsch im Kopf haben sollte, sagt dein Erfahrungswert pro Modul ja, dass wird im Extremfall 7,5w drauf rechnen müssten, was etwa 20-21w machen würde, die 10w von Hugo bestätigen würde.
So weit weg sind wir also nicht.
Ich würde dem Controller eher so 12-14w zuschreiben.
 
Macht es den HDDs was aus wenn sie im Betrieb zwischn 19 und 23°C haben?

Hab mein NAS bei uns im Schlafzimmer in eine Zwischenwand gestellt und da sind aktuell 10°C.
 
Das stimmt nicht. Zunächst, schau doch mal beim Hersteller nach der Betriebstemperatur nach. Des Weiteren hat Google mal vor ein paar Jahren einen Test gemacht, wo eine HDD-Temperatur von 35-45 °C sich positiv auf die Lebensdauer auswirkt.
Hier ist die Studie: http://static.googleusercontent.com/media/research.google.com/en//archive/disk_failures.pdf
Darin auch der Verweis auf Cole (2000): "Temperature is often quoted as the most important envi-ronmental factor affecting disk drive reliability. Previousstudies have indicated that temperature deltas as low as 15C can nearly double disk drive failure rates."
Nimmt man also eine Raumtemperatur von 22 °C an, dann sind unterhalb von 37 °C HDD-Temperatur höhere Ausfallraten zu erwarten.
Somit solltest du den Server entweder da rausnehmen und an einen wärmeren Ort stellen, oder eine Heizung für die HDDs einbauen (Peltierelemente z.B.) oder auf SSDs umsteigen.
 
Also bei mir laufen schon seit jahren zwischen 4c und 20c. Wer die Temp schlecht, würde er schon Alarm geben.
Ich mag es sogar nicht wenn Festplatten um die 40c und wärmer werden. Bringt sie nicht um aber nea.

Eine .pdf aus dem Jahre 1999 bis 2007 ?

Seagate gibt bei den Nas Festplatten an: Temperatur im Betrieb (Umgebung, min. °C) 5, WD gibt bei den Red ab 0°C an.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh