[Kaufberatung] PC für 24/7 VM-Betrieb

lol^^

Enthusiast
Thread Starter
Mitglied seit
24.03.2007
Beiträge
3.319
Ort
Aachen
Hallo liebes Forum,

kurz zu meiner Ausgangsposition:
Wir möchten unser Heimnetzwerk mit einem Server erweitern auf welchem eine oder zwei virtuelle Maschinen laufen. Diese werden hauptsächlich dazu genutzt über einen VPN Zugang des Routers von Außen mit einer Windows-Oberfläche auf unsere Dateien, Kameras und Haussteuerung zugreifen zu können. Des Weiteren sollen dort auch ein paar Skripte laufen bzw. evtl. auch ein Gameserver drauf laufen. Letzteres hat allerdings keine hohe Priorität. Unser Netzwerk ist bereits ausgestattet mit einem Haupt-NAS (Netgear 626x) und einem Backup-NAS ebenfalls von Netgear.

Unser erster Versuch war ein Synology Diskmanager ds718+ ausgestattet mit 2x Samsung 850 Evo 500GB. Doch selbst eine virtuelle Windows 10 Maschine mit 4GB Ram und 3x1,5Ghz kommt an seine Grenzen und bietet für unsere nicht genug Leistung. Meine Idee war nun Folgende:

Ryzen 1700
32GB Ram
2x500GB Samsung 850 evo 500GB im RAID 0
Windows Server 2016

Ich muss gestehen, dass ich mich mittlerweile mit NAS-Konfigurationen und Netzwerkanbindung etwas auskenne, aber einen eigenen Server mit virtuellen Maschinen habe ich noch nie aufgesetzt. Funktioniert meine Idee (Server 2016, welcher einzelne Windows 10 VMs verwaltet) grundsätzlich? und brauche ich pro virtuelle Maschine einen dedizierten LAN Port, um per Remotedesktop drauf zu greifen zu können?

Ich würde mich freuen, wenn mir ein paar helfen könnten:) Auf dem Weg zum Ziel werden sich bestimmt noch ein paar Fragen ergeben, die ich dann hier stellen werde.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Verstehe ich das richtig: Dein plan ist, du möchtest 1-2 Windows VMs haben, auf die du per Remote/Teamviewer etc von aussen zugreifst, um von da aus Kameres zu steuern?
 
Es geht hier mehr oder weniger nicht um den vollkommenen Sinn der Angelegenheit. Eher Spaß an Technik mit gleichzeitig etwas Nutzen;)

Plan ist:
- Per VPN auf unser Heimnetzwerk/Kameras über eine Windowsumgebung zugreifen zu können
- Matlab/ Simulink Skripte rechnen lassen
- Download Skripte von Datenbanken laufen lassen (Nein, nichts Illegales!)

Das alles soll von überall aus der Welt funktionieren, sofern eine Internetverbindung zur Verfügung steht.

Es stellt sich ebenfalls die Frage, welche Hardware ich am Besten anschaffen soll.
 
Zuletzt bearbeitet:
Ryzen und 24/7-Betrieb beißt sich, da Ryzen-Systeme im Leerlauf nicht effizient genug sind. Auch ist ein Achtkerner für dein Vorhaben wohl etwas überdimensioniert. Zumindest kann man die schwächlichen Atom-Kerne der DS718+ jedenfalls nicht als Beleg dafür nehmen, daß ein sparsamer 1151-Xeon hier nicht ausreichen würde. VMs brauchen keine eigene Netzwerkkarte, das Stichwort ist Bridging (Bridge (Netzwerk) – Wikipedia).
 
Ein PC ist im Verständnis der HW Hersteller ein persönlicher Computer der als Arbeitsgerät eines Mitarbeiters auf dessen Schreibtisch steht, morgen eingeschaltet und abends ausgemacht wird und dazwischen auch eher wenig zu tun hat, also nicht dauernd Volllast läuft. So wird die HW ausgelegt, wie z.B. die einfachen Desktopplatten die nur für maximal 2400 Power-On Hours im Jahr vorgesehen sind. Rechner die eine bestimmte Aufgabe erfüllen und auch von mehreren genutzt werden, sind Workstations wenn einer direkt daran arbeitet oder Server, wenn sie headless betrieben werden. Die HW von Workstations und Servern ist auf 24/7 Betrieb ausgelegt und auch darauf dauernd unter Last zu arbeiten.

Einen "PC für 24/7 Betrieb" gibt es daher per Definition schon mal nicht, denn bei 24/7 Betrieb ist es kein PC mehr, selbst wenn man dafür PC HW einsetzt.
 
Wollte nur nachfragen ob ich das richtig verstanden hab - nicht den Sinn infrage stellen.

Der 1700 ist für Workstaions/VM Sachen absolut geeigent, in deinem Fall würde ich aber mal sagen ist der echt ne Nummer zu groß. Das dein win10 mit 3 kernen nicht gut läuft ist eher der Virtualisierungstechnologie geschuldet - ich hab hier einen VMServer mit einem i5 Haswell - und da laufen 7 VMs (1xWin10, 3xWin Server 2012r2 und 3 Linux für router und NAS). Die Haben alle 1-2 Kerne und laufen 1A. (möchtest du 10+ VMs haben, könnte man über ein 1700 nachdenken).

Nachteil am Ryzen ist uA. auch das er DDR4 braucht (ddr3 ist zZ günstiger und absolut ausreichend), und eine iGPU haben sie auch nicht - mit einem Haswelle i3-i7 (oder xeon) bekommt man all das, genügend Power und ein besseren Idle Verbrauch (wobei ryzen jetzt nicht so furchbar wäre).

Als Software würde ich ESXi oder Hyper-V Server vorschlagen (beides 4free) - von der Leistung geben die sich nicht viel, ich persönlich bevorzuge ESXi. Und wie bereits erwähnt reicht eine Netzwerkkarte aus - der VM server gibt sich erstmal als "switch" aus, und daran hängen beliebig viele Virtuelle Netzwerkkarten (mit vms dran). Hardware NICs machen nur bei Bonding oder getrennten Management/Storage netzwerken Sinn.
 
Vielen Dank für die ausführliche Antwort. Ich hab jetzt folgendes bestellt:

AMD Ryzen 1700
Noctua NH-L9x65
2x16 GB Corsair DDR4
Asus B350M TUF
DeLOCK PCI Express Karte (89346)
Zotac GT710 2GB
BeQuiet Straight Power 10 500W
Sharkoon CA-M

Ich weiß, dass bspw. das Netzteil etwas überdimensioniert ist. Aber es war das Einzige mit 80+ Gold und Kabelmanagement, welches morgen früh per Post kommt. Ich denke, damit lässt sich echt was anfangen:)

Ich habe schon viel positive über VMware Workstation 14 gehört. Habt ihr damit Erfahrung? Soweit ich weiß, basiert das auch auf ESXi und soll eine benutzerfreundliche Oberfläche haben. Das wäre mir als "Amateur" recht wichtig.
 
Zuletzt bearbeitet:
Warum die (bzw. überhaupt eine) Grafikkarte?

VMs sind keine Raketenwissenschaft. Schau Dir auch mal die kostenlose Alternative VirtualBox (Oracle VM VirtualBox) an.
Wenn der Rechner nichts anderes macht, als 2 VMs zu hosten, ist Server 2016 Overkill und rausgeworfenes Geld.
 
Die Grafikkarte dient nur als Displayadapter, sollte ich mal mit dem Monitor drauf müssen. Denn Ryzen fehlt ja die iGPU.

Eine Server 2016 Lizenz hab ich schon.
 
Zuletzt bearbeitet:
@Limax - Hyper-V server ist ist gratis

Zum Server.

1. ESXi

ESXi ist nicht zwangsweise was für Bastelanfänger - es gibt sogenannte ESXi Whitebox konfigurationen. Das sind PC komponenten (hauptsächlich mainboards) die komplett von ESXi unterstüzt werden. Was du mit esxi zb NICHT nutzen kannst

- Fake-RAIDs (die ganzen onboard "raid"-controller - und Softwareraid geht auch nicht)
- Eine hohe Anzahl von Netzwerkkarten (Intel, HP etc ist meist kein Problem - Realtek muss man, wenn überhaupt, selbst Treiber installieren, per SSH. Was wiederum eine Netzwerkverbindung voraussetzt - und ein bisschen Erfahrung)

2. VM Ware Workstation

Kann mit den gleichen VMs wie ESXi umgehen, "basiert" aber nicht darauf. ESXi ist ein komplett eigenes Betreibssystem, mit diversen Features wie Clustering, Failover und SAN - während die Workstation "nur" eine Software innerhalb von Windows ist (Lokal ist der Hyper-V Manager ähnlich gut und ist schon "dabei")

3. Windows Server

- Wenn du nicht den Hyper-V als Untersatz nimmst, sondern einen normalen mit GUI etc, brauchst du pro 2 Server auf einer Hardware eine Lizenz (also 2vms + host geht nicht mit einer)
- Grafikkarte brauchst du wie Limax schon sagt, eigentlich nicht - nur fürs setup und eventuelle Fehlerbehebungen (also wenn du dir in einem anderen Rechner für den Zweck eine leihen kannst, reicht das eigentlich)
- Zu den 2 SSD: FakeRaid macht allgemein gerne mal Probleme + die Performance ist mäßig. Da greif lieber zu einer M.2 - die ist Messbar schneller (merken wirst du es nicht), und weniger anfällig als eine Sata raid 0
- Bedenke dass viel Software, die normal kostenlos ist, unter Windows Server was kostet (zb Teamviewer oder die meisten Antiviren Programme etc)
- Wenn du wirklich noch zwei Netzwerk-Ports willst (was dir aber wirklich nichts bringt außer Konfigurationsaufwand) nimm nicht DeLock.


Bei deinem Vorhaben gibst du sehr viel Geld für sehr viel ungenutzte Rechen-Power aus, sparst aber bei den Sachen die für sinnvolle Virtualisierung relevant sind. Das führt früher oder später zu Problemen und Ärger (spätestens wenn du auf echte VM hosts wie ESXi wechseln möchtest)
 
Der Kram geht jetzt aber völlig an deinen Anforderungen vorbei. Bestellt dir nen T30 oder ML10 mit xeon und dazu noch ein 16~32GB ECC Kit und fertig.
 
-INU- das Board müsste ECC RAM unterstützen, ich habe mich auch gefragt warum hier kein ECC RAM verbaut wurde, denn das Board müsste dies unterstützen.

DeLOCK PCI Express Karte (89346)
Wozu die Karte mit 2 Gigabit Ports und nicht z.B. gleich eine 10GBASE-T Karte die es auch schon für unter 100€ gibt? Das Board hat ja doch eine (zweiten) x16 Slot mit bis zu 4 PCIe Lanes.

Warum die (bzw. überhaupt eine) Grafikkarte?
Vermutlich dürfte so ein Consumer Board ohne eine Graka gar nicht booten, denn die RYZEN haben ja keine iGPU.
 
Zuletzt bearbeitet:
Hallo Holt,

das mit dem ECC Ram ist ein richtiger Einwand. Ich habe nicht genau nachgelesen bei der Board Beschreibung und mit eben noch 32GB ECC Ram bestellt. Laut Alternate sollte er auch heute noch ankommen:)
https://www.alternate.de/Kingston-ValueRAM/DIMM-32-GB-DDR4-2133-Kit-ECC-Arbeitsspeicher/html/product/1279534?

Das Netzwerk im Haus hat eh keine 10GBE Funktion. Deswegen reicht die DeLock Karte locker aus. Sollte ich doch noch eine brauchen, habe ich noch einen PCIex16 Slot frei.

Wie gesagt: Die GT710 ist als reiner Displayadapter gedacht. Der Server steht im Heizungsraum mit einem Bildschirm per VESA Mount an der Wand. So kann man auch auch auf ihn zugreifen ohne über das Netzwerk zu gehen.

Komponenten sind gerade geliefert worden. Unglaublich! 10h von Bestellung zur Lieferung über Nacht.

Ich hätte allerdings noch eine Frage bzgl. des Rams.

Ich habe nun beide Sets (DDR4 ECC-2133mhz und DDR4-2666 non EEC) vor mir liegen und kann mich nicht entscheiden, welche ich verbauen soll. Laut meinen Recherchen ist EEC Ram zwar sicherer, aber auch langsamer bei der Berechnung durch die zusätzlich laufendenen EEC Berechnungen im Hintergrund. Ist der Geschwindigkeitsunterschied gerade bei der Berechnung von aufwendigeren Algorithmen deutlich spürbar?
 
Zuletzt bearbeitet:
Was nützt dir Geschwindigkeit, wenn das Ergebnis potentiell falsch sein kann?
Für Gamer ist es sicherlich unwichtig, ob ein einzelnes Pixel auf dem Bildschirm kurzfristig (währen eines Frames) mal eine andere Farbe hat. Bei aufwendigen Wissenschaftlichen Berechnungen ist ein Bitfehler Fatal und inakzeptabel.
Und das schöne ist: ohne ECC RAM erfährst du nichtmal was davon!


Im Umkehrschluß heißt das: Alle Berechnungen, die auf NON-ECC Systemen durchgeführt werden sind als potentiell falsch anzusehen!
 
Zuletzt bearbeitet:
Okay, dann werde ich definitiv den ECC RAM verbauen! Vielen Dank an alle.

In den Feiertagen werde ich das System aufbauen und hier auch ein paar Bilder posten. Ich bin mir sicher, dass ich bei der Einrichtung noch ein paar Fragen ergeben.

Schöne Feiertage wünsche ich:)
 
Langsamer ist das ECC RAM bei Dir vor allem, weil es eben 2133er ist und das andere ist 266er. Die Berechnung der Parität sollte eigentlich in der HW des RAM Controllers ablaufen und daher keine Zeit kosten, aber dies hängt eben von der CPU ab. Langsamer ist ECC RAM vor allem wenn es Reg. RAM ist (die unterstützt AM4 aber auch gar nicht), weil es dort immer noch den Zwischenschritt über das Register gibt.
 
Soweit so gut: Der Rechner steht und funktioniert leise und zuverlässig. Derzeit sind zum Test der Host und die VMs auf einer SSD installiert. Jetzt geht es noch um die endgültige SSD Konfiguration. Wie bereits erwähnt soll es einen Host geben, der zwei virtuelle Maschinen verwaltet. Ich habe gelesen, dass man deutliche Geschwindigkeitsboosts bemerkt, wenn eine VM eine dedizierte Festplatte zugewiesen bekommt. Was haltet ihr davon?

Die Idee ist dann Folgende:
Host: 250GB Samsung 850 pro
VM's: Je eine 500GB 850 Evo

Die pro soll ja genau für den 24/7 Betrieb ausgelegt sein und 250GB sollten mehr als ausreichen für den Host, der nur die VM's verwalten soll. Die VM's inkl. Software können schon mehr gebrauchen und die Datensicherheit ist nicht so wichtig und die Prüfpunkte der VM's werden auf dem NAS gespeichert. Macht diese Konfiguration Sinn, wenn Kosten etwas in den Hintergrund gestellt werden? Oder braucht der Host doch mehr Platz als ich vermute?
 
Mit was für einem Host-OS rechnest du denn?
Wenn ich mir mein ESXi anschau - da is noch Platz auf dem 4GB-Stick - die Win2016 VM als auch die 2012R2 kommen in der Basis-Installation nicht über 20GB Verbrauch raus - up2date
Je nach Feature kommt da natürlich noch etwas dazu, aber wenn ich bedenke, das manche Server noch mit 146GB HDDs fürs OS ausgeliefert werden, sollte die 250er voll ausreichen.

Datensicherheit sollte schon eine Rolle spielen, was bringen denn Prüfpunkte auf dem NAS, wenn das Basis-System nicht mehr vorhanden ist?
Je nach Speicheranforderung Deiner Applikationen in der VM würde ich daher eher über ein RAID1 nachdenken, als jede VM auf einer eigenen SSD laufen zu lassen. - es sind ja schon SSDs und keine HDDs mehr.

Was genau hast Du jetzt für ein Setup genommen? - wirklich den DeLock-Adapter?
 
Für 24/7 und mit Powerloss-Protection würde ich eher auf die SM863/PM863 gehen, das sind die Enterprise-Versionen von 850 pro/EVO. Alternativ Intel DC S3xxx (Modellreihe je nach Anforderung dann).

Und auch nicht solche Noname-Realtec-NICs, sondern Intel.
 
Moin.

Also Hardware Pass-through von Festplatten (ganz besonders SSDs) lohnt sich nicht wirklich. Der Performance Gewinn ist marginal, und du verlierst viele Vorteile der Virtualisierung.

- Backup von ner VHDX ist viel einfacher
- Neue VMs anlegen ist deutlich einfacher und flexibler wenn man sie einfach als Datei erstellt
- Durch Dynamische Platten ist die Speicherplatzausnutzung deutlich besser
- Snapshots gehen meines Wissens mit Pass-through gar nicht?!


Und Rechne einfach Pro Windows Installation 50Gb (wenn mit GUI) - da sind genug Reserveren für Updates usw (und das ist eigentlich schon zu viel des Guten).

Wenn du bereits zwei 500er EVO besitzt, würde ich einfach ein Windows Software-Raid 1 erstellen und die beiden (oder zukünftige) VMs dort installieren. Das hätte folgende Vorteile:

1. Wenn eine SSD mal den Geist aufgibt bist du immer noch Lauffähig - und du ersparst dir das neu-installieren der VMs
2. Gesteigerte Leseperformance
3. Durch Software-raid kein ärger mit dem fakeraid controller falls du mal ein anderes Board bekommst
4. Einfach zu konfigurieren

Und mit 500GB - 2x 50 für OS bleiben dir ca 400GB nutzbaren speicher.
 
Moin,

Snapshots gehen bei Pass-through VMs nicht mehr, das stimmt. Ob der Performance Gewinn aber wirklich nur marginal ist, würde mich tatsächlich brennend interessieren - hast du hier irgendwelche Statistiken oder so?

Grüße
 
Was genau hast Du jetzt für ein Setup genommen? - wirklich den DeLock-Adapter?

Setup:
AMD Ryzen 1700
Noctua NH-L9x65
2x16 GB Corsair DDR4
Asus B350M TUF
DeLOCK PCI Express Karte (89346)
Asus XG-C100C
Zotac GT710 2GB
BeQuiet Straight Power 10 500W
Sharkoon CA-M

Für 24/7 und mit Powerloss-Protection würde ich eher auf die SM863/PM863 gehen, das sind die Enterprise-Versionen von 850 pro/EVO. Alternativ Intel DC S3xxx (Modellreihe je nach Anforderung dann).

Und auch nicht solche Noname-Realtec-NICs, sondern Intel.

Powerloss-Protection ist bei uns nicht so eine Sache, da der Server an einer USV hängt. Die fährt den Server bei Stromverlust langsam herunter.

Moin.

Also Hardware Pass-through von Festplatten (ganz besonders SSDs) lohnt sich nicht wirklich. Der Performance Gewinn ist marginal, und du verlierst viele Vorteile der Virtualisierung.

- Backup von ner VHDX ist viel einfacher
- Neue VMs anlegen ist deutlich einfacher und flexibler wenn man sie einfach als Datei erstellt
- Durch Dynamische Platten ist die Speicherplatzausnutzung deutlich besser
- Snapshots gehen meines Wissens mit Pass-through gar nicht?!


Und Rechne einfach Pro Windows Installation 50Gb (wenn mit GUI) - da sind genug Reserveren für Updates usw (und das ist eigentlich schon zu viel des Guten).

Wenn du bereits zwei 500er EVO besitzt, würde ich einfach ein Windows Software-Raid 1 erstellen und die beiden (oder zukünftige) VMs dort installieren. Das hätte folgende Vorteile:

1. Wenn eine SSD mal den Geist aufgibt bist du immer noch Lauffähig - und du ersparst dir das neu-installieren der VMs
2. Gesteigerte Leseperformance
3. Durch Software-raid kein ärger mit dem fakeraid controller falls du mal ein anderes Board bekommst
4. Einfach zu konfigurieren

Und mit 500GB - 2x 50 für OS bleiben dir ca 400GB nutzbaren speicher.

Meinst du mit Software-Raid 1 die Storage Space Lösung von Windows? link

Ansonsten finde ich die Idee sehr gut. 200GB pro VM dürften locker reichen. Wenn nicht, kann ich ja eine weitere SSD hinzufügen.

Moin,

Snapshots gehen bei Pass-through VMs nicht mehr, das stimmt. Ob der Performance Gewinn aber wirklich nur marginal ist, würde mich tatsächlich brennend interessieren - hast du hier irgendwelche Statistiken oder so?

Grüße

Nein, ich habe es nur hier und da mal gelesen, aber keine Statistiken etc. Aber wenn Snapshots etc. wegfallen, ist das eh keine Option mehr.

Nochmal zur Klarstellung:
Ja, eine hohe Datensicherheit ist uns wichtig. Wir sind allerdings kein Unternehmen, welches auf die Daten angewiesen ist. Wir werden es jetzt mit den 2x500 Evo im Software RAID versuchen. Weiterhin wird bzw. soll der Datenstand des Server mehrfach gebackuped werden. Sollten also beide SSDs gleichzeitig ausfallen, werden zwei neue gekauft und die Backups auf diese geladen. Welche Lösungen gibt es da? Hat Windows Server 2016 bzw. Windows 10 Pro so etwas schon integriert? Wenn nein, welche Software ist dafür zu empfehlen?

Idee ist Folgende:
Jede Nacht soll ein vollständiges Image des Severs inkl. VM's auf unserem NAS abgelegt werden. Wenn beide SSDs kaputt gehen, werden neue verbaut und das letzte Backup auf diese geladen. Danach soll alles so funktionieren wie vorher. Ist das möglich? und wenn ja, wie?
 
Ich meinte mit meinen Vorredner mit den Statistiken bzgl. der "kaum Performanceeinbußen". ;)

Gruß
 
Beim Windows Server gibts das Windows Server Backup. Keine große Funktionsvielfalt aber zuverlässig
 
Ich meinte mit meinen Vorredner mit den Statistiken bzgl. der "kaum Performanceeinbußen". ;)
Gruß

Ich habs mal ausprobiert (Sata SSD). Einfach mit Crystal Disk Mark die Werte Verglichen. Die auf der VM waren beim Schreiben zwischen 0 und 5% weniger, beim lesen zwischen -10% und +5% (wenn man mehr RAM frei hat, kann das sogar steigen da der Host dann cached).

Das hab ich gefunden, ist aber mit HDDs, dem alten VHD Format und einem 2008er Hyper-V - da hat sich bis heute viel getan.
Hyper-V pass-through disk performance vs. fixed size VHD files and dynamic VHD files in Windows Server 2008 R2 Clustering For Mere Mortals


Meinst du mit Software-Raid 1 die Storage Space Lösung von Windows? link

Ich meinte diese:
Software RAID 1 (Mirror) Setup In Windows 7, 8 and 10 - YouTube

(wird aber im Hintergrund genau das gleiche passieren - über die Datenträgerverwaltung kann man das später auch wieder entspannt reparieren)

Nochmal zur Klarstellung:
Ja, eine hohe Datensicherheit ist uns wichtig. Wir sind allerdings kein Unternehmen, welches auf die Daten angewiesen ist. Wir werden es jetzt mit den 2x500 Evo im Software RAID versuchen. Weiterhin wird bzw. soll der Datenstand des Server mehrfach gebackuped werden. Sollten also beide SSDs gleichzeitig ausfallen, werden zwei neue gekauft und die Backups auf diese geladen. Welche Lösungen gibt es da? Hat Windows Server 2016 bzw. Windows 10 Pro so etwas schon integriert? Wenn nein, welche Software ist dafür zu empfehlen?

Idee ist Folgende:
Jede Nacht soll ein vollständiges Image des Severs inkl. VM's auf unserem NAS abgelegt werden. Wenn beide SSDs kaputt gehen, werden neue verbaut und das letzte Backup auf diese geladen. Danach soll alles so funktionieren wie vorher. Ist das möglich? und wenn ja, wie?

Das ist ein recht nützliches script (kann man einfach per Windows Aufgabenplanung zeitgesteuert ausführen, und funktioniert auch mit laufenden VMs)
https://www.hyper-v-server.de/management/hyper-v-sicherung-mittels-powershell-skript-fuer-windows-server-2016/

Den Host könntest du so halten das kein Backup Notwendig ist. Windows Setup auf ssd ~10min + Hyper-V Rolle installieren und die Netzwerke Zuweisen ~20min. Und dann kannst du schon die VMs importieren.
Alternativ die Windows interne Backup lösung nutzen.
 
Zwischenstand:

Setup sieht wie folgt aus:

Der Server hat nun doch 4x16GB Kingston ECC Ram bekommen, sowie eine Asus 10Gbit Netzwerkkarte und die 2x500GB 850 Evo sind im RAID 1 über den Mainboard Controller verbunden.

Das Installieren der Treiber war etwas aufwendiger, da die Windows 10 Treiber von Asus nicht auf Server 2016 laufen. Ich habe dann über Realtek die Chipsatztreiber manuell runtergeladen und installiert. Hat wunderbar funktioniert und es werden alle Geräte inkl. des Fake-Raids erkannt und sind funktionsfähig.

Der Arbeitsrechner hat ebenfalls eine Asus 10Gbit Netzwerkkarte bekommen.

Insgesamt sind jetzt Server, Arbeitsrechner und NAS (Netgear 626x) über einen Netgear XS708T Switch an ein 10Gbit Netzwerk angeschlossen. Alles funktioniert soweit wunderbar.

To do:
- Backup auf NAS einrichten
- Evtl. Lund Freigabe am NAS für mehr Speicher in den virtuellen Maschinen
- Kleinigkeiten wie Wake on Lan etc. einrichten
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh