(Beratung) Neues NAS mit Ausfallsicherheit für virtuelle Server (Hyper-V)

Syntex

Enthusiast
Thread Starter
Mitglied seit
03.07.2006
Beiträge
2.469
Hallo,

derzeitig Betreibe ich noch einen alten Server wo 7 HDD und eine SSD verbaut sind. Als OS läuft Windows Server 2012 R2 mit Hyper-V für die Virtualisierten Host Systeme.

Nun habe ich bei der letzten Cyberport Aktion für den Dell T20 zugeschlagen. Nun habe ich 2 von den netten Geräten hier stehen.
Beide T20 habe ich aufgerüstet mit:
32GB Arbeitsspeicher
Intel I350-T4

Des Weiteren habe ich ein Synology NAS 1515+ gekauft (5-Bay).

Hinzukommt folgende Hardware:
3x Seagate Ironwolf 10TB
2x Samsung 850 Pro 500GB SSD

Das Netzwerk besteht aus einen Managed 28 Port Switch von TP-Link.


Ich habe mir folgenden Aufbau vorgestellt:

Die beiden Dell T20 werden mit Windows Server 2012 R2 betankt. Es wird ein Failover Cluster erstellt mit 4 Netzen (Managed, CSV, VM, iSCSI).
Als externer Storage wird der Synology NAS verwendet. Die 4 Ports werden im NAS als Bond (Trunk) verbunden.
Die SSD's in Raid 1
Die HDD's in Raid 5

Auf den NAS würde ich folgende LUN's erstellen
HV-Quorum (SSD)
SSD-Daten (SSD)
HDD-Daten (HDD)

Diese würde ich im Failovercluster einbinden und verfügbar machen.


Für mich ist wichtig, dass die Performance stimmt. Besonders da ich auch SSD's verwende.

Oder würdet ihr eher den Vorschlag machen, die HDD's und SSD's lokal auf die 2 T20 zu verteilen und nun den Hyper-V Replikationsservice zu nutzen?


Besten Dank für Eure Hilfe & Feedback
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Syno NAS ist das schwächste Glied!
- Kein ECC Speicher
- BTRFS ist ohne Unterstützung der eigentlich essentiellen Features implementiert und somit witzlos

Ob die Atom Quadcore CPU in der Lage ist die Daten schnell genug für 2 Nodes mit 4 LAN-Ports zu liefern?? - Insbesondere bei vielen kleinen Dateien bricht der sonst zusammen. - Das wäre auf jeden Fall zu Prüfen.

Du hätest dir noch einen 3. T20 holen und da eine NAS Distri deiner Wahl mit ZFS drauf installieren können.
3 HDDs und 2 SSDs Plus einen USB Stick für's OS bekommst du da auf jeden Fall rein. (alternativ ein HP Microserver)
 
Zuletzt bearbeitet:
Das Syno NAS ist das schwächste Glied!
- Kein ECC Speicher
- BTRFS ist ohne Unterstützung der eigentlich essentiellen Features implementiert und somit witzlos

Ob die Atom Quadcore CPU in der Lage ist die Daten schnell genug für 2 Nodes mit 4 LAN-Ports zu liefern?? - Insbesondere bei vielen kleinen Dateien bricht der sonst zusammen. - Das wäre auf jeden Fall zu Prüfen.

Du hätest dir noch einen 3. T20 holen und da eine NAS Distri deiner Wahl mit ZFS drauf installieren können.
3 HDDs und 2 SSDs Plus einen USB Stick für's OS bekommst du da auf jeden Fall rein. (alternativ ein HP Microserver)

Also wäre deine Empfehlung, den NAS zu verkaufen und dafür einen weiteren T20 zu kaufen und die HDD's + SSD's dort einzubauen. Sollte den noch ein zusätzlicher Raid Controller (mit Cache) gekauft werden?
 
Naja. Ich würde mal zu Beginn und um Erfahrungen zu sammeln vielleicht mal ESXi auf einem der T20 installieren, da drauf dann Hyper-V (geht) und zum Beispiel eine NAS-VM. Hängt aber natürlich auch von Deinen Vorkenntnissen ab, ob Du erst einmal Testen willst.

Dann kannst Du die NAS VM als Storage für beide Hyper-Vs (T20 und VM) benutzen. Hatte ich selbst mal zu Testzwecken so laufen (nur nicht mit einem 2. T20 sondern nem Selbstbauserver). Hab dazu ein bisserl was an Erfahrungen im Hyper-V Sammler zusammengefasst.

Mit einem 1gbit Link verpufft ggf. vor allem die Performance der SSD. Vorteil: du kannst die Rechner recht günstig mit 10gbit (brauchst nur 2 NICs) verbinden und hast dann einen weiteren Flaschenhals weniger.

Alles nur für homeuse bitte. :)
 
Du kannst ja mal testen ob du mit deinem aktuellen Setup glücklich wird. Ich wäre mit dem fertig NAS vorsichtig. Simulier doch mal eine failed disk und sieh dir an wie sich das NAS beim rebuild verhält. Kommst du dann noch mit der performance aus ist alles ok, langts nicht weisst du das dir das RAID keine höhere Verfügbarkeit bringt.
Was läuft denn auf deinem HyperV cluster? Wie weh tut es wenn da mal was klemmt?

Link aggregation für das NAS klingt in der Theorie immer ganz nett, teste das aber sorgfältig. Netzwerke mit switchen an denen alle ports die gleiche Geschwindigkeit fahren sind so schön einfach, da vergisst man schnell mal mit was für Problemen man sich sonst rumschlagen muss.
Ich habe z.B. mal nach Monaten festgestellt, dass ich in einer Umgebung mit 10/1GBit Verbindungen probleme mit der Flow Control implementierung hatte. Da war dann in einigen Situationen nach 1-2 Minuten der receive buffer voll und die Datenübertragung hat immer für ein paar sekunden (manchmal auch länger) pausiert. Schon blöd wenn man über die Verbindung auch remote visualisierung bereitstellen möchte. Nur mal als Beispiel was schiefgehen kann wenn man von der einfachen 0815 Lösung abweicht.
 
Also derzeitig habe ich schon einmal mit den o.g. Setup angefangen. Auf beiden T20 läuft 2012 R2 mit Failovercluster als Dienst.

Im NAS sind die Festplatten eingebaut.

Verbindung mittels iSCSI läuft (derzeitig noch 1GBit). Ich würde eine LUN gerne nutzen wo die 3x10TB HDD's in Raid 5 laufen als Großen Datenspeicher, und diesen später in eine VM als weitere Festplatte als vhdx hängen.
Derzeitig habe ich daher die vhdx im Node gemountet, und kopiere dort viele Große Dateien (zwischen 1-10GByte) auf das ISCSI Lun.
Am Anfang habe ich eine Performance von ca. 160 MBit/s. Diese reduzierte sich nach wenigen Minuten auf 40-50 MBit....

Natürlich ist dieser o.g. Aufbau nur als Homeserver gedacht, jedoch würde ich hier gerne schon ein Performantes System bauen womit ich die nächsten Jahre viel Freude habe.
 
Hallo,

du darfst sicherlich nicht glauben nur ansatzweise an die SSD Performance ran zu kommen.
Das NAS ist sicherlich nicht die beste Wahl, aber dennoch kann man damit arbeiten. Zumindest wenn du nicht 20 VMs drauf laufen lassen möchtest.

Unerlässlich ist aber die Konfiguration von iSCSI MPIO, sonst bringt dir das Bonding/Trunking ein sch****dreck. Anschließend wirst du zumindest mal mehr als 1 GBit hin bekommen. Ist übrigens auch der 2. empfohlene Weg von MS wenn kein SMB3 möglich ist.

Wie hast du das Raid im NAS eingerichtet? SHR mit den SSDs als Cache? Oder einzelne Raidverbunde?
 
Das iSCSI MPIO wollte ich als nächstes einrichten, jedoch müsste ich hierzu erst noch neue Netzwerkkarten besorgen für die T20, da die I350-T4 voll belegt ist (Management, CSV, VM, ISCSI).

Auf den NAS habe ich die SSD als Raid 1 und die HDD's als Raid 5 eingerichtet. Ich habe schon mit den Gedanken gespielt, ob ich noch eine externe SSD mit 128GB kaufe und diese als SSD Cache nutze...
 
Ich vertehe es nicht, wozu ärgert man sich mit Port trunking/Bonding whatever von 2/3/4 GBit LAN-Ports ab, wenn man 10 GBE haben kann.

- - - Updated - - -

Naja. Ich würde mal zu Beginn und um Erfahrungen zu sammeln vielleicht mal ESXi auf einem der T20 installieren, da drauf dann Hyper-V (geht) und zum Beispiel eine NAS-VM. Hängt aber natürlich auch von Deinen Vorkenntnissen ab, ob Du erst einmal Testen willst.

Dann kannst Du die NAS VM als Storage für beide Hyper-Vs (T20 und VM) benutzen. Hatte ich selbst mal zu Testzwecken so laufen (nur nicht mit einem 2. T20 sondern nem Selbstbauserver). Hab dazu ein bisserl was an Erfahrungen im Hyper-V Sammler zusammengefasst.
Problem: 3 HDDs (Raid5/Raidz1) und 2 SSDs (Raid1/Mirror) sowie einen USB Stick für's OS (ESXi) bekommt man sicherlich problemlos rein, aber die NAS-VM auf den USB-Boot-Stick
geht nur mit Tricks und ist offiziiell nicht untertützt.

wie oben angemerkt!
3. T20 (oder HP Microserver - oder sogar grösseren Selbstbau) als NAS.
OmniOS und Napp-it drauf und du hast ein wirklich performantes NAS mit sehr guter iSCSi Unterstützung (Comstar)
'ne Dual Port 10GBe karte dazu (2x Direktlink zu den VM-Hosts -in diese müssen dan natürlich auch 1-Port 10 GBE rein)
 
Ich vertehe es nicht, wozu ärgert man sich mit Port trunking/Bonding whatever von 2/3/4 GBit LAN-Ports ab, wenn man 10 GBE haben kann.

Vermutlich weil man denkt das es einfach die X-fache Bandbreite bietet. Das dabei ein bisschen mehr zu beachten ist merkt man ja auch erst wenn man es mal einsetzt.
Alternativ kann man natürlich auch ISCSI über einen 1GBit Port laufen lassen und CIFS/NFS über einen anderen. Bei 4 Ports und 2 Clients kannst du sogar 1Port/Service und Client nutzen.
Damit ist immerhin 1Gbit pro Service möglich ohne das man sich möglicherweise etwas tiefer mit der Netzwerktechnik auseinandersetzten muss.
Mit dem kleinen NAS ist doch nicht so viel mehr Durchsatz zu erwarten, 10Gbit halte ich nur mit anderer Hardware für das Storage für sinvoll.
 
Mit dem kleinen NAS ist doch nicht so viel mehr Durchsatz zu erwarten, 10Gbit halte ich nur mit anderer Hardware für das Storage für sinvoll.
Eben, das NAS ordne ich ehr der Rubrik "Blender" zu
- Quadcore-CPU (ist zwar ein ATOM, aber das erfährt der geneigte interessent erst beim Blick in die Technischen Daten)
- 4x GBit LAN (Ich wage zu bezweifeln, daß der ATOM diese wirklich paralell voll befeuern kann)
 
Alternativ überlege ich gerade, ob es sonst einfach Sinn macht, einen Dell Poweredge T330 zu kaufen. Dieser kostet bei Cyberport 1184 €. Hier würden 8x 3,5" Festplatten passen... Alle Festplatten in den Server und den Rest verkaufen... Evtl. einen T20 noch behalten als Hyper-V Replikation Host nutzen für den Fall der Fälle...

Sonst komme ich wohl wirklich nicht an einen 3. T20 vorbei...
 
Du hast ja alles zum ausprobieren da. Setz doch erstmal auf einem deiner T20 so ein Storage auf und guck ob du damit glücklich wirst.
 
was willst du mit Failover wenn die Daten nur auf 1 Maschine liegen? .. Failover ist aufwendig und teuer und funktioniert in der Praxis auch nur so gut wie es eingerichtet und gewartet wurde.
Mit einem ZFS basiertem Filesystem kannst du Replikation einrichten zwischen zwei Maschinen. 10Gbit Karten gibt es günstig in der Bucht inkl. Direct Attach Kabel. Wenn dir 1 Maschine abraucht musst du auf der 2 Maschine die VMs neu starten.

Von einer Eigenbau Bastellösung mit Failover die du im schlimmsten Fall noch gewerblich einsetzen willst kann ich dir nur abraten, das geht in die Hose.
 
Glaub man sollte unterscheiden zwischen STORAGE-Failover (active/active) und VM-Failover. Letzteres ist recht simpel - ersteres schwieriger und letzteres ohne ersteres hängt eben an der Robustheit vom Storage ab. Wer kann mir noch folgen? :d
 
Ich würde einfach eine Replikation der VM´s einrichten, dann passt auch die Performance/Verfügbarkeit.
 
Für Heimgebraucht liefert die DS1515+ mehr als genug Leistung. Zudem handelt es sich bei LUN auch über iSCSI um Blockstorage somit ist es vollkommen unerheblich, ob kleine oder große Dateien durch die Leitung müssten (Paketgröße aka Segmentgröße plus Overhead ist immer +/- gleich).
Segmentgröße ist zudem ein Faktor mit dem man experementieren sollte in Verbindung mit Jumbopaketen... (managed switch, 4x Ports am NAS, zusätzliche Ports an dem VM-Hosts ... ist alles da).
Der offensichtliche Nachteil der DS1515+ ist die fehlende Erweiterbarkeit hinsichtlich der Anbindung, aber das war auch vor der Anschaffung klar.
Zudem ist die CPU bei diesem Modell nicht der Bottleneck sondern die Anbindung. Selbst meine schon recht betagte DS413j stellt ohne Probleme LUNs mit ~1GBit/s zur Verfügung und das bei sehr geringer CPU-Auslastung.
Man sollte sich natürlich überlegen wozu man die SSD's in die NAS einbaut von der von Anfang an klar ist, dass mehr als 4x 1GbIt/s nicht drin ist...
Wenn TE gerade beginnt sich mit dem Thema Virtualisierung zu beschäftigen, sollte man nicht gleich an allen Enden mit Selbstbastellösungen versuchen. Eine Fehlersuche ohne Vorkenntnisse könnte sich als sehr schwierig erweisen.
Nicht klar ist auch der Anwendungsfall der im Heimgebraucht ein VM-Failover brauchen soll... jaja, ich weiß wir sind bei hardwareluxx ;)
 
Zuletzt bearbeitet:
Also ich habe nun die im Startpost genannte Konfiguration vorgenommen.

Das kopieren von einer Lokalen HDD auf das iSCSI HDD beginnt mit einer guten Performance, ca. 160 MB/s. Nach ca. einer Minute bricht die Datenübertragung ab auf ca. 40-60 MB/s. Die Netzwerkauslastung liegt bei ~ 700MBit/s.

Auf den NAS ist die CPU Auslastung bei 25%, die Ram Auslastung bei 15%.

Das ich mit de 4x 1 GBit Links nicht die SSD Auslasten kann ist mir klar, jedoch war dieses auch nicht das Ziel. Der SSD Speicher wird für die VM's genutzt. Diese schieben maximal Große Dateien von SSD zu SSD also NAS intern. Das Funktioniert sehr gut, mit ca. 600 MBit/s.

Würdet Ihr mir empfehlen das Raid 5 auf Block Ebene auf das NAS anzulegen, oder für jede Festplatte eine LUN anzulegen und diese als Speicherpool im Cluster hinzuzufügen?

Mein Ziel ist es, dass ich die Daten von den HDD's mit 150-160 MBit/s übertragen kann an das Client Netzwerk.
 
Das kopieren von einer Lokalen HDD auf das iSCSI HDD beginnt mit einer guten Performance, ca. 160 MB/s. Nach ca. einer Minute bricht die Datenübertragung ab auf ca. 40-60 MB/s. Die Netzwerkauslastung liegt bei ~ 700MBit/s.
Das an diesen Angaben etwas nicht hinhauen kann sollte auffallen. Wo wurden die 160MB/s abgelesen? MPIO? Last auf wievielen Netzwerkinterfaces?
Würdet Ihr mir empfehlen das Raid 5 auf Block Ebene auf das NAS anzulegen, oder für jede Festplatte eine LUN anzulegen und diese als Speicherpool im Cluster hinzuzufügen?
Gemeinsamer Speicherpool und RAID5 haben beide Vorteile, weswegen dies empfehlenswert wäre.
Mein Ziel ist es, dass ich die Daten von den HDD's mit 150-160 MBit/s übertragen kann an das Client Netzwerk.
Client Netzwerk = Hype-V-Hosts? Mit genügend Verbrauchern kann man das Ziel erreichen.
 
Die 160MB/s wurden im Windows Explorer abgelesen beim Kopiervorgang. MPIO wurde noch nicht aktiviert, Last auf dem iSCSI-Team (derzeitig 1 Port, möchte ich auf insgesamt 2 erweitern).

Das Client Netzwerk ist hier tatsächlich die Windows 10 Clients gemeint. Natürlich soll der Datendurchsatz auch von Server-Server möglich sein.

Die VM's haben Ihr OS auf der SSD. Große Partitionen wie z.B. WDS sollen auf der HDD liegen.
 
Also ich habe nun die im Startpost genannte Konfiguration vorgenommen.

Das kopieren von einer Lokalen HDD auf das iSCSI HDD beginnt mit einer guten Performance, ca. 160 MB/s. Nach ca. einer Minute bricht die Datenübertragung ab auf ca. 40-60 MB/s. Die Netzwerkauslastung liegt bei ~ 700MBit/s.

Auf den NAS ist die CPU Auslastung bei 25%, die Ram Auslastung bei 15%.

Das ich mit de 4x 1 GBit Links nicht die SSD Auslasten kann ist mir klar, jedoch war dieses auch nicht das Ziel. Der SSD Speicher wird für die VM's genutzt. Diese schieben maximal Große Dateien von SSD zu SSD also NAS intern. Das Funktioniert sehr gut, mit ca. 600 MBit/s.

Würdet Ihr mir empfehlen das Raid 5 auf Block Ebene auf das NAS anzulegen, oder für jede Festplatte eine LUN anzulegen und diese als Speicherpool im Cluster hinzuzufügen?

Mein Ziel ist es, dass ich die Daten von den HDD's mit 150-160 MBit/s übertragen kann an das Client Netzwerk.


25% CPU Last bei einem Quadcore klingt nach CPU Limit mit 1 Thread. Du kannst ja mal ein ISCSI Target auf den SSDs anlegen und prüfen ob sich das gleich verhält. Man könnte sich ja auch mal ein anderes Protokoll ansehen CIFS oder NFS. Oder einfach mal vom NAS lesen und nicht schreiben.
Da sollte man schnell analysieren können wo es hakt. Ob die 25% CPU Last vom Netzwerk I/O kommen oder vom berechnen der RAID5 Prüfsummen beim schreiben oder vom ISCSI handling. Oder ob eben nach ein paar Minuten dein Netzwerk Setup nur noch die 40-60MB/s zulässt.
Wenn dein NAS bei nur einem Client nach einer Minute einbricht, wie sieht das dann aus, wenn random I/O von mehreren clients kommt? Noch dazu auf einem RAID5. Das bricht bei allem was nicht sequentiell ist doch eh ein.
Zentrales Storage ist eigentlich fast immer kritische Infrastruktur. Wenn das nicht läuft oder die benötigte performance liefert bekommt man an allen Ecken seine Problemchen.
Du bist in der glücklichen Situation alles zum ausprobieren da zu haben. Nimm dir die Zeit zum Testen, auch mal mit Traffic von der maximalen Anzahl clients zur gleichen Zeit. Wenn du dann noch glücklich bist reicht deine aktuelle Lösung zumindest bis neue Anforderungen kommen.
Wenn es nicht reicht wirst du durch das testen immerhin wissen wo es hakt und kannst dich nach einer besseren Lösung umsehen. Aber ob andere Hardware für das NAS, ein anderes Dateisystem oder eine andere Netzwerkinfrastruktur sein muss weiss nach ein paar Tests vermutlich keiner so gut wie du selbst.
 
Wenn MPIO nicht aktiviert wurde, dann kann der Durchsatz zu keinem Zeitpunkt bei 160MB gelegen haben, da mehr als ~120MB über ein Interface nicht drin ist (es ist ausdrücklich von einem Transfervorgang die Rede). Zudem ist Exploreranzeige nicht unbedingt für Genauigkeit bekannt. Dies wird von 700MBit/s auf dem dedicated(?) ISCSI-Interface bestätigt, was bekanntlich etwa 68MB bedeutet. Das rapide Absenken der Transfarerate im Explorer ist auf die Anpassung der Anzeige zurückzuführen und nicht auf die Leistungsschwäche der NAS.

25% Last hat keine Aussagekraft, da bei Synology ein haufen Brimborium (idR abschaltbar) in Hintergrund (xyz Station) läuft und dadurch eine hohe Grundlast aufweist.
 
Oder es greifen Caches irgendwo. Wenn ein Teil aus dem RAM-Cache kommt, hast Du halt anfangs kurz Speed (zeigt er im Explorer) und dann bricht es eben auf die Storagespeed ein.
 
Ich würde den alten Server inkl. OS Verkaufen und die neuen auf jeden Fall mit Server 2016 betrieben (im Bereich Hyper-V, Netzwerk-Stack und Storage hat sich einiges getan).
Zwei Hyper-V Hosts im Cluster als Fabric zwecks Ausfallsicherheit und Redundanz schreien eigentlich auch nach entsprechend redundantem Storage.

Diese Redundanz könntest du mit einem weiteren Server mit zwei JBODs herstellen - Stichwort Scale-Out-Fileserver. Dieser beherbergt dann das CSV.
In dem Fall nutzt du dann auch kein iSCSI mehr zur Anbindung an die Hyper-V Hosts sondern SMB3.

Oder du schaust dass du zwei gebrauchte HP LeftHand bekommst - sind quasi normale Server mit einem OS von HP (StoreVirtual - ehem. LeftHand) und lassen sich zu einem Cluster verbinden.
Auf Hyper-V Seite verbindest du dich auch nur 2x mit der selben Zieladresse (Virtuelle-IP, welche auf die entsprechenden Zielsysteme des Storage umleitet).

Letzteres haben wir historisch bedingt in der Firma im Einsatz (aber immerhin auf Basis von 10 Gbit/s) und fahren eigentl. ganz gut - freue mich aber trotzdem darauf wenn wir das System so in ca. 3-4 Jahren gegen eine reine Microsoft-Lösung ersetzen. Unterm Strich ist die Performance SoFS einfach besser (HDD und SSDs können gemischt betrieben werden und das System lagert die Daten basierend auf den Zugriffen selbstständig auf HDD oder SSD aus) und es nervt einfach tierisch bei neuen Windows Versionen warten zu müssen bis der DSM for MPIO Treiber aktualisiert wird nach dem schon auf die Server-Treiber warten musste.

EDIT: Theoretisch braucht man auch kein Storage mehr - genug Speicherkapazität in jeden Server und dann liegen die Daten direkt auf den Hosts und werden repliziert.
 
Zuletzt bearbeitet:
Ich bin gerade dabei die Performance über den Speicherpool im Cluster zu testen.

Für jede HDD habe ich eine LUN (Block-Niveau) und ein Target erstellt.

Jeden Node habe ich mit den entsprechenden Targets verbunden.

Speicherpool mit der Anordnung Parity erstellt.

Was soll ein Theoretischer Wert möglich sein? Ca. 110-120 MB/s oder?

Soll ich auf den NAS die HDD's als einzelne Platten anlegen, oder Gesamt als JBOD?


//Update 1

Die Performance liegt bei einen Speicherpool als ISCSI Target im FailoverCluster bei ca. 30MB/s. Am Anfang wird 110 MB/s erreicht, was nach ca. 1-2 Minuten auf den u.g. Wert einbricht....

Hat jemand eine Idee wie ich die Festplatten nun Optimal Anbinde um eine Hohe Lese/Schreibleistung zu erreichen?

//Update 2

Ich habe mal zum Testen im T20 ein Speicherpool mit den 3 HDD's erstellt, jedoch diesmal im Simple Modus. Große Dateien (4-40GB) von der OS Festplatte auf den Speicherpool kopiert. Hier erreiche ich Durchgängig 155 MB/s.
 
Zuletzt bearbeitet:
Und wie ist der Durchsatz wenn du von deinem anderen T20 über Netzwerk auf den Pool schreibst?
 
Glaub man sollte unterscheiden zwischen STORAGE-Failover (active/active) und VM-Failover. Letzteres ist recht simpel - ersteres schwieriger und letzteres ohne ersteres hängt eben an der Robustheit vom Storage ab. Wer kann mir noch folgen? :d

Das sehe ich genau so.

...
EDIT: Theoretisch braucht man auch kein Storage mehr - genug Speicherkapazität in jeden Server und dann liegen die Daten direkt auf den Hosts und werden repliziert.

Ich würde wirklich überlegen, ob Du in einem reinen Windows-Netzwerk (Du hast glaube ich von W10 Clients gesprochen und die Server sollen ja 2012R2 werden?) nicht auf ein anderes Setup setzt.
Die beiden T20 mit Hyper-V-Server 2016, darauf fann die virtuellen Maschinen inkl. der 2012R2 Server. Wenn Du eh noch Geld in die Hand nimmst (oder genommen hast) für ein NAS / zusätzlichen Server etc. könntest Du das Geld auch in genug Storage investieren und den virtuellen Maschinen direkt zuweisen inkl. Replikation durch die VM's - kommt natürlich drauf an, wie umfangreich der Speicherplatzbedarf ist.
Und mit SMB3 kannst Du dir auch viel Konfigurationsarbeit sparen, was Teaming/Trunking/Bonding bzw. iSCSI angeht.
Hab genau das mal zu Testzwecken hier laufen gehabt (mit Hyper-V 2016 TP5) und war damit sehr zufrieden.
 
//Update 2

Ich habe mal zum Testen im T20 ein Speicherpool mit den 3 HDD's erstellt, jedoch diesmal im Simple Modus. Große Dateien (4-40GB) von der OS Festplatte auf den Speicherpool kopiert. Hier erreiche ich Durchgängig 155 MB/s.

Da hast du ja lokal Daten verschoben. 155 MB/s sind mehr als du bisher über dein Netz übertragen konntest. Daher halte ich das für einen tauglichen Testfall. 155 MB/s Pool freigeben und übers Netz befüllen und gucken wie schnell das geht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh