@p4n0
Also rein den den Daten, die du lieferst kann man absolut keine Empfehlung aussprechen geschweige denn eine Richtung.
Mal das HA außen vor, um 20TB mit ZFS bereit zu stellen "reicht" dir imho ne kleine Xeon E3 Kiste mit 4x8TB Platten, bisschen RAM und den 2x10G Interfaces... Für ne Virtualisierungsumgebung, wo es, so meine Erfahrung, aber nicht unbedingt darum geht, die dicksten VMs mit xxTB pro VM zu betreiben, sondern wo es eher darum geht, viele VMs mit ihren "Basis" 20-100GB zu stemmen, kommt bei 20TB ne recht große Menge bei rum.
-> unsere NetApp Storage Cluster auf der Arbeit haben zusammen gerade mal etwas über 20TB nutzbar und stemmen über 300VMs. Da sprechen wir aber auch weit über 100HDDs (SAS/FC mit 10/15k).
Spinn den Faden weiter -> 20TB könnten auch größer 50x 400GB SSDs inkl. Hotspares und entsprechend Reserve für die Raidlevel sein, wenn es um massivste IO Last geht!
Wenn du nicht 50k in Lizenzen ausgeben willst, so wirst du aber bestimmt faktisch recht hohe Beträge in die Hardware/die Platten investieren müssen, vor allen bei der Virtualisierung, wo Storagespeed direkt dicht gefolgt von der RAM Menge quasi das wichtigste ist, was man beachten MUSS -> und das erste ist, was man idR. verkackt bei der Planung
Kurzum, ohne Infos, was da passieren soll, kann man wenig bis nichts empfehlen... Ins Blaue bringt normal auch keinen direkt weiter. Aber mal ein Versuch fürs "Blaue".
-> wenn du auf ZFS verzichten kannst. Ich verbaute jüngst ein Single Shelf, DualController Cluster System NetApp FAS 2554. Da stecken 2x9x2TB 7,2k SAS Platten drin (+ 2x HotSpare) + 4x 400GB SAS SSDs als Cache davor. Im Clusterbetrieb ist das Ding auf 9x2TB pro Controller im RaidDP eingedreht. Der Cache mit den vier 400GB SSDs klemmt bei beiden Aggregates "davor". Das Teil stemmt aktuell gut 20 VMs... Alles Windows Datacenter 2012 R2. Bisschen DC, bisschen SQL, bisschen Terminalserver, bisschen Kleinkram. -> läuft sehr anständig muss ich sagen. Sequenzielle Datenrate bringt ca. 7-8GBit/sec lesen wie schreiben durchgängig pro Controller -> sprich bei Verteilung über beide Controller entsprechend fast doppelt so viel. Random Access geht durch die SSDs auch entsprechend fix mit mehreren 1000 IO/sec.
Kostenpunkt wenn ich das recht in Erinnerung habe -> ca. 16k inkl. Lizenzen (Base License, Cluster License, NFS/iSCSI/SMB)
Das Ding wird bei massiver IO Last aber recht schnell wegbrechen, vor allem, wenn du mehr Last erzeugst, als die Cache SSDs wegstecken können... Die billigen 7,2k Platten knicken bei Random Last extrem ein. Größer geht bei den Dingern allerdings IMMER
Alles eine Geldfrage...
Wenn es rein um ZFS geht, würde ich mir an deiner Stelle mal externe Hilfe ins Haus holen... Dir nutzt ne Bastelkiste nix, wenn da irgendwas "wichtiges" im Problemfall dann über Stunden oder Tage steht, weil du von dem eingesetzten Produkt keine Ahnung hast oder schlicht den Fehler nicht findest.
Wenn ein aktives System und ein Backupsystem mit ZFS Replikation und ein paar Minuten Versatz reicht, ist das recht banal. Im Crashfall muss man dann halt manuell beim Backupsystem die Shares aktivieren und die VMs importieren.
Wie funktioniert das genau? -> weil das klingt mir stark danach, dass die Umgebung definitiv im Falle eines Storageausfalls crasht. Oder verstehe ich dich gerade falsch? Da es hier offenbar um eine Storagelösung als Backend für die Virtualisierungslösung gehen soll, wäre das klar ein Single Point of Failure und damit nicht unbedingt anzuraten, so denke ich. Da bei einem "Problem" auf dem Storage damit die komplette Umgebung steht. Das kann zumindest jede insich geclusterte/HA Lösung der halbwegs vertretbaren Fertigteilanbieter zumindest abfedern. Selbst mit den Einstiegsgeräten geht idR normales/einfaches HA in einem Dual Controller Setup.