gea, hast du eigentlich schon mal napp-it als Hyper-V-Gast ausgetestet?
Ich frage, weil ich mit VMware nicht so richtig warm werde, mir aber das All-in-One-Konzept an sich zusagt. Und mit dem neuesten Hyper-V ist wohl jetzt auch das zuverlässige Durchreichen von PCIe Devices (und damit auch RAID Controllern oder HBAs) möglich, was mir eine Bearbeitungsmaschine mit Windows und napp-it als Gast mit ZFS ermöglichen könnte.
Hast du da Erfahrungen und / oder zuverlässige Informationen?
Es gibt für mich mehrere Gründe ESXi zu nehmen
- Es hast die deutlich bessere Unterstützung für pass-through (tut einfach ohne Nachdenken)
- Es hat die bessere Unterstützung für beliebige Gäste (BSD, OSX, Linux, Solaris, Windows)
je mit angepassten Treibern, vor allem die schneller vmxnet3 vnics
- Es ist schlanker/ schneller
- Recovery nach Totalcrash/ Bootplatte defekt. Neuaufsetzen von ESXi mit VM Import ist unschlagbar einfach und schnell
- Man muss nicht alle zwei Wochen ein "kritisches Sicherheitsupdate" mit Reboot aufspielen
- Die lokale html-5 Konsole ist seit ESXi 6.5U1 ganz brauchbar. Man braucht also nur noch einen Browser für ESXi Management
Eine Bearbeitungsmaschine/VM mit Windows ist ja kein Thema.
Wenn es nur um Storage Management geht, ist auch OpenIndiana mit lokaler GUI/ Browser eine Option
Ich habe ja ursprünglich mit Hyper-V angefangen (2008) bin dann aber zu ESXi gewechselt und sehe nach wie vor keinen Grund zurückzugehen, selbst dann nicht wenn AiO Storage Virtualisierung mit Hyper-V sauber laufen würde.
- - - Updated - - -
Hiho..
Ich bin auch dabei mir ZFS an zu gucken, vor allem in Hinsicht von Ausfallsicherheit und Hochverfügbarkeit.
Gegeben sind 2Headnodes und 2jbods, jeweils über Kreuz verbunden. Wie kann ich nun es nun bewerkstelligen das ich ein jbod ausfall abfangen kann, irgendwie sollte es möglich sein, siehe hier:
Open-E JovianDSS Advanced Metro HA Cluster Feature Pack | Open-E dort wird es dual-storage genannt und die jbods gespiegelt, so kann man mal an einem ne Wartung ohne ausfallzeit durchführen. Danke für infos!
Die gängigsten Ansätze sind
- MPIO SAS Storage mit je eine Datenpfad zu zwei Headnodes. (Dual Head, Single MPIO Jbod, Cluster in a Box)
Die sehen beide das Jbod. Eine Clustersoftware schaltet Services und Pools um
Vorteil: unschlagbar schnell, Nachteil: Ein Node Ausfall ist ok, Jbod is single point of failure.
Erweiterung: Man kann zwei Jbod nehmen und die Datenpools so anlegen dass eine Jbod Spiegelung entsteht. Die Clustermanagementsoftware braucht man immer.
Software: PaceMaker (Linux) bzw RSF-1 (
HA Plugin for ZFS Open Storage Appliance )
Alternative
2 Storageserver die einen Pool basierend auf einem Netzwerkmirror über iSCSI aufbauen.
Für NFS und SMB kann man dann ZFS selbst als Clustermanager für Service-Failover nutzen, Es wird nur noch Software für IP Failover und Pool-Switch benötigt. Experimentell habe ich sowas in mein napp-it 17.06dev integriert.
- - - Updated - - -
Hallo zusammen,
ich bin gerade am überlegen wie ich ein Dataset (Solaris) an meinen Backupserver für Clients (Server 08) anbinden soll.
Dataset über NFS durch ESXi als VHDD im Server (Dürfte am meisten Overhead haben)
Dataset über CIFS/SMB an den Server
Dataset als zvol/iscsi an den Server (Geht das überhaupt - Zpool VS ZVOL)
Soweit ich weiß, muss ich mich ja entscheiden ob zpool oder zvol, jetz habe ich aber gesehen, dass man zB. in FreeNAS ein Zvol/ISCSI Ziel auch auf einen zpool/Dataset machen kann - hat zumindest in dem Video für mich so ausgesehen.
Das Dataset wird nur als Speicher für die Backups genutzt.Was ist hier das Sinnvollste ?
Am einfachsten ein ZFS Dateisystem auf Solaris per NFS oder SMB freigeben und Backups darauf als Ziel laufen lassen.
iSCSI Targets sind Blockdevices wie Festplatten die man Remote ansprechen kann und mit dem Gast-Dateisystem formatieren kann. Das kann ein ZFS Server mit Initiator sein, aber auch z.B. eine OSX oder Windows Gast der die wie eine lokale Festplatte nutzt.
Configuring Storage Devices With COMSTAR - Oracle Solaris Administration: Devices and File Systems