NAS als Storage für ESXI / Hyper-V

partyposse

Neuling
Thread Starter
Mitglied seit
11.11.2007
Beiträge
102
Ort
Thun
Hallo zusammen

Habe momentan einen T20 als Server und benutze den Haupsächlich als Homelab. Nun habe ich mir überlegt einige Sachen über einen zentralen Storage laufen zulassen.
Kann man da ein Consumernas mit ISCI unterstützung nehmen (ESXi, Xenserver)? bleibt die Perfomance dabei für reine Labzwecke akzeptabel?
Wie sieht das mit einem 1 Bay NAS wie dem Synology DS115 aus? und kann ich neben den ISCSI LUNs noch Shares für meine Files etc betreiben?

Danke schonmal und Gruss
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich würde persönlich kein ISCSI nutzen.
NFS ist mittlerweile mindestens genauso schnell, wenn nicht schneller und du brauchst kein eigenes Dateisystem ect.
Habe das mal mit meiner DS414 laufen lassen (RAID5).
Funktioniert perfekt und war unnormal (sorry des ausdruck) schnell.
 
Bei Hyper-V NIEMALS NFS nutzen. Da kannst du die Pakete auch mit Hermes verschicken. ;)

Dann kommt es drauf an wie viel Anspruch du hast. Ich finde meine 414 mit 2 GBit Netzwerkanschluss zu langsam. So ab 4 - 5 VMs reagieren die einfach nicht mehr so gut. Aus dem Grund möchte ich mir ne DS415+ holen, welche SSD Support bietet. Macht die Sache doch ein gutes Stück angenehmer.
 
Bei Hyper-V NIEMALS NFS nutzen. Da kannst du die Pakete auch mit Hermes verschicken. ;)

NFS3 ist per se kein Problem. Es bietet zwar keine Authentifizierung und Authorisierung, ist dafür aber extrem schnell. Meine ESXi Server sind alle an ZFS Storageserver per NFS datastores angebunden - allerdings in einem abgeschotteten SAN Vlan.

Unter Windows ist eher die lieblose Unterstützung für NFS das Problem weswegen ich da eher auf SMB oder iSCSI setze.
 
habe vergessen zu schreiben, das meine Erfahrung auf die Benutzung eines ESX Servers bezogen ist ;)
 
NFS3 ist per se kein Problem. Es bietet zwar keine Authentifizierung und Authorisierung, ist dafür aber extrem schnell. Meine ESXi Server sind alle an ZFS Storageserver per NFS datastores angebunden - allerdings in einem abgeschotteten SAN Vlan.

Unter Windows ist eher die lieblose Unterstützung für NFS das Problem weswegen ich da eher auf SMB oder iSCSI setze.

NFS unter Windows ist (egal welche Version) ein gutes Stück langsamer als SMB oder iSCSI. FCoE jetzt mal noch gar nicht mit eingerechnet. Best Practise bei Hyper-V 3 (2012 R2) ist SMB3 mit Multipathing. Allerdings scheitert es bei vielen Herstellern an letzterem.
 
Danke für eure Inputs. Denke werde für VMs auf denen ich wirklich arbeite bzw Konfigurationen für mein Lap ausführe bleibe ich beim lokalen Storage. Werde dann mit einem NAS und ISCI ein bisschen herumproben um Erfahrungen mit Storageinbindung zu sammeln, könne ja auch nur ein paar Clients sein :)
 
Habe eine RS214 eine zeitlang für esxi via iscsi als Storage angebunden gehabt. Es kam ständig zu Abbrüchen bei hoher Last und die gesamte NIC hing sich auf. Seitdem ich zu NFS gewechselt bin läuft alles reibungslos und IMHO ist der Durchsatz besser geworden.
Mag vielleicht mit einer von VMware zertifizierten NAS besser aussehen.
 
Ich habe bei mir zuhause für WSUS und DC nen NUC mit ner 120GB SSD laufen, auf der SSD ist der Host (HyperV 2012 R2) und die OS VHD (2012 R2). Die Daten von WSUS, WDS und die Profildaten liegen auf einer 500GB großen iSCSI LUN die auf meiner DS115 liegt -> Für Daten aufjedenfall ausreichend! Die Ordnerumleitung wird auf ein Share der DS gemacht -> funktioniert also beides gleichzeitig.

Die iSCSI Platte ist direkt an die VM durchgegeben, also keine VHD.
Bei mir konnte ich allerdings die VM nicht gleich starten lassen, sondern musste einstellen das die VM 20 Sekunden wartet bevor sie gestartet wird, da ansonsten das iSCSI Target noch nicht eingebunden war. Kann natürlich an meiner Konfiguration liegen oder aber es ist ein generelles "Problem".

Du kannst die iSCSI LUNs entweder auf Blockebene als "Partition" einrichten oder auf Dateibasis, dann wird eine Image Datei auf der "normalen" Partition angelegt.
 
Zuletzt bearbeitet:
Hallo...ich würde mich, statt auf ein LEISTUNGSSCHWACHES...weil in der Regel mit zu wenig (ECC)-RAM ausgestattet - lieber auf ein selbstgebautes NAS (HP N54L oder GEN8 mit N4f und ZFS - schneller als mit einem RAID-Controller) setzen. Mit 16GB RAM und einem Pentium 2020 oder gar Xeon spielt er jedes bezahlbare NAS an jede Wand.
Ich für mich schließe auch eine Verbindung von meinem 2012R2-Server (Dell T20, 32 GB ECC) und seinen VM´s unter Hyper-V via iscsi aus. Zuviel Aufwand, möchte man es schnell haben (10GB-NIC etc). Ich mache jeden Tag via rsync ein Backup vom Hyper-Visor - als auch vom NAS auf einen Backup-Server (HP Gen8) und diese Geschwindigkeit reicht wirklich in einem normalen "Haushalt"...
 
Zuletzt bearbeitet:
@pumuckel...ich habe beide bei mir laufen, den N54L als auch den Gen8 (P2020). Die Power des N54L mit 16GB ECC (für ZFS indiskutabel eine Voraussetzung..wie Du bestimmt weißt) ist ja vielfach größer als die der gekauften Kisten. Die Konfig stellt auch kein Hexenwerk dar.
Ein Selbstbau hätte mir auch spass gemacht! Aber es kommt eben teurer! Und wenn der Gen8 leiser wäre/ist, dann wäre das überhaupt kein Grund mehr für mich ein FertigNAS zu kaufen...oder eins zu bauen. Mit seinen 2 NICS...der ILO-NIC...ist das schon ein feines Teil!!
Keine Frage...
 
Nur um dieser Legendenbildung ala

"Linux z.B. Synology oder OMV ist Klasse weil da läuft ja mit ein paar hundert MB RAM alles mit 100 MB/s und das mit einer CPU die viel schwächer ist als in meinem Smartphone..

ZFS ist so schlecht weil man da mindestens 16 GB ECC RAM braucht, wahlweise 4 GB je TB Daten."

was entgegenzusetzen.

Ich hatte lange ZFS Maschinen mit 2 GB RAM und 6-12 TB Daten am Laufen (Zugegebenermaßen Solaris und nicht BSD aber ich glaube nicht das BSD soviel RAM hungriger ist). War auch nicht so schnell wie ich das heute gerne hätte, da eben kein RAM für einen Lesecache da war und das ist es ja was ZFS schnell macht. 100 MB/s bei einem User und großen Files war aber kein Problem.

Mehrere User (Reichen schon zwei, die einen Film zeitversetzt anschauen) oder viele kleine Files lassen aber die Performance schnell auf 20-40 MB/s einbrechen, egal ob mit oder ohne ZFS oder was für ein OS. Mehr kann eine Platte ohne Cache Unterstützung einfach nicht. Und gerade da macht es einen Unterschied ob ich ohne Cache oder mit 14 GB Cache arbeite (ZFS mit 16 GB = ca 2 GB OS + 14 GB Cache)

Klar ist RAM heute so billig, dass ich immer wenigstens 4-8 GB einbauen würde - ECC sowieso immer bei jedem Server (selbst bei meinem Arbeitsplatz mache ich das), schliesslich sind die Daten was wert. Für die Stabilität und für ZFS ist soviel RAM aber nicht nötig wohl aber für die Performance die ich möchte.

Wenn das Thema aber ESXi Storage ist bringt RAM als Lesecache erhebliches. Nur dadurch kann man aus den wenigen iops (ca 100 pro normaler Platte) richtig Performance holen. Ansonsten müsste man sich beim Lesen und Schreiben die wenigen iops auch noch teilen. Zudem hat ZFS gerade beim Schreiben Vorteile da es kleine random Writes über mehrere Sekunden zu einem großem schnellen sequentiellen Write zusammenfasst. (Ein schnelles Slog Device könnte da notwendig sein, wenn das auch zusätzlich noch schnell/crash/powerloss/transaktionssicher sein muss)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh