Caching SSDs im virtualisierungs Host

konfetti

Urgestein
Thread Starter
Mitglied seit
10.08.2006
Beiträge
2.116
Ort
Lower East Bavaria
Hallo Zusammen, leider hab ich hier jetzt keinen entsprechenden Thread gefunden, daher nun folgende Frage(n):

Wer nutzt denn SSDs als Cache im Virtualsierungshost - Welcher Hypervisor ist das.
Vorteile gegenüber z.B. SSD-Cache im Storage...?

Aktuell haben wir zwar Read-Cache im Storage, der auch schon einen nennenswerten Performance-Schub gebracht hat, aber mich interessiert das Thema einfach.
Da wir demnächst neue Server anschaffen, würde ich das je nach Erfahrungswerten auch mal in betracht ziehen, verursacht aber eben auch Kosten...

Danke schon mal.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo Aktuell nutzen wir keinen Cache im Host, sondern nur im Storage (Nimble).
 
Welchen Hypervisor setzt ihr ein?

Wir verwenden VMWare ESX mit VSAN und AllFlash. Dadurch ist ein Cache natürlich obsolete.
 
Es ist VMware Essential Plus im Einsatz, als Storage momentan noch eine MSA2052 mit wie gesagt SSD-Cache. Allflash fällt aus Preisgründen aktuell eher aus, wäre aber nice.
Die Anbindung an die 2 Hosts erfolgt per SAS, was ggf. auch einen Engpass darstellen könnte...

@Toupman wie zufrieden bist Du mit dem Nimble? - wir bekommen das als Demogerät mal vorgestellt und haben dann ggf. die Möglichkeit diese zu behalten, quasi Try&Buy...
 
Um welches Modell geht es denn bei Euch? Wir haben jetzt die Hybrid 40 er im Einsatz.

die geht schon gut vorran. Aber richtig interessant wird es ab Ende März. Dann ziehen auch die sehr perfomance hungrigen Workloads darauf um.

MfG
 
Hi, so, der von Nimble war zwar noch vor Corona da, zwischenzeitlich dann auch mal noch ein paar Specs bekommen, aber wir werden wohl bei der MSA2052 bleiben, weil auch der nicht glaubte, das es an der Maschine an sich liegt, sondern eher an den Settings... - mal schauen wann die 2TB SSDs für den Cache-Pool zum testen kommen.

Trotzdem würde mich noch interessieren, wie gut die Sache mit SSDs in den VM-Hosts skaliert - deren Kauf steht immer noch aus ;)
 
Also wir haben Corona bedingt bis jetzt auch noch nicht so viel auf der Nimble laufen, aber das was da läuft ist schon sehr flott unterwegs.
Unser Exchange z.B. macht das Backup jetzt in ca. 2 Stunden. Vorher auf der Lefthand 4530 hat das ca. 8 Stunden gedauert. Zudem fühlt der Exchange sich deutlich flüssiger an.
 
Ich habe hier verschiedene Varianten.

Einmal ein QNAP Storage mit 2 M2 SSDs. Mal als Cache, Mal als Tiering konfiguriert. Schlußendlich laufen die SSDs jetzt als eigens Volume. Vorher hab ich da nicht so viel von gemerkt. Dahinter sind allerdings auch 12 4TB Platten im RAID 10.

Jetzt frisch gekommen sind aber neue Host und eine Nimble HF20.

Da bin ich aber noch nicht so ganz im reinen mit mir, wie ich da die Volumeaufteilungen machen soll. Evtl hat ja jemand von euch einen Heißen Tipp? Sind 3 Hosts im Hyper V Failovercluster.

An einem Standort haben wir eine MSA2052. Da bin ich tatsächlich gerade etwas enttäuscht von und werde mich auch dort nochmal mit dem Datenträgergruppen und volumes beschäftigen. Momentan sind 14x 2,4TB Platten drin + die beiden 800GB SSDs.
10 Platten im RAID06, die anderen 4 im RAID10. Die beiden SSDs wollte ich eigentlich auch standalone im RAID01 machen. Geht aber nicht, wird dann automatisch ein Tiering draus...
 
Bei Volumes auf der Nimble gibt es ja einiges zu beachten.

Was wird darauf laufen, wie sind die Settings im ClientOS, usw....

Habt Ihr ein Chassis oder zwei in einer ProtectionGroup?
 
Wir haben ein Chassis.
4 Fileserver
1 Redaktionssystem mit SQL Datenbank
1 Kassensystem mit SQL
2 DC
1-2 Terminalserver
Bisschen Kleinkram.
 
Wie sehen denn deine SQL VMs aus?
Je nach Partitionsverteilung brauchst du da ja jeweils 3 Volumes für.

Bei den Fileservern würde ich das größenabhängig machen. Die Terminalserver auf jeweils eine eigene und den Kleinkram auch auf ein bis zwei.

Kein Mailserver?
 
Kein Mailserver, sind O365.
Tja gute Frage zu den SQLs... Liegen nicht unter meiner Fuchtel, werde ich aber nochmal nachfragen. Aber auf eine ähnliche Aufteilungsüberlegung bin ich nun nach vielem Lesen auch gekommen.
Die 4 Fileserver sind je zwischen 2-4TB.

Ach so, die eine SQL ist ne Express, das weiß ich schon. :-)
 
Bei uns ist es so, dass wir pro MSSQL Server jeweils ein Volume für die OS Partition, eins für die Datenbank Dateien und eines für die LOG Files haben.
Dazu muss der SQL Server im Windows natürlich auch entsprechend mit eigenen Partitionen und Pfaden für die entsprechenden Dateien konfiguriert sein.

Die Performance die der SQL Server an den Tag legt ist schon nicht schlecht.

Bei den File Servern ist zudem wichtig, dass die OS eigene Deduplizierung bzw. Komprimierung ausgeschaltet wird, bevor die Server auf die Nimble migriert werden. Stichwort Dirty Cache.
 
Uiui ob ich das gerade von dir hören möchte. :-)
Unser Systemhaus meint, das DeDup in der VM könne an bleiben und störe nicht groß...

Bzgl SQL, legst du da in die Volumes dann die Virtuelle Disk oder bindest du sie Volumes InGuest ein und legst die SQL direkt auf das Nimble Volume?
Letzteres Krieg ich nicht umgesetzt, da ich nur die Veeam Standard habe und leider nicht die Backups von den Snapshots ziehen kann.
 
Bei dem SQL Server lege ich die Virtual Disks in die Volumes, nach ca. gefühlten 2 Wochen intensiver Recherche haben wir für uns festgelegt, dass der Performance Unterschied in unserem Anwendungsfall vermutlich nicht messbar wäre.

Es gibt eine recht gute Sammlung von PDFs von HP bezüglich der Nimble Konfiguration.

Und ich empfehle dringend, die Windows Deduplizierung auszuschalten: Windows 2016 native dedup on Nimble volumes

Dazu kommt dann noch das Dirty Cache Problem, da Windows in der Deduplizierung ja solche Pakete anlegt und die dann beim Lesen immer vollständig im Cache landen.
 
Um auch noch mal meinen Senf zur Ursprünglichen Anfrage zu geben.
die 6 2TB SSDs laufen in einem Raid6-Diskpool in der MSA mit 2 Volumes die für die Server sind, die eine DB im Hintergrund haben, damit werden auch die Disks entlastet.
die bisherigen 800GB SSDs aus dem "alten" pool werden zu Caching-SSDs für die HDDs - die 400er Caching-SSDs kommen als lokaler Storage in den Test-ESXi
vom Kostenpunkt war das mit den 2 neuen Servern die beste Lösung und auch die Performance mit den neuen Maschinen und der konfig ist deutlich besser.
Was dann Hostcaching wirklich noch verbessert, oder auch nicht, sehe ich dann am Test-ESXi - der bekommt dann zum testen noch mal die alte MSA2040 als unterbau... - langfristig läuft der aber nur mit den lokalen Platten, was vom Platz fürs testen eh schon Overkill ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh