Empfehlung/Erfahrungsbericht Storage für ESX im Unternehmen

Wie schon erwähnt würde ich in der Größenordnung nicht mehr auf iSCSI setzen... Und vor allem macht es in meinen Augen wenig(er) Sinn hier zwei dieser Kisten hinzustellen, wenn eine Kiste auch auf zwei oder mehr Enclosures erweiterbar ist...

Ich würde wie gesagt eher zu FC Raten, Dualcontroller in einer Kiste und dann auf zwei Enclosures... Sollte sich preislich nicht wirklich viel nehmen... Es sei denn du willst da 30 Hosts anklemmen und brauchst dementsprechend dicke FC Switche sowie auch 30 HBAs...

Hm ich werd das gleich mal durchrechnen!

Edit:

Nunja ich hab mal als Vergleich nen EMC CLARIION AX4-5 System ausm Konfigurator von Thomas-Krenn gezogen (Dell´s FC Systeme sind wohl nicht online konfigurierbar):

1x EMC AX4 12x300GB SAS 15k 13500€
1x AX4 Shelf 12x300GB SAS 15k 8250€
5x Dual Port FC HBA 7850€
2x Qlogic12 Port 8Gbit/s Switch 8000€
---
37600€

Das ist schon deutlich mehr als die rund 17k € für die 2x MD3200i als iSCSI... deutlich!

Grüße
Kai

Grüße
Kai
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vergiss aber nicht die happigen FC-Lizenzgebühren..

Achso, wir haben vor kurzen auch eine neue (Xen-)Virtualisierungsplattform angeschafft. 2 Nodes (Dell R410), 2 iSCSI-Storages (Dell R610 mit Debian Squeeze), 2 Switches (PowerConnect 2816). Die Storages sind untereinander zusätzlich per 10Gb-Ethernet verbunden (Heartbeat-Replikation).

Kosten lagen dabei genau in dem genannten Bereich.

Grüße
 
Zuletzt bearbeitet:
..? Bei FC-Switches musst du doch jeden einzelnen Port lizenzieren. Wie das bei den HBA´s ist, weiß ich nicht genau, da wir FC nur am Bladecenter haben. Dort muss aber auch jeder einzelne Port lizenziert werden (jeweils ~500€).

Grüße
 
Achso meinst du das... Neja dafür gibt es ja Switche, für jedermanns Portanzahl ;) Man sollte halt schauen, das man für sich das Optimum lizensiert, also weder das Minimum noch das Maximum.

Wir haben hier auf Arbeit 8/8 Port FC Switches von HP mit je 6 8GBit GBICs... Kostenpunkt ~1400€ pro Switch + ca. 100€ pro GBIC. (Sind aber Projektpreise)
 
Das meint eich mit "ziemlich happig" :) 10GbE-Karten kosten nicht mehr soviel, bei Dell waren es glaub ich ~400€
Overhead hin, Overhead her, limitieren werden eh die Datenträger.

58097_159682524060705_vbfw.jpg


Grüße
 
Neja um 8x10GbE Kisten zu vernetzen bleibt es leider nicht nur bei den 8x400€ für die NICs.

Die FC HBAs liegen in einem ähnlichen Preisbereich, unsere waren glaube ich so um die 600€ pro Stück als DualPort Version.

Das Problem bei 10GbE sind wohl die Switches... Zwar bieten viele "Einstiegs" stackabel Switches 2-4 Ports für 10GbE oder SFP+ Slots für 10GbE mini GBICs... (welche ebenso nochmals gut kosten ;)) aber man muss das halt auch irgendwie in der Masse zusammen bekommen...

Ich war jünst bisschen am Schnuppern was Enterasys hier zu bieten hat. Da gibts die B Serie bzw. die C Serie. Zu haben wohl in etwa im Bereich 2000-4000€ pro Gerät.
Jeweils 2xSFP+ Ports für die 10GbE mini GBICs. Für acht Geräte wären das also vier Switches gestackt.
Nimmt man ne B Serie, so hat man eine Stacking BW von schlappen 48GBit/sec. Sprich die 8 Ports laufen unter Volllast nichtmal mit vollem Speed. Die C Serie kann das besser... Aber kost auch dementsprechend mehr... ;)

Was man nehmen könnte wäre eine S Serie bzw. überhaupt einen Modularen Switch... Aber die kosten gleich nochmal um eine ganze Stange mehr Geld...


Unterm Strich halte ich 10GbE Netzwerktechnik zur Anbindung von Storage Gerätschaften im Moment noch für deutlich zu teuer, bzw. deutlich teurer als FC Hardware mit 4-8GBit/sec.
Wenn man natürlich die Switches schon hat bzw. vorhandene Switches 10GbE Ready machen kann, so kommt das Preislich schon besser hin. Für nen Neukauf würd ich es aber nicht empfehlen...
 
Zuletzt bearbeitet:
Wir haben deshalb ja auch "nur" die beiden Heartbeat-Storages zur Replikation damit ausgestattet.. Für die Nodes ist das denke ich auch nicht notwendig, geschweige denn machbar mit dem angegebenen Budget.

Grüße
 
Eine Eternus DX60 mit 12x 300GB SAS + 1 Erweiterungseinheit mit 12x 300GB SAS ist ohne Probleme für rund 16500€ zu haben, un zwar als DUAL-FibreChannel Version. iSCSI ist da noch ein Stück weit günstiger.
Wenn du bei einem authorisierten Händler ein richtiges Projekt anfragst geht preislich sicher auch noch ein bisschen was.

Und Leasingangebote können viele erstellen, da sollte man auch vergleichen.

Fazit: Das DELL-Angebot ist nicht sehr attraktiv.

Backbone
 
Worüber reden wir denn nun ? Über ein einzelnes Storage-System im Bereich von über 15k € oder über eine komplette Virtualisierungsumgebung im Bereich von 10k € ?

Grüße
 
wir haben die FC-Karten in den Servern immer gleich mitbestellt - kosten so nur 400€ statt den run 680€ (bei FTS - ehemals FSC)
als Switch haben wir uns letztes Jahr für Brocade 300 entschieden, welches schon mit 8 Gbics und den Lics kam (~ 3k) - könnte auf 16 erweitert werden, derzeit aber nicht notwendig.
LWL-Kabel kosten fast nix und damit is das auch günstig.
wenn ich jetzt Rechne, das ne Fujitsu DX 60 ~ 8k kostet (wir ham uns jetzt mal eine projektieren lassen mit 12x 1TB Platten (is nur fürs Testenv) ~ 6k) dann sollte das doch durchaus machbar sein:
2x Fujitsu DX60 mit 12x 1TB Platten ~ 16k
2x Hitachi Brocade 8Gbic's ~ 6k
5x FC HBA á 600€ ~ 3k
macht nach meiner rechnung 25k - wobei mir nicht klar ist, wieso du 2 FC-Switche brauchst?
 
die Rechennodes? - hat er doch auch nur 5 angegeben ;)
die Storagesysteme kommen schon mit FC - zumindest haben wir uns das so konfiguriert.
4GB FC - am Server - 8GB FC am Storage - und der Switch hat auch 8GB FC's drin...
imho is so, das die AX100 nichtmal ihre 2 1GB FCs auslasten kann, weil die vielen VMs (250 in der Testumgebung) einfach das Storage lahm legen.
aber wenn dann im Dezember - zwischen Weihnachten und Neujahr umgestellt wird aufs neue, dann sind auch diese Limitierungen Vergangenheit. - endlich Struktur - schluss mit dem Wildwuchs, und Endlich Platz - aktuell haben wir grad so 2 TB... *hust*
 
Also hier in dem Thread sollte es nur um das Storage gehen aber ich zeige euch mal eben meine derzeitige Komplettplanung auf:

5x R310 2,4ghz quad, 12GB RAM, Dual-PSU + iSCSI Lan Karte ~ 9000€
2x MD3200i 12x300GB SAS 15K ~17000€

Ergo Projektpreis von ca 26000€!

@konfetti: 2 FC Switche aufgrund der Rendundanz? Deswegen bräuchte ich ja auch Dual FC HBA´s in den Servern? Kann ja nicht Sinn der Sache sein das wenn der eine FC Switch ausfällt das ganze System komplett steht?

@Backbone: Ich schreib dir gleich mal ne PN - maybe kannst du mir ja mal ein Komplettpaket bei FSC ausrechnen?

Grüße
Kai
 
also nen kompletter neuaufbau?
dann würde ich aber schon projekttiern lassen.
R310.. Dell?

ganz schön klein die ESX-Server...
wir haben 2x RX200 S7, 2x Xeon E5620, 48GB RAM, 2x 146GB SAS (RAID 1), Dualport Gigabit Nic + FC HBA Karte - waren zwar für beide Server auch 8k aber die Performance ist ausreichend - diesmal ist sogar noch Luft beim Memory.
 
also nen kompletter neuaufbau?
dann würde ich aber schon projekttiern lassen.
R310.. Dell?

ganz schön klein die ESX-Server...
wir haben 2x RX200 S7, 2x Xeon E5620, 48GB RAM, 2x 146GB SAS (RAID 1), Dualport Gigabit Nic + FC HBA Karte - waren zwar für beide Server auch 8k aber die Performance ist ausreichend - diesmal ist sogar noch Luft beim Memory.

Jupp kompletter Neuaufbau - unsere derzeitige Hardware ist halt Querbeet gekauft worden... davon will ich weg

Es können auch 3x Systeme wie das von dir beschriebene werden... wo unterm Strich die Rechenleistung herkommt ist mir Schnuppe.. deswegen hatte ich die Rechenknoten auch aus dieser Diskussion rauslassen wollen.. ich war/bin mir halt nur beim Storage unsicher!


Grüße
Kai
 
ja, aber weniger, dafür potentere Server sparen zumindest bei den FC HBAs bissl Geld - abgesehn davon, das die Energiebilanz am Ende auch besser sein dürfte, wenn weniger Server mehr Power haben, bzw. diese optimaler nutzen, als wenn 5 Systeme nur RUM-Idlen...
Alles eine Frage des Gesamtaufbaus - unter Umständen wäre ja auch ein Bladecenter interessant, dafür müsste man aber die genaue Konfiguration kennen, also auch wie es vor Ort im RZ aussieht... - dann könnte ein direkt-attached FC-SAN auch noch eine Option sein ;)
 
Meine Enschätzung lautet folgendermassen:

Wenn es um Storage, insbesondere für ESXi geht, fällt mir folgendes ein:
(wobei ich bereits vorab zugebe, dass mich Oracles/SUN's ZFS hier besonders überzeugt hat)

-Anbindung an ESXI erfolgt immer über NFS oder iSCSI/FC
Einer der schnellsten NFS Server und einer der flexibelesten iSCSI Stacks (Comstar) kommt von Oracle/SUN. Wir haben uns dabei für NFS3 entschieden, weil es einfach, simpel und schnell ist und wir die NFS Datastores auch über CIFS sharen. Wir können so via Windows-Freigabe die VM's einfach klonen/ verschieben oder sichern. (Bei Datenbanken-VM's nur offline oder hot nach vorherigen ESXI-Snapshots)

Raid-Performance und Datensicherheit
Hier ist Software ZFS (auf aktueller Hardware) schneller als Hardware-Raid
und zählt zum Besten, was Datensicherheit angeht (kein write-hole). Insbesondere der Scrubbing genannte Online-Datencheck mit Refresh ist hier wichtig. Er beugt (wöchentlich gestartet bei Consumer Hardware, sonst monatlich) zusammen mit den Checksummen über alle Platten/ Controllern hinweg den stillen Dateifehlern (ich nenn es Datenrost) vor.

Erweiterbarkeit und Controllerunabhängigkeit
ZFS arbeitet Pool- und nicht Raid-orientiert. Pools können fast beliebig erweitert werden. Bei Ausfall eines Controllers/ Rechners: Einfach Platten in einen anderen Server mit beliebigen Controllern stecken und Pool importieren. Bei Hardware-Raid sind die Daten weg, sofern kein identischer Ersatzcontroller verfügbar ist

allgemeine NFS/iSCSI/Datenbank-Performance:
Hier kommt es vor allem auf IOPS aus. Die erreicht man durch möglichst viele, schnelle Platten, durch teure SSD-only Pools oder durch Hybridpools. Das sind Plattenpools mit zusätzlichen DRAM oder SSD Schreib-Lese-Caches. ZFS ist das einzige Dateisystem im dem sowas von vorneherein transparent integriert ist.

Snapshots
ESXi macht selber Snapshots. Das Anlegen dauert jedoch sehr lange, Snapshots verbrauchen viel Platz und kosten Performance, sind aber "hot-restore, sichern auch RAM".
Wir ergänzen das mit ZFS-Snapshots. Dank ZFS-Copy On Write brauchen die zunächst keinen Platz, sind praktisch sofort erstellt und kosten keine Performance. Der Zugriff darauf erfolgt praktischerweise auch über die Windows-Eigenschaft "vorherige Version". Ganz praktisch, wenn man mal schnell einen Klon von vor 14 Tagen braucht.

Platzverbrauch
ZFS beherrscht transparente Dateikompression und Deduplizierung, bei den auf einem Datenpool identiche Daten blockbasiert nur einmal gespeichert werden. (10 VM-Snapshots mit fast identischen Daten = 1.3 x Platz). Ist aber noch ganz neu und braucht ca 3GB Ram pro TB Daten.

Handling:
*Solaris* ist ein OS aus einem Guss und nicht eine Ansammling von Tools. Es enthält Out of the Box alles, was benötigt wird. Besonders komfortabel wird es bei NexentaStor (oder bei den den anderen freien ZFS Versionen mit meinem ebenfalls freien napp-it) durch eine Web-Management Software.

Kosten:
Es gibt kommerzielles ZFS mit zertifizierter Hardware und Support von Oracle oder Nexenta oder als Freeware (NexentaCore, Opensolaris, Openindiana/ Beta) auf Standardhardware. Nicht auf Solariskernle basierte Sachen (ZFS on FUSE oder Free BSD) würde ich nicht oder noch nicht nehmen.

ps
ZFS ist sehr wählerisch, es gbt aber typische Standardkonfigurationen, die einfach sofort und ohne Probleme laufen. Manche Distributoren (hier fällt mir in D vor allem Thomas Krenn ein) liefern auch getestete ZFS-Storage-Hardware. HP ist meines Wissens auch in Verhandlung mit Oracle. Ansonsten: Server mit Intel 5520 Chipsets, Storagecontroller mit LSI 1068 oder LSI 2008 (IT-Mode/ Jbod) und Intel Nic laufen eigentlich immer sofort und ohne Probleme - nicht nur mit ZFS, auch mit Esxi oder fast beliebig anderem.

Wir integrieren inzwischen sogar je einen NexentaCore-ZFS/NFS-Storageserver in jeden ESXI-Server. (Virtualisierte Storage-Server mit direktem Controller Plattenzugriff via vti-d/Pass-Through). Ein grosser SAN Storage erschien mir zu riskant (single-Point of Failure). Wir haben also praktisch einen dezentralen SAN/VMware-Verbund, untereinander und mit den Backupsystemen mit 10GBe CX4 verbunden.


mein Fazit:
Wichtiger als die Frage Dell, HP oder IBM ist für mich also eher, welches System. Ich würde hier auf NetApp (Top-End) oder auf ein aktuelles ZFS-OS von Oracle/ SUN oder Nexenta* setzen. Das freie OpenIndiana muss sich erst noch bewähren. Wobei ZFS auch im Vergleich zu Netapp meiner Ansicht nach das Modernste ist, was derzeit als Dateisystem, und damit als Storage-Basis, am Markt ist.

Wir (Hochschule) haben alle unsere Storge-Systeme (ESXi und AD-Windows/ Mac-Fileservices) inzwischen
auf ZFS (aktuell NexentaCore) umgestellt und haben es nicht eine Sekunde bereut. Ganz im Gegenteil. ZFS begeistert mich eigentlich immer wieder aufs Neue.


gea
 
Zuletzt bearbeitet:
Du weist schon, das Copy im Datenspeicher der laufenden VM, bzw. des Hosts zu inkonsistenten Daten führen kann? - VMware warnt eindringlich davor - Filer-systembassierte snapshots einfach so zu machen. - die brauchen den entpsrechenden trigger vom System, da sie sonst beim übernehmen probleme machen könnten - einzig NetApp ist hier vorerst freigegeben, auch nur in Verbindung mit einem ESX-Connector.

ansonsten, ich hätte unter umständen Bauchschmerzen alles nur über iSCSI zu machen, bin von der performance übers FC eigentlich mehr als zu frieden, im Gegensatz zu dem iSCSI - Target... (und das is nen NetApp)
 
So ich habe gerade mal ein Angebot über folgende Fujitsu Komponenten angefordert:

3x RX300 S6 (2x Xeon 5620, 24GB RAM, dual FC-Adapter, redundandte Netzteile)
1x DX60 Dual-FC (12x 300GB SAS 15k U/Min)
1x Eternus Erweiterungsshelf (12x 300GB SAS 15k U/min)
2x Brocade 300 FC Switch (8-Ports)

Mal sehen wie das vom Preis (Komplett bzw. Leasing) liegt!

@gea: Ich hab mir NexentaStor schon mal angeschaut - ich glaube ich verlass mich erstmal auf einen "bewährten" Storage Typ ;)

Grüße
Kai
 
Wie kamen die 24 GB RAM pro ESX Host zustande?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh