Kaufberatung Produktivsystem ESX Server + FC Plattenstapel und HDDs

fdsonne

Legende
Thread Starter
Mitglied seit
08.08.2006
Beiträge
35.863
Ort
SN
Moin Leute,

ich bräuchte mal auf die Schnelle in etwa ne Kaufberatung für unseren neuen ESX Server auf arbeit.
Das ganze wird definitiv ne HP Geschichte werden, sprich in Region DL 380 G6...
An CPUs dachte ich an zwei X5550er mit 48 GB Speicher. HDDs werden intern zwei mal 72GB SAS 10k drin stecken im Raid 1... Dort drauf kommt alleine der ESX und die VM des Domaincontrollers.

Soweit erstmal klar, Problem ist jetzt, wir brauchen noch nen Performanten Plattenstapel dazu, sprich irgendwas mit FibreChannel Interface...
Gleichsam nen Fibrechannel Controller in den Server.

Bei der Dimensionierung der HDDs bin ich mir ebenso noch unschlüssig, auf der Kiste laufen 18 VMs mit Windows Server 2003 Std. R2 32Bit, welche verschiedenste Serverdienste bereit stellen, und eine Windows Server 2008 64Bit + Exchange 2007 VM.

Derzeit sind diese VMs alle mit den Bootplatten auf nem Raid 5 aus 3x300GB SAS 15k Platten in nem ISCSI Plattenstapel untergebracht. Der Exchange hat ebenso seine Datenbank auf den 300GB SAS Platten.
Der Fileserver und andere nicht Leistungsfressende Dienste haben ihre Datenbereiche auf nem Raid 5 aus 6x750GB SATA 7,2k HDDs im selben Plattenstapel.

HDD Performance derzeit unter aller sau, was mit Sicherheit zu einem Teil an der ISCSI Verbindung (nur 1x GBit) liegt und zum zweiten daran, das zu viele VMs auf zu wenig einzellne Arrays laufen und somit bei Zugriff immer das komplette Array lahm gelegt wird.



Ich dache an 9x300GB SAS 15k HDDs in nem Plattenstabel + 3x1TB SATA HDDs für die besagten Leistungsschonenden Sachen inkl. dem Fileserver.
Dann die neun SAS HDDs in drei mal Raid 1 und einmal Raid 5.
Je nachdem dann die VMs auf die Arrays aufteilen. (Sharepoint auf eigenes Array, Exchange auf eigenes Array, Bootplatten auf eigenes Array)



Was läuft an Servern, welche hohe Plattenlast erzeugen:
- besagter Exchange
- ein Sharepoint Server (wird wohl zukünftig erweitert auf zwei oder mehr)
- ein Trendmicro Worry Free Business Security Advanced Server
- ein Fileserver (kommt auf die SATA HDDs)
- MS Terminalserver (wird ggf. zukünftig durch ne Citrix Serverfarm ersetzt)
- ein WSUS Server für alle PCs im Netz.



Was meint ihr zu der Problematik?
Wie gesagt, aktuelles Sorgenkind sind die HDDs und deren Anbindung an den ESX. Da muss was deutlich dickeres ran... Da ich aber von dem ganzen Fibrechannel Zeug eher weniger die Ahnung hab, frag ich lieber hier mal nach ;)

Zum Schluss noch die Kostenfrage, da das ganze Produktiv sein wird, stehen die Kosten erstmal im Hintergrund, das ganze sollte aber P/L mäßig korrekt sein, sprich ich brauch keine Aussagen über Hardware, welche 1% Mehrleistung für 10k Euro bringt ;)


Ich dank euch schonmal, vllt kann ich ja mit eurer Hilfe morgen dem Chef ein Angebot vorlegen... Gekauft wird definitv, mir liegt da quasi freie Hand, wenn ich sage geht los, dann geht das los ;)

Grüße
fdsonne


EDIT:
Achso, zu erwähnen sei vllt noch das der derzeitige DL 380 G5 mit zwei 5420er CPUs und 32GB FB-Dimm 667er Speicher ebenso ein Fibrechannel Controller bekommt und als zweiter Server in der ESX Farm fungieren wird.
Sprich die Last könnte man dementsprechend noch teils auf den zweiten Server auslagern. (wobei das nichtmal das Problem darstellen sollte, weil aktuell ca. 25GB Speicher belegt sind und die CPUs beim aktuellen um die 30-50% ausgelastet sind.

Das ganze bekommt auch Vollwertige ESX Lizenzen spendiert um so Sachen wie VMotion zu realisieren ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Keiner ne Idee?
Muss doch jemand geben, der sich mit HP Fibrechannel Zeug hier auskennt :(
 
Ideen schon aber nicht für HP...könnte dir bei FSC ein bisschen helfen.
 
ich bin auch eher für FTS (so heist FSC jetz) - da bekommste mehr leistung fürs gleiche geld oder die gleiche leistung für weniger geld als bei HP.

war zumindest bisher meine erfahrung.

als SAN dahinter würde ich, wenn schon FC-Platten aber auf einen NET-APP oder EMC-Filer setzen.
 
Nein Ein Herstellerwechsel kommt wohl nicht in Frage, da bis jetzt alle Vorhandene Technik bis auf 3 kleine alte Dell Server von HP kommt...
Und das soll auch so bleiben...
 
Fibre Channel ist dann Pflicht oder?
Wäre es ne Möglichkeit für des Geld was FC kostet, die ISCSI Verbindungen auf 2/4 GBit aufzubohren?
Teilen sich derzeit die ISCSI Verbindungen des Netzwerk mit den anderen Anwendungen oder gibts ein eigenes Storage Netz?
 
Klar wäre auch ne möglichkeit, aber ich bin von der ISCSI Verbindung noch net so richtig überzeugt.
Keine Ahnung wie das jetzt genau abläuft, der aktuelle Server ist vor meiner Zeit beschafft wurden, und dort ist mittels nem Mod für den ESXi eine der Internen NICs für die ISCSI Strecke zugeteilt, die VMs reden alle über ne andere NIC.

Klar man könnte nen Hardware ISCSI Controller verbauen im neuen Server und für den alten auch einen dazu, das vorhandene Plattengehäuse weiter nutzen bzw. ein zusätzliches zukaufen und mit HDDs aufrüsten...

Es muss aber zwingend irgendwas externes sein, sprich das die VMs außerhalb des Servers liegen damit die ganzen VMWare Enterprisesachen auch funktionieren...

FC war so ne Idee von mir bzw. unseren externen Betreuern, denn wir müssen uns so langsam von der Kostengünstig und hauptsache es geht Version in die professionelle Region bewegen, da wir mit der neuen Maschine auch Dienstleistungen für andere Unternehmen anbieten werden...
Wenn dann zum Beispiel ein Klick auf den Startbutton in der Terminalserver Sitzung knapp 5 Sekunden brauch bis das Fenster kommt, geht das mal definitv nicht ;)
 
ah ok, wenns in diese Richtung weitergehen soll, dann ists natürlich angebracht gleich auf ne solidere Basis zu bauen ;)

klar, hatte im rahmen meiner dipl arbeit mit dem ganzen thema zu tun, aber da war der praktische aufbau eben "nur" per iscsi. extern und shared ist dann selbstredend, ist wirklich beeindruckend den maschinen bei vmotion und HA zu zuschauen :)

mit der FC variante kann ich dir leider ned viel weiterhelfen, da hab ich selbst nur ganz wenig erfahrung.
 
Zuletzt bearbeitet:
wir haben uns zuletzt ein Hitachi Brocade 310 angeschaft - hätte 24 port FC, 8 sind erstmal per lizenz aktiviert und auch mit 4gbit-sfp-gbic ausgestattet.
das ganze hängt in der testumgebung an ner FibreCat AX100 und lüppt prima.

nen HP Compaq Storageworks ist meines erachtens baugleich und hat auch nur nen andern aufkleber drauf... - in wieweit das natürlich so ist kann ich nicht sagen.

aber beim Storage würde ich eben direkt dann auf einen der großen Hersteller gehn, hier NetApp oder EMC
 
mangels erfahrung mit hp storagesystemen kann ich dir dazu nicht viel sagen ausser das ich nicht bei hp kaufen würde - zumindest das nicht, vorallem weil hp einen bunten mix rebranded systeme hat und mal wieder nicht...
die 3 1tb platten würde ich zu 6 500gb platten machen oder 400bzw600gb sas platten mit 10k, die tb platten wären perfomancemässig ein rückschritt...für die "perfomancehungrigen systeme" wäre es u.U. auch eine überlegung auf die nächst kleineren zu gehen - wenns das plattensystem hergibt oder einfach gleich mehr reinpacken und eher raid 5 arrays zu bauen anstatt raid1 (wobei je nachdem evtl auch 4 oder 10 in frage kommt). Hier kann man generel lschon sagen, viel hilft viel.
Keine Ahnung in welchem Preisbereich ihr euch bewegen wollt...aber hybrid bzw komplette ssd systeme sind inzwischen auch zahlbar (wenn auch teuerer wie reine plattensysteme) und bringen enorm viel mehr an leistung, ob hp sowas anbietet keine ahnung

wieso wollt ihr den sharepoint erweitern? wie groß werden die db´s geplant, externer oder interner sql server? sharepoint auch gleich fs? je nachdem würde ich hier abstand von einer virtualisierung nehmen, vorallem mit vmware. Gibt es hier konkrette leistungsengpässe? Habt ihr mal gemonitored wo?
Überhaupt hast du garkein db server angegeben, läuft für jede anwendung ein eigener? -> konsolidieren!

den dc auf die lokalen platten zu legen halte ich für falsch. Was soll das bringen ausser einer höheren ausfallwarscheinlichkeit und der vertanen möglichkeit dem dc eine gewisse hardwareunanfälligkeit zu verpassen


generell zu euren virtualisierungsplänen, schaut euch mal hyperv 2 (nicht 1) oder xen an, das gesparte geld könntet ihr in hardware investieren. Mit letzterem scheinst du ja laut sig schon in kontakt gekommen zu sein
 
die 3 1tb platten würde ich zu 6 500gb platten machen oder 400bzw600gb sas platten mit 10k, die tb platten wären perfomancemässig ein rückschritt...
Neja aktuell sind wie gesagt, 6x750GB SATA HDDs verbaut, Problem ist nicht die Lese/Schreibrate, sondern die gleichzeitigen Zugriffe auf die HDDs... Ob das Array nun 200MB/sec lesend/schreibend macht oder 400MB/sec ist wohl recht egal, es greifen aktuell zu viele System auf das eine Array zu, was die Performance stark in den Keller gehen lässt.

für die "perfomancehungrigen systeme" wäre es u.U. auch eine überlegung auf die nächst kleineren zu gehen - wenns das plattensystem hergibt oder einfach gleich mehr reinpacken und eher raid 5 arrays zu bauen anstatt raid1 (wobei je nachdem evtl auch 4 oder 10 in frage kommt). Hier kann man generel lschon sagen, viel hilft viel.
Auch hier, mehr HDDs bringen mir nur was, wenns erstens um Platz geht und zweitens um sequenzelle Lese/Schreibraten, aber das stellt wohl nicht den Flaschenhals dar... Daher so viele wie möglich keine Arrays die unabhängig so wenig wie möglich gleichzeitige Zugriffe durch die VMs erhalten...

Keine Ahnung in welchem Preisbereich ihr euch bewegen wollt...aber hybrid bzw komplette ssd systeme sind inzwischen auch zahlbar (wenn auch teuerer wie reine plattensysteme) und bringen enorm viel mehr an leistung, ob hp sowas anbietet keine ahnung
Laut telefonat mit unserem HP Vertriebler gibts sowas nicht von HP... Auch ist bei HP im 2,5" Bereich bei 450GB schluss, im 3,5" Bereich bei 1TB und SSDs gibts aktuell gar net...

wieso wollt ihr den sharepoint erweitern?
im Moment fungiert der Sharepoint als Intranet für uns Intern, und als Portal für einen unserer Kunden...
Zukünftig werden aber bis zu 3000 Menschen potentiell auf das Protal zugreifen, wie viele gleichzeitige Zugriffe müsste man sehen, das ist aber noch Zukunftsmusik, die Hardware sollte das aber durchaus abkönnen...

wie groß werden die db´s geplant, externer oder interner sql server? sharepoint auch gleich fs?
Im Moment läuft der SQL Server in der Sharepoint VM, die DB ist aktuell ca. 120GB Groß, weil sehr sehr viele Dokumente drin liegen...
Nein, der Sharepoint wird den Fileserver nicht vollständig ersetzen, bzw. ersetzen können... Aber für Interne Dokumente/Formulare und als Informationssystem wird er fungieren...

je nachdem würde ich hier abstand von einer virtualisierung nehmen, vorallem mit vmware. Gibt es hier konkrette leistungsengpässe? Habt ihr mal gemonitored wo?
Daran dacht ich auch, aber das kommt dann nochmal zum Tragen, wenn der Sharepointserver erweitert wird, im Moment sollte die Single Server VM Lösung reichen, wenn die HDDs nicht derart am Ende wären...

Konkrete Leistungsengpässe gibt es quasi durch die Bank weg und sind wie schon angesprochen einerseits die Anbindung der HDDs an den Server und andererseits die HDDs selbst. Zu viele gleichzeitige Zugriffe auf zu wenige unabhängige Arrays... Dann noch ein Virenscan Agend pro VM, der im Hintergrund nochmals in Summe massiv Last auf die HDDs erzeugt...

Überhaupt hast du garkein db server angegeben, läuft für jede anwendung ein eigener? -> konsolidieren!
Ich weis nicht ob das so einfach möglich ist... Die Sharepoint VM hat nen eigenen SQL, der Exchange läuft ebenso auf ner eigenen VM und bringt ja ne eigene Datenbank im Hintergrund mit...
Man könnte noch den WSUS mit dem Sharepoint zusammenfassen, das müsste man aber erörtern ob das Vorteile bringen würde...

den dc auf die lokalen platten zu legen halte ich für falsch. Was soll das bringen ausser einer höheren ausfallwarscheinlichkeit und der vertanen möglichkeit dem dc eine gewisse hardwareunanfälligkeit zu verpassen
Ja da hast du sicher recht, es würde wenig Sinn machen... Ich denk von dem Punkt können wir Abstand nehmen, aber es ist jetzt aktuell der Ist-Zustand.
Und man merkt deutlich, auf den beiden 72GB 10k 2,5" SAS HDDs läuft nur die ESXi Software und die DC VM... Alles geht schön geschmeidig, die anderen VMs, welche auf den externen HDDs liegen, gehen weit schlechter...

generell zu euren virtualisierungsplänen, schaut euch mal hyperv 2 (nicht 1) oder xen an, das gesparte geld könntet ihr in hardware investieren. Mit letzterem scheinst du ja laut sig schon in kontakt gekommen zu sein

Ich denke es wird hier wohl auf eine ESX4 Advanced Lösung hinauslaufen... Ich selbst hatte schon den XenServer 5.0.0 am laufen, war davon aber noch nicht sooo ganz überzeugt, macht für mich einen ein wenig unausgereifteren Eindruck als der ESX muss ich sagen...

Achso, die Kostenfrage, wie oben schon gesagt, Kosten sind erstmal zweitrangig, das ganze soll Professionell werden und darf dementsprechend auch etwas kosten... da kommt es dann am Ende auch nicht auf nen tausender oder deren mehrere an, sondern es muss im Ernstfall funktionieren... ;) wie gesagt, wir wollen weg von der Kostengünstig frickel Lösung...


Ich hab grad mit unserem Händler gesprochen bzw. mit dem ESX Profi von dehnen... Er meint er muss sich noch kundig machen, ob das Vorhaben in der Form überhaupt realisierbar ist, weil er sich nicht sicher war, ob man für VMotion und solche Sachen überhaupt unterschiedliche Hardware verwenden kann... Ebenso für die HA Clusterfähigkeit ohne Zeitunterbruch im Ernstfall... Er meinte, das könnte Probleme mit unterschiedlichen Servergenerationen geben :(
Weis da jemand genaueres?
 
also eigentlich ists ja grade sinn und zweck durch die virtuelle hardware eine gewisse hardware unabhängigkeit zu erzeugen. Bei mir hat vmotion im test-betrieb zwischen zwei unterschiedlichen esx hardware konfigs geklappt, obs komplett verallgemeinerbar ist, kann ich leider ned genau sagen.

würde mal drauf tippen, das die hardware die die ESX Specs erfüllt dafür auch geeignet ist. aber ohne gewähr ;)
Aber wäre mal interessant zu wissen, würd mich da über die auskunft deinerseits freuen.

solche geschichten ala VMotion und HA gibts für XEN nicht, zumindest ist mir da nix bekannt!? damit würde diese lösung ja schon rausfallen
 
also eigentlich ists ja grade sinn und zweck durch die virtuelle hardware eine gewisse hardware unabhängigkeit zu erzeugen. Bei mir hat vmotion im test-betrieb zwischen zwei unterschiedlichen esx hardware konfigs geklappt, obs komplett verallgemeinerbar ist, kann ich leider ned genau sagen.

würde mal drauf tippen, das die hardware die die ESX Specs erfüllt dafür auch geeignet ist. aber ohne gewähr ;)
Aber wäre mal interessant zu wissen, würd mich da über die auskunft deinerseits freuen.
kommt auf die porzessorfamilie an, man kann hier aber etwas tricksen dass es auch über mehrere prozessorgenerationen geht...
solche geschichten ala VMotion und HA gibts für XEN nicht, zumindest ist mir da nix bekannt!? damit würde diese lösung ja schon rausfallen
kemari oder remus wären für xen solche lösungen...

hyperv bringt sowas mit v2 gleich mit (siehe auch http://blogs.technet.com/virtualiza...icrosoft-hyper-v-server-2008-r2-rtm-more.aspx)
 
Keiner ne Idee?
Muss doch jemand geben, der sich mit HP Fibrechannel Zeug hier auskennt :(

nope, nur mit IBM

wenn du eine voll redundant angebundene storage inkl server haben willst rechne mit 80k+ euro

wenn du einen esx cluster haben willst (also mit vollautomatischen DRS und Failover) brauchst mindestens 3 Server die an die SAN angebunden sind)

ich wuerde da viele kleine raid arrays anlegen und die VMs dann dementsprechend aufteilen.

falls netzwerk bandbreite auch ein thema is solltest du dir ueberlegen 10gbit karten fuer die VMs in den esxn zuzulegen (haben wir in unseren 3 esxen die geclustert sind) - dazu 3x 1gbit fuer vmotion, 2x gbit fuer die service console und 1x gbit als failover fuer die 10gbit.

fuer wirklich festplattenintensive VMs kannst die SAN partitionen den VMs als RAW device zuordnen, das bringt dir zirka 20% performance (allerdings kannst du die dann eben nicht mehr ueber den VCB Proxy backupen)

---------- Post added at 16:52 ---------- Previous post was at 16:50 ----------

also eigentlich ists ja grade sinn und zweck durch die virtuelle hardware eine gewisse hardware unabhängigkeit zu erzeugen. Bei mir hat vmotion im test-betrieb zwischen zwei unterschiedlichen esx hardware konfigs geklappt, obs komplett verallgemeinerbar ist, kann ich leider ned genau sagen.

man kann sogar verschiedene ESX versionen in einem cluster betreiben, z.b. 3.5 und die neue 4.0er

edit: achja, vergiss nicht die lizenz fuer den VirtualCenter Server (ka wie der jetzt bei 4.0 heisst)

---------- Post added at 16:55 ---------- Previous post was at 16:50 ----------

Ich hab grad mit unserem Händler gesprochen bzw. mit dem ESX Profi von dehnen... Er meint er muss sich noch kundig machen, ob das Vorhaben in der Form überhaupt realisierbar ist, weil er sich nicht sicher war, ob man für VMotion und solche Sachen überhaupt unterschiedliche Hardware verwenden kann... Ebenso für die HA Clusterfähigkeit ohne Zeitunterbruch im Ernstfall... Er meinte, das könnte Probleme mit unterschiedlichen Servergenerationen geben :(
Weis da jemand genaueres?

das stimmt. sobald du andere prozessoren drin hast kanns probleme geben und er laesst dich ein laufendes image nicht migrieren (ergo auch kein DRS)
 
Zuletzt bearbeitet:
Neja aktuell sind wie gesagt, 6x750GB SATA HDDs verbaut, Problem ist nicht die Lese/Schreibrate, sondern die gleichzeitigen Zugriffe auf die HDDs... Ob das Array nun 200MB/sec lesend/schreibend macht oder 400MB/sec ist wohl recht egal, es greifen aktuell zu viele System auf das eine Array zu, was die Performance stark in den Keller gehen lässt.


Auch hier, mehr HDDs bringen mir nur was, wenns erstens um Platz geht und zweitens um sequenzelle Lese/Schreibraten, aber das stellt wohl nicht den Flaschenhals dar... Daher so viele wie möglich keine Arrays die unabhängig so wenig wie möglich gleichzeitige Zugriffe durch die VMs erhalten...
das ist schon so angekommen...deswegen auch u.a. der hinweis mit raid 4 konfig und dass du aufteilen solltest ist klar, das geht mit mehr platten eben auch granularer als mit ein paar wenigen, du bist halt insgesamt flexibler

im Moment fungiert der Sharepoint als Intranet für uns Intern, und als Portal für einen unserer Kunden...
Zukünftig werden aber bis zu 3000 Menschen potentiell auf das Protal zugreifen, wie viele gleichzeitige Zugriffe müsste man sehen, das ist aber noch Zukunftsmusik, die Hardware sollte das aber durchaus abkönnen...

Im Moment läuft der SQL Server in der Sharepoint VM, die DB ist aktuell ca. 120GB Groß, weil sehr sehr viele Dokumente drin liegen...
Nein, der Sharepoint wird den Fileserver nicht vollständig ersetzen, bzw. ersetzen können... Aber für Interne Dokumente/Formulare und als Informationssystem wird er fungieren...
da würde ich eher zu 2 frontendservern + seperatem sql server greifen und hier würde ich ganz klar den sql server nicht virtualisieren sondern auf hardware packen und mit database mirroring, log shipping o.ä. eine gewisse redundanz schaffen. Zur not ein sql cluster wobei dann halt eine hardware "schläft"...

Ich weis nicht ob das so einfach möglich ist... Die Sharepoint VM hat nen eigenen SQL, der Exchange läuft ebenso auf ner eigenen VM und bringt ja ne eigene Datenbank im Hintergrund mit...
Man könnte noch den WSUS mit dem Sharepoint zusammenfassen, das müsste man aber erörtern ob das Vorteile bringen würde...
die exchange db bekommst du natürlich nicht auf nen sql server, wsus könnte was bringen
-> wenn sql server "ausgelagert" hast hier eh keine direkten perfomancebremsen mehr ;)
Ich denke es wird hier wohl auf eine ESX4 Advanced Lösung hinauslaufen... Ich selbst hatte schon den XenServer 5.0.0 am laufen, war davon aber noch nicht sooo ganz überzeugt, macht für mich einen ein wenig unausgereifteren Eindruck als der ESX muss ich sagen...

Achso, die Kostenfrage, wie oben schon gesagt, Kosten sind erstmal zweitrangig, das ganze soll Professionell werden und darf dementsprechend auch etwas kosten... da kommt es dann am Ende auch nicht auf nen tausender oder deren mehrere an, sondern es muss im Ernstfall funktionieren... ;) wie gesagt, wir wollen weg von der Kostengünstig frickel Lösung...
durchaus richtig und auch insgesamt mein eindruck, trotzdem läuft xen auch stabil und zuverlässig (bisherige erfahrung)...präverieren würde ich hier aber trotzdem eher hyperv 2 als mögliche alternative, xen hab ich aber aufgrund deiner eben schon vorhandenen erfahrung einfach mal genannt
hyperv 2 rc macht mit scvmm2 einen sehr soliden eindruck, kannst dir ja mal anschaun, sind ja trotzdem immerhin um die 20-30000 € die ihr in euer storage stecken könntet oder an anderen stellen ;)

Ich hab grad mit unserem Händler gesprochen bzw. mit dem ESX Profi von dehnen... Er meint er muss sich noch kundig machen, ob das Vorhaben in der Form überhaupt realisierbar ist, weil er sich nicht sicher war, ob man für VMotion und solche Sachen überhaupt unterschiedliche Hardware verwenden kann... Ebenso für die HA Clusterfähigkeit ohne Zeitunterbruch im Ernstfall... Er meinte, das könnte Probleme mit unterschiedlichen Servergenerationen geben :(
Weis da jemand genaueres?
im wesentlichen muss man nur eins beachten, die features der prozessoren. Diese CPUs sollten zumindest aus der selben familie sein, herstellerübergreifend würde ich sowas nicht planen! (geht auch ist aber unsupportet)
Sind die prozessoren nicht von der selben generation und hat die eine generation mehr features wie die andere muss man die features der neueren prozessoren deaktivieren, wenn ich nicht gleich feierabend hätte würde ich dir das dokument rausuchen, muss man n paar bits in der konfig umschubsen ;)

das sollte der vmware experte aber aus dem stehgreif wissen

---------- Beitrag hinzugefügt um 17:17 ---------- Vorheriger Beitrag war um 17:14 ----------

man kann sogar verschiedene ESX versionen in einem cluster betreiben, z.b. 3.5 und die neue 4.0er

edit: achja, vergiss nicht die lizenz fuer den VirtualCenter Server (ka wie der jetzt bei 4.0 heisst)

vsphere nennt sich das jetzt
 
Zuletzt bearbeitet:
also nachdenken würde ich wenns HP werden sollte über die neue Lefthand wir haben die hier im Einsatz mir ESX Cluster aus 2 notes und läuft soweit recht vernümftig wobi du die leftis bei 24 k € einstufen musst lauf HP.
 
sehe ich das richtig, dass zunächst einmal "nur" 18VMs laufen? ich würde stark dazu tendieren abstand von einem extrem starken system zu nehmen. wichtiger wäre es das ganze auf 2, besser 3 systeme in einem cluster zu verteilen. dann mit vmotion. das erleichtert auch die spätere wartung ungemein.

um einen ersten überblick zu bekommen empfiehlt sich der blick auf die vmware seite

http://www.vmware.com/products/vmmark/results.html

pauschal würde ich mal sagen ist es derzeit gar nicht soo unvernünftig kleine, feine cluster mit blades aufzubauen. dann an san storage anbinden. cpu technisch haben die eigentlich genug dampf und das system lässt sich recht einfach ausbauen.
 
So wohl vorerst kleine Plaungsänderung, wir werden wohl doch etwas Abstand von FC nehmen und das ganze als externes SAS Storrage aufziehen...

An den Dualcontroller Plattenstapel gehen pro Controller 4 Server dran, das sollte vorerst ausreichend sein. Ebenso ist der Stapel mit bis zu 4 weiteren Enclosures erweiterbar, wahlweise mit 12x 3,5" Einschüben oder mit 24x2,5".

Des weiteres wird neben der Single Server DL380 G6 Version an einem Angebot über ne Dual Server DL360 G6 Konfiguration gearbeitet...
Unser Systemhaus, welches uns die Sachen vertreibt meinte, mit der SAS Version kommen wir ungemein günstiger aber haben Leistungstechnisch eher nur geringfügige Einbußen!? Stimmt das soweit?

Der DL380 G6 wird wohl mit 2xE5540er CPUs und 36GB Speicher kommen, Redundantes 750W NT und 2x72GB 2,5" SAS 10K HDDs intern. Dazu diese besagte externe SAS Karte zum Anbinden des Plattenstapels.
Alternativ dazu halt 2x den DL360 G6 mit je zwei L oder E5520er CPUs und 24GB Speicher, plus je einen externen SAS Controller für die HDDs. Intern wiederum 2x72GB 10k 2,5" SAS...



Dazu Lizenzen für ESX Advanced um auch die VMotion Sachen und Clusterfähigkeit nutzen zu können...

Ich tendiere eher zu den zwei kleinen 360er Servern, was meint ihr?
Klar der 380er packt in Summe mehr VMs, aber wenn der weg brennt, ist erstmal ruhe, in der Zeit wo HP neue Teile beschafft um diese bei uns zu tauschen würde aber auch ein DL360 G6 wie oben beschrieben die komplette Last (eben mit bisschen Einschränkung) schultern können...

Mein Chef will eher einen dicken Server, aber ich denk, wenn es Sinn macht die Last zu verteilen bekomm ich ihn auch dazu, zwei kleinere zu kaufen...
In Summe stehen auf dem Papier jetzt ca. 30k Euro komplett für die eine oder andere Version inkl. ESX Lizenzen.



Noch offene Fragen:
- lieber Single DL380 G6 oder Dual DL360 G6?
- welche HDDs kommen in den Plattenstapel, und mit welchem Raidlevel?
 
Ich tendiere eher zu den zwei kleinen 360er Servern, was meint ihr?
wesentlich bessere alternative. denk nicht an das szenario des ausfalls...klar es wäre bitter, aber es ist eher unwahrscheinlich. viel schlimmer ist es für tiefergreifende updates den esx host mitsamt allen vms durchstarten zu müssen. oder der esx server selbst hat vielleicht mal was...da braucht ja nur mal ein prozess verrückt spielen sodass du durchstarten musst. da ist es doch viel besser kurz vorher alle vms zu migrieren, etwas leistungsverlust in kauf zu nehmen und dann einen server bequem durchzustarten.

ich rate dir aber dazu die server ramtechnisch (das ist der größte knackpunkt) so auszurüsten dass EIN Server im Notfall in der Lage ist, alle kritischen VMs zu schaffen. Wenn 2-3 unbedeutende Server bei Wartungsarbeiten gestoppt werden müssen ist das ja egal.

denn ganz ehrlich, warum ESX wenn du nur einen server ohne farmfunktionalität nutzt? da kannst du auch viel geld sparen und esxi einsetzen.
 
Zuletzt bearbeitet:
denn ganz ehrlich, warum ESX wenn du nur einen server ohne farmfunktionalität nutzt? da kannst du auch viel geld sparen und esxi einsetzen.

Der Ursprüngliche Plan war ja den jetzigen G5 DL380 und den neuen G6 DL380 mit ESX auszustatten... Aber daraus wird wohl auf Grund von verschiedener Hardware nix, sprich die Features welche Vorteile bringen funken damit wohl net... Daher ja jetzt auch die Alternative mit den zwei DL360ern...

Übrigens, die SAS SAN Gesichte klappt so auch net, da SAS SAN von VMWare für den ESX4 noch net freigegeben ist :fresse:
Also doch FC... So viel teurer ist das aber auch gar net muss ich sagen... ;)

Und ja, 24GB Pro DL360 würde reichen um sämtliche VMs aktuell am laufen zu halten, wenn noch bisschen unkritische Sachen runter gefahren werden, wie der Blackberry Server oder der ISA Server zum Beispiel, könnte man da sicher noch gut 4-6GB abziehen, sollte also in jedemfall passen ;)
 
würde auch eher zu zwei Systemen tendieren, schon alleine wegen einem potentiellen Serverausfall und weil die Wartung eines Server ohne ausschalten der VMs stattfinden kann.

Habt ihr den auch mal darüber nach gedacht das Storage redundant zu machen?
Sicher würde das wieder mehr kosten, aber was macht ihr, wenn im Storage mehrere Platten, ein Controller, etc... kaputt geht? Dann nützen auch keine zwei Server, wenn das Storage futsch ist.
 
@fdsonne

wie siehts denn mit NFS über 10Gbit aus ?

Haben einen ESX Cluster laufen, wo die ESX Server per NFS mit dem SAN verbunden sind, allerdings noch keine 10Gbit Verkabelung.
 
Entschuldige, ich habe nicht alles durchgelesen...

Bist Du mittlerweile zu einem Ergebnis gekommen?
Habe den Thread erst jetzt gelesen... deine Serverentscheidung finde ich ziemlich gut ;)

Was wirklich Performantes um alles auszulagern wäre halt HP LeftHand.
Haben wir nun letztens einem Kunden inkl. einer Citrix Serverfarm verkauft... geil.
Zwecks iSCSI immer noch Bedenken?
Welche Anbindung ist den gewünscht? Ab 4 Gb gibts was brauchbares.
Wie siehts aus mit Trunking?
Wie hoch ist überhaupt die Last?
Dazu gibt es eine wirklich brauchbare SAS Lösung.. ja sie ist günstiger und deine Bedenken zwecks Performanceinbußen sind nicht mehr berechtigt.
Der Flaschenhals dürfte i.d.R. woanders liegen (hier kenne ich nicht die Größe)

Was wolltest Du nun? Zwei "kleinere" oder einen Großen für des ESX?
Ich tendiere, zuminest in deiner Umgebung, zu zwei kleineren mit Puffer.
Nicht zu knapp kalkuliert wird dieser Server die Last beim Ausfall gut aushalten, zwar mit Einschränkungen aber immerhin.

Wie gesagt, alles etwas waage da ich nicht alles durchgelesen habe..

Wäre freundlich wenn Du uns (mich auf dem laufenden hältst :) Man lernt ja immer was dazu...

Viel Erfolg.

Daniel
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh