[Kaufberatung] Welche Hardware für ESX/ESXi Server

Lightflasher

Enthusiast
Thread Starter
Mitglied seit
18.05.2009
Beiträge
1.011
Ort
Hamburg
Hallo,

da ich für meine Ausbildung auch privat etwas ausprobieren möchte würde ich mir gerne einen ESXi Server hinstellen da die Lösungen von Dell oder HP doch etwas teuer sind wollte ich mal wissen was ihr so für Hardware vorschlagen würdet.

Ich hab mich schonmal ein bisschen umgesehen und hab mal folgendes zusammen gestellt:

CPU: Intel Xeon UP X3450
Board: Supermicro X8SI6-F
Ram: 8GB ECC Kingston
Controller: Dell Perc 6i

Der Rest wie Gehäuse etc ist erstmal nicht so wichtig da es ja erstmal wichtig ist das die Sachen die wichtig sind auf der HCL sind.

Passt das so oder würdet ihr groß etwas verändern?


MfG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Frage ist was du mit der Kiste machen willst...

Denn für bisschen Testerei wirst du keinen Quad brauchen, schon gar nicht so nen teuren ;) Im übrigen muss es auch kein Xeon sein. Der normale i5 tuts auch ;)
Ein mittelklasse Dualcore inkl SMT tuts da 1A.
8GB RAM würde ich für bisschen knapp halten, aber geht grad so noch...
Der Dell Perc kommt gut...
Das SM Board muss es aber nicht sein... Wenn du nen Perc und ne Intel PCIe NIC verbaust, kann das Board quasi irgendwas sein.
 
Naja ok also würde da schon gerne paar Win Server drauf laufen lassen und denn eben noch paar andere VM´s um mal was zu testen.
Das mit dem Xeon passt ganz gut da wir ich den von der Firma quasi geschenkt bekomme. Was würdest du denn für ein Board vorschlagen das ich den Perc und noch ne Dualport Intel NIC drauf verbauen kann und vielleicht nochmal eine zweite falls ich das mal irgendwann benötigen sollte?

MfG
 
Hi,

Für ein Testlab muss man nicht so viel Geld ausgeben, bzw. so teure Hardware kaufen.
Den Dell Perc würde ich behalten, die anderen Sachen würde ich mir noch mal überlegen.

Meine VM Umgebung schau so aus:

Gigabyte G33 µatx Board
8GB RAM
Q6600 G0
2x Intel® PRO/1000 GT Desktop Adapter

Darauf laufen ohne Probleme 4VMs. 2x W2K8 DC, 1x Exchange 2003 und eine Linux VM.
 
Das wichtigste ist viel RAM und flotte Platten.
 
Naja ok also würde da schon gerne paar Win Server drauf laufen lassen und denn eben noch paar andere VM´s um mal was zu testen.
Das mit dem Xeon passt ganz gut da wir ich den von der Firma quasi geschenkt bekomme. Was würdest du denn für ein Board vorschlagen das ich den Perc und noch ne Dualport Intel NIC drauf verbauen kann und vielleicht nochmal eine zweite falls ich das mal irgendwann benötigen sollte?

MfG

Wie gesagt, das kritische am ESX ist der HDD Controller sowie die NIC.
Wenn du jetzt nen Perc verbaust, der unterstützt wird, kannst du alle HDDs an den Perc klemmen und das wird gehen. Bei der NIC das gleiche, wenn du ne Dual Port NIC verbaust, welche unterstützt wird, am besten irgendwas von Intel, dann hast du quasi die Miete schon rein.
Was dann drunter steckt, also Board und CPU sowie RAM ist recht egal. Einzig die CPU sollte 64Bit können sowie Virtualisierungstechniken von Intel oder AMD. Der Rest spielt keine sonderliche Rolle...

Du kannst quasi auch nen günstigen Dual Core Intel i5 nehmen, dazu dann ein günstiges (das günstigste) Desktop Board und den Perc sowie die NIC(s) drauf stecken. Dann rennt der Hase...

Ob du ECC RAM brauchst wage ich zu bezweifeln, für ne Testumgebung in meinen Augen nicht erforderlich.
Wichtiger ist da die Menge an RAM. Bei 2008er Windows Servern könnten die 8GB schon recht eng werden. Jenachdem was für Dienste bereitgestellt werden.
Ich hab bei mir auf dem ESX mit 8GB RAM im Moment 3x2003 Server R2 am laufen wovon eine eine x64 und zwei x86 sind.
Da drauf laufen DC, DNS, DHCP auf der ersten, WSUS und Sharepoint 2007 Enterprise auf der zweiten und SQL 2008 auf der dritten VM.
Dazu noch eine XP Test VM und eine Nortel VPN Gateway Geschichte (Unix)
Macht in Summe in etwa nen RAM Verbrauch von ca. 5-6GB.

Werde aber wohl demnächst umrüsten auf ne einzelne 2003 SBS R2 Geschichte und dort dann alles abdecken inkl. Exchange, da ich da im Moment keine Lizenz für habe... Eventuell lass ich den SQL und den Sharepoint so wie er ist, aber mal schauen.


Wie ich und H_M_Murdock schon sagten, am wichtigsten ist unterm Strich viel RAM und schnelle HDDs. Wobei letzteres immer auf die Dienste ankommt... Ich hab bei mir im Moment drei Single HDDs laufen, ohne Raid ohne alles, läuft 1A und ich kann keine nennenswerten Geschwindigkeitsverluste feststellen.
 
Ok danke schonmal für die Tipps dennoch weiß ich nicht was später noch dazukommt und möchte daher nicht nach einem Jahr wieder Geld ausgeben müssen denn für das Xeon müsste ich nur nach 1-2 Monaten nochmal ein zweites mal 8GB Ram dazu kaufen was nicht so schlimm wäre. Das i5 System hat nur den Nachteil das es kein HT kann und das ich auf dem Board wenieger Ram und PCIe Plätze habe.

Als Controller kommt weiter der Dell Perc 6i zum einsatz der auch auch der HCL steht genau so wie der 5i.

Hier einmal die beiden Systemvorschläge:

Intel Xeon UP X3450 197+37,43
Intel S3420GPLC 156+29,64
Kingston ValueRAM DIMM Kit 8GB PC3-8500R reg ECC CL7 194+36,86
Intel PRO/1000 PT Server 2x 114+21,66
=786,59

Intel Core i5-750 154+29,26
Intel Media Series DP55WG 107+20,33
Kingston ValueRAM 8GB 1333MHZ DDR3 NON-ECC 153+29,07
Kingston ValueRAM 8GB 1333MHZ DDR3 NON-ECC 153+29,07
Intel PRO/1000 PT Server 2x 114+21,66
=810,39

Als Platten würde ich die Hitachi DeskStar 7K2000 2000GB nehmen oder habt ihr bessere Vorschläge? Und zu welchen der beiden Systeme würdet ihr greifen? Bei dem i5 weiß ich leider nicht ob das Board auf der HCL steht :/


MfG
 
Zuletzt bearbeitet:
Wie schon angesprochen, wenn du sowohl dedizierte NICs sowie nen StorageController von der HCL nimmst, dann tuts jedes günstige Board.
Ob du HT brauchst oder nicht, ist man dahingestellt. Der Performancezuwachs ist sicher merkbar, aber auch nur dann, wenn du so viele Maschinen fährst, das die CPU am Ende ist. Wie angesprochen mit nem Quad hast du hier extrem viel Luft.
Nur mal zum Vergleich, wir haben hier auf Arbeit 3 ESX 4 Advanced Server im Cluster laufen. Jeweils zwei Quadcore CPUs mit um die 2,5GHz. CPU Auslastung bei 29 VMs in Summe pro Maschine im normalen Firmenbetrieb von nichtmal 10%.
HT brauch man bei so wenig Auslastung nicht, bzw. es wird sowieso nicht genutzt und bringt keinen Vorteil.

Ich gehe davon aus, das du im Testumfeld nichtmal den Quad voll ausfahren wirst, daher meine Empfehlung zu nem deutlich günstigeren Dualcore.

Zu den Netzwerkkarten, ich würde an deiner Stelle da lieber DualPort PCIe Intel Karten nehmen anstatt zwei Singleport ;) Spart Platz und lässt Platz für spätere Aufrüstung.


Zu den Platten, ob du mit 2TB Platten grün wirst, sei mal dahingestellt, bedenke, es gibt nach wie vor das 2TB Limit im ESX. Heist du kannst nur maximal 2TB Arrays im ESX Mounten.
Ich würde an deiner Stelle lieber auf kleinere HDDs setzen, normal dürfte das P/L Verhältniss der 2TB Platten auch schlechter sein, als das von 1TB oder 1,5TB Platten.
Ob du in ner Testumgebung überhaupt 2TB Platten brauchen würdest, sei ebenso mal dahingestellt. Dann lieber mehrere kleine HDDs, was im allgemeinen dazu auchnoch mehr Bumms bringt, weil eine VM nicht das komplette Storage lahm legen würde...
Ich würde hier wohl was im Bereich 500GB empfehlen. Beispielsweise 4x500GB (2xRaid 1) oder 6x500GB (1xRaid 1 und 1xRaid 10) oder ähnliche Konstellationen...
Zum Testen muss es aber nichtmal ein Raid sein...

Das Problem bei derart riesigen Volumes ist einfach, das eine VM das komplette Volume lahm legt, wenn man massiv HDD Last anfällt, baust du mehrere kleinere Arrays auf unterschiedlichen Platten, hast du vllt in Summe nciht so viel Sequenzielle Datenrate (was aber verschmerzbar ist, denn es gehen sowieso nur 125MB/sec max. durch eine NIC) aber dafür können die VMs wenn sie schön verteilt auf dem Storage liegen sich gegenseitig nur mäßig behindern...
 
kann dem auch nur beifplichten. für eine einfach testumgebung benötigt man lediglich bestmöglich ne intelgbit karte & nen kompatiblen hd controller. der per6i ist da eine gute wahl.
8gb ram sind aber für eine richtige testumgebung sehr wenig.ram und speicher sind eh beides die aspekte die bei dir am ehsten limitieren.

für kleine spielereien kannst du nen esxi auch im vmserver virtualisieren und da 2-3 vms parallel betreiben. lief auf einem c2d system ohne probleme. nutze ich immer zum testen bevor ich an die produktivsysteme gehe.

in einer entwicklungsumgebung wäre ein c2q, 16gbram angebracht, natürlich auch abhängig was du virtualisierst.
pdcs gehören ja vorneweg nicht virtualisiert, gleiches gilt für datenbankserver, da hier große festplatten zugriffe sind.
in einer virtualisierten hardwareumgebung limitieren immer zuerst die platten und der ram, danach kommt die cpu.

also solltest du vorab erstmal sammeln was du etwa vorhast, möglicherweise macht es dann auch mehr sind eine kleine cpu und dafür mehr ram/bessere hds oder ssds (in einer testumgebung ne feine sache) zu beschaffen.
 
Zuletzt bearbeitet:
Wir hatten hier auch über 2 Jahre den obersten DC der unsrigen Domäne virtualisiert, das passt schon ;) Nur muss man aufpassen, die Uhren ticken auf dem ESX etwas anders... Das gibt unter Umständen Probleme ;)
Für ne Testumgebung aber durchaus verschmerzbar... Bei mir Zuheme ist auch der DC virtualisiert, geht auch ohne Probleme, bis auf das Uhrenproblem, aber man kann dem obersten DC auch einen NTP Server mitteilen, damit lässt sich das Problem sehr stark eingrenzen...

Datenbankserver zu virtualisieren ist unvorteilhaft, aber auch sowas funkt. Vor allem, wenn die HDDs unten drunter richtig bumms haben. Wir haben hier 15k SAS Platten im Raid 10 (vier Stück) das reicht und geht Problemlos.
Man sollte halt nur von Raid 5 und ähnlichem mit Paritätsdatenberechnung die Finger lassen. Gilt im übrigen auch für die Volumes, wo die Betriebssystempartitionen drauf laufen.

PS: bei uns auf arbeit ist alles virtualisiert, bis auf seit kurzem der oberste DC der Domäne. Und das funkt (in Summe 29 VMs) auf drei ESX Advanced Server im Cluster...
CPUs in den Servern nur minimal belastet (unter 10%) dafür in Summe einen RAM Verbrauch von fast 70GB... ;)
 
Ok danke schonmal also nochmal kurz zu den NICs das sind die Dualport NICs von Intek hab nur die Beschreibung kopiert daher sieht es vielleicht komisch aus :P

Denn werde ich wohl zu einer kleineren Cpu greifen aber 16GB Ram einsetzten. Die Entscheidung welches Board oder ob ich die i5 oder Xeon Cpu nehme liegt denn wohl bei mir was ich an Geld ausgeben möchte.

Nochmal um auf das Raid zurück zukommen gab es nicht eine Möglichkeit durch die Änderung einer Datei beim Installieren Arrays größer als 2TB einzubinden? Ich weiß leider immoment nicht mehr wie das heißt :(

Ein 520W Netzteil sollte für die Hardware und 4 Festplatten reichen oder? Und was würdet ihr für ein Case nehmen?

MfG
 
Für was brauchst du dann im Testsetup 4 NICs?
Wenn du nicht irgendwelche HA Sachen sowie irgendwelche iSCSI/NFS Storages einbinden willst, macht es wenig Sinn hier mit 4 NICs zu agieren. -> Meine Meinung ;)

Zum Array, ich hab sowas auch schon gehört, bin mir aber nicht ganz Sicher ob das wirklich funkt, bei mir läuft alles bis jetzt mit der Grenze.
Man konnte glaube ich die Arrays nativ durchreichen, dann soll das wohl gegangen sein, aber das bringt wiederum andere Nachteile mit sich, wie kein suspenden der VMs mehr, keine Snapshot Funktion usw.
 
Ne ist nur eine Dualport NIC pro System ^^ also das 2x stand für die Portanzahl ;)

Wegen dem Array da frag ich mal morgen einen Arbeitskolegen bei dem läuft das so, poste denn hier nochmal worum es geht etc
 
Zuletzt bearbeitet:
Ok also das das Array nicht größer als 2TB geht stimmt wohl :/

Was ich im kopf hatte war die Größe der VHD´s die normal bei 256GB liegen und durch die Blocksize auf bis zu 2TB gesetzt werden könne.

Was wäre denn eine sinvolle einteilung der HDD´s wollte eigendlich ein Raid 5 mit 3x2TB einsetzten aber das kann ich denn wohl vergessen oder? Und was brauch ich für ein Netzteil und was würdet ihr für ein Case nehmen?
 
Datenbankserver zu virtualisieren ist unvorteilhaft, aber auch sowas funkt. Vor allem, wenn die HDDs unten drunter richtig bumms haben. Wir haben hier 15k SAS Platten im Raid 10 (vier Stück) das reicht und geht Problemlos.
Man sollte halt nur von Raid 5 und ähnlichem mit Paritätsdatenberechnung die Finger lassen. Gilt im übrigen auch für die Volumes, wo die Betriebssystempartitionen drauf laufen.

PS: bei uns auf arbeit ist alles virtualisiert, bis auf seit kurzem der oberste DC der Domäne. Und das funkt (in Summe 29 VMs) auf drei ESX Advanced Server im Cluster...
CPUs in den Servern nur minimal belastet (unter 10%) dafür in Summe einen RAM Verbrauch von fast 70GB... ;)

Nur mal zum Vergleich:
Wir haben insgesamt ~60 Maschinen virtualisiert (davon sind 5-6 einfache XP Installationen für Testumgebungen, Rest ist 2003R2/2008(R2)) - auf 25 Servern. Bis auf 2 Maschinen ist auf keiner wirklich eine CPU Last von über 60% (was relativ hoch ist da auf den Terminalservern meist ordentlich was los ist) - RAM ist mit insgesamt ~250GB aber recht ordentlich ausgelastet. Teilweise sind aber auch die Platten ein bisschen limitierend - alles 15k SAS HDDs, aber teilweise erkennt man doch schon anhand der Auslastung der HDDs, dass sehr viel last drauf ist. Kommt halt immer drauf an was man darauf laufen lässt...

Aber BTT:
Du hast natürlich recht wenn du sagst, dass du mit dem Xeon "zukunftssicherer" bist. Wobei vielleicht auf n "fertiger" Server was für dich wäre - wir haben auf der Arbeit für zoneminder n paar dutzend HP ML 110 (mittlerweile G6) laufen - den gibts mit nem GB RAM und nem X3430 drin für ~400€ momentan. HP ProLiant ML110 G6, Xeon UP X3430 4x 2.40GHz, 1024MB, 250GB (585458-045) Preisvergleich bei Geizhals.at Deutschland

Nachtrag: Wäre ja vielleicht ne gute Basis - das Board macht aber nur 8GB RAM... Daher vielleicht doch nix für dich?

Edit:
Ich war gerade sehr erstaunt... Ich hab mal nen "Probelauf" gemacht mit nem G6 mit 2 x 2TB RE4-GP HDDs und 4GB RAM - im idle mit Ubuntu 8.04.3 45W

Ich glaub ich wechsel doch meine Spielkiste... Fürn Quadcore mal echt nicht übel... Und das mit dem "normalen" HP-Netzteil (das endlich mal normales ATX Format hat)
 
Zuletzt bearbeitet:
Was wäre denn eine sinvolle einteilung der HDD´s wollte eigendlich ein Raid 5 mit 3x2TB einsetzten aber das kann ich denn wohl vergessen oder? Und was brauch ich für ein Netzteil und was würdet ihr für ein Case nehmen?

Wie gesagt, 2TB HDDs machen wenig(er) Sinn.
Was man machen könnte wären mehrere max. 2TB LUNs auf dem Raidcontroller definieren, welche aber physisch auf die vorhandenen HDDs greifen. Also beispielsweise bei 4x2TB könnte man ein Raid 10 Array erstellen und auf diesem dann mehrere LUNs mit max. 2TB auf dem einen Plattenverbund erstellen, das dürfte ein anständiger Controller sicher beherschen.
Nachteil ist aber auch hier, belastet eine einzige VM die seinen zugewiesenen HDD Teilbereich massiv, so leidet die Performance aller anderen VMs mit, welche auf eben diese physischen Platten zugreifen.

Daher empfielt es sich hier eher in Richtung mehr kleinerer HDDs zu gehen. Also auch meherere Raidarrays zu bauen.
Wie angesprochen beispielsweise 500GB HDDs im Raid 10 oder Raid 1.
Kommt halt drauf an, wie viel Platz zu wirklich brauchst...

Von Raidleveln mit Paritätsberechnung würde ich generell abraten, es sei denn, du willst nen Fileserver virtualisieren... Aber auch bei diesem würde ich die OS Platte nicht auf dem Raid 5 ablegen, sondern nur den Teil, wo die Freigaben drauf liegen.
Alles was mit Datenbanken und Mailservern zu tun hat, weg von Raidleveln mit Paritätsberechnung. Ebenso die Betriebssystempartitionen aller VMs.


Netzteil ist halt so ne Sache, mit nem brauchbaren Raidcontroller kannst du die HDDs beim Start nacheinander hochfahren, das kostet zwar Zeit, benötigt in Summe aber deutlich weniger Bumms beim NT. Ich denke im Bereich 350-400W (je nach HDD Anzahl auch mehr) sollte man da hinkommen.


Zum Case, das ist immer Ansichtssache, nimm das was dir gefällt. Ansonsten wenn das Aussehen keinen Rolle spielt und die Komponenten auf Standards setzen, dann nimm das was deinem Geldbeutel gefällt und wo die HDDs allesamt reinpassen.
 
Bezüglich der Disk-Performance möchte ich mal ein paar Beispiele aus der Praxis liefern um zu zeigen was geht und was nicht.

Ich betreibe @work VMWare Workstation auf ner Kiste mit 2x Xeon W5580, 24 GB RAM und 4x 300 GB 15k SAS HDDs.

3 von den Platten am Onboard Controller im RAID 5 ergab schon bei nur 4 VMs ne grottenschlechte Performance. Klar macht hier der Controller sicherlich viel kaputt weil kein Cache und nichts vorhanden ist, aber wenn alle Platten auf einem RAID Verbund rödeln zieht das die Performance gut runter.

Inzwischen verwende ich 2 der Platten jeweils einzeln für VMs und hab die rel. gleichmäßig verteilt, die Performance ist jetzt brauchbar auch wenn ich deutlich mehr als 5 VMs laufen hab.

In unserer produktiven ESX Umgebung rennen in nem Fujitsu Eternus DX60 8x 450 GB SAS HDDs im RAID 6.
Da liegen insgesamt 26 laufende VMs drauf die auf 2 ESX Servern laufen und die Performance ist vom Gefühl her ausgezeichnet. Gemessen hab ich da nichts drum kann ich dir da leider keine genauen Werte geben aber ich kann dir beschwören dass das nichts hakt oder sich zäh anfühlt o.ä.

Wir bekamen die Empfehlung, das RAID 6 in mehrere LUNs einzuteilen und pro LUN max 5-10 VM zu betreiben (bei VMs die auf den Platten mehr Last verursachen weniger, sonst etwas mehr) was wir auch befolgt haben.
Warum das einen Performancevorteil bringt obwohl ja alles auf dem selben RAID 6 liegt konnte mir bisher leider niemand erklären, ich hab (was ich jetzt dann wohl doch mal nachholen werde) aber ehrlich gesagt auch noch nicht näher recherchiert.

Die Praxis zeigt mir jedenfalls das die Empfehlung bloß keine Parity-basierten RAID Level zu verwenden nicht in jedem Fall stimmt.

Gleichzeitig ist natürlich nicht gesagt dass unsere Lösung mit RAID 10, evtl mehrere Arrays, nicht noch wesentlich schneller arbeiten könnte.
Es sind in unserem Fall auch keine VMs dabei die übermäßig viel Plattenperformance fordern.
 
Die Praxis zeigt mir jedenfalls das die Empfehlung bloß keine Parity-basierten RAID Level zu verwenden nicht in jedem Fall stimmt.

Gleichzeitig ist natürlich nicht gesagt dass unsere Lösung mit RAID 10, evtl mehrere Arrays, nicht noch wesentlich schneller arbeiten könnte.
Es sind in unserem Fall auch keine VMs dabei die übermäßig viel Plattenperformance fordern.

Gehen tut das ganze klar, keine Frage, aber warum sollte man sich eine Bremse ins Boot holen, wo man diese elegannt vermeiden kann ;)
Und wie du ja schon selbst sagtest, es existieren keine Erfahrungsberichte im Raid 10 mit der selben Belastung und dem selben Unterbau...
Die Performance dürfte gefühlt eine ganze Ecke steigen...


Unter Umständen spielt das aber auch in einer Testumgebung so richtig keine Rolle. Auch gibt es ja gefühlt einen Deutlichen Leistungsschub zwischen 15k SAS HDDs und schnöden Desktop HDDs, und nochmal richtig, wenn die Desktop HDD vllt sogar noch so ne Green HDD ist, welche nichtmal mit 7200rpm läuft.
 
Über ne HDD mit < 10k RPM würd ich persönlich ja kaum nachdenken, wofür gibts die Velocis.
Klar sind die teuer aber gerade bei solchen Belastungen spielen die ihre Vorteile aus.

Mehr Strom als ne 7.2 3,5" HDD braucht ne Veloci auch nicht.

Was bei sowas wie unserem iSCSI auch wahnsinnig viel ausmacht is der Cache, da sind immerhin 2 GB drin und das auf 2 Controller verteilt.

Mein Onboard-Controller in meiner Workstation steht da völlig ohne Cache schon wieder ganz anders da.
 
Die Veloci Platten würde ich nicht nehmen, für das was die können sind die viel zu teuer, da kann man gleich richtige SAS HDDs nehmen, oder gleich SSDs ;)
 
Ich hab interessanten Lesestoff zum Thema gefunden (und ja, RAID 10 ist schneller als RAID 5) http://www.lsi.com/DistributionSystem/AssetDocument/ESG_Lab_Validation_IBM_DS5000_Sept08.pdf

Ist natürlich auch immer die Frage wie viel Kapazität man benötigt.

Ein mit VMs bis zum Rand vollgestopftes RAID 5 oder 6 das die benötigte Performance liefert ist OK.
Ist mein RAID 5 noch fast leer aber schon zu langsam mach lieber ein RAID 10 draus wenn das vom Platz auch noch reicht, das kann dann schnell genug sein.

Deine Kritik an den Preisen für die Velocis kann ich allerdings nicht nachvollziehen.
Besonders wenn ich mir die durchaus attraktive 600 GB Veloci anschau die in Geizhals ab 240 EUR zu haben ist während eine Seagate Savvio 10k.4 bei gleicher Kapazität ab 411 EUR kostet.
222 EUR zu 380 EUR bei den 450 GB Versionen sehen für mich nicht besser aus.

Und viel langsamer als ne 10k SAS HDD ist ne Veloci nicht, dann lohnt sich wenn dann gleich der Schritt zu 15k SAS.

EDIT:
Auch interessant zu lesen: http://www.vmguru.nl/wordpress/2009/11/virtual-infrastructure-best-practices/
Schade dass man so wenig Zahlen zu Gesicht bekommt.
 
Zuletzt bearbeitet:
Mh ok also nochmal um auf das Thema zurück zukommen :P

Also kann ich kein Arry was größer als 2TB ist als Datastore im ESXi verwenden ist das richtig? Also wäre es das beste ein Raid 5 aus 3x 1TB zu bauen um diese als Platte für die Daten vom Fileserver zuverwenden. Und denn nochmal 2x 2TB im Raid 1 oder 0 für die restlichen Maschienen. Was sagt ihr dazu? Außerdem ist die Frage nach dem Netzteil und dem Case immer noch ungeklärt :P

MfG
 
Wenn du mal die Beiträge auch vollständig lesen würdest, hättest du die Anwort auf die NT und Case Frage schon, denn dazu habe ich schon zwei mal was geschrieben.

Zum anderen, ja so könnte man das machen mti den HDDs, die Frage ist aber, brauchst du zwingen 4TB in nem Test ESX Server... Ich würde sagen nein...
 
Ah sorry hab den letzten Abschnitt wohl gestern Abend wohl nicht mehr richtig mit gelesen also kann ich das 520W Netzteil super nehmen wenn ich nicht mehr als 8 Platten einsetzten werde.

Mh joa ich hab derzeit einen kleinen Fileserver aus alter Hardware hier stehen den würde ich gerne in den ESXi mit einbinden da der so schon viel Strom verbraucht im vergleich zum normalen PC an dem ich sitzte daher auch das gewünschte Raid 5 mit 2TB oder eigendlich mehr da ich die 2TB immoment schon fast ganz belege. Nochmal eine Verständnisfrage wenn ich nun doch ein Raid 5 aus 3x 2TB bauen würde denn könnte ich dem ESX wie du gesagt hast wenn es der Controller mit macht zwei Datastore´s/Lun´s zuweisen mit einer größe von 2TB? Hab leider die letzten Tage viel Stress gehabt daher die doofe Nachfrage ...

Und denn wäre ein Raid 10 ja noch das bestte für den Rest mit 500GB Platten wie du sagtest.

Frage ist ob der Perc 6i das mit Raid 5 und den Lun´s kann das müsste ich nochmal nach sehen.

I work for Dell.
The 2TB limit is a limitation of ESX, and ESXi.
If you are using simple raid types (0,1,5,6) then you can create multiple virtual disks on each raid group.

1) Press <ctrl> R during the boot process to enter the PERC configuration utility.
2) Create a new virtual disk. After you have selected your RAID level (must be 0, 1, 5, or 6), and your physical disks; enter 2097152 or smaller for the VD Size in MB. When you proceed to the VD name, the utility will automatically subtract 1 from the VD size.
3) Finish creating the new virtual disk.
4) From the main screen, expand "space allocation" and select "Free Space".
5) Press <enter> to create a new virtual disk, and enter a disk size less than or equal to 2097152 for the 2nd virtual disk.
6) You may repeat steps 4 and 5 to create up to 16 virtual disks for each Disk Group.
The other option, which someone else posted, is to create multiple raid groups. This also works.

Das wäre ja genau das was ich denn bräuchte.
 
Zuletzt bearbeitet:
ja genau so muss es dann werden.
Wobei ich nicht sicher bin ob man ein und die selben Platten in verschiedene Raidlevel eintüten kann.
 
Na das geht nicht so wie ich das eben nochmal weiter verfolgt habe aber das mit dem Raid 5 das denn größer als 2TB ist, freut mich schonmal das das so möglich ist. Werde das aber testen bevor ich mir den Perc kaufe, leider bin ich nun 3 Wochen nicht in der Firma :(

Hier nochmal ein Auszug der das bestätigt

Man kann beim Perc-Controller mehrere virtuelle Disken auf ein Raid-Array legen.
Also ein großes Raid über alle Disken erstellen und dann aber bei der Virtual Disk im Raid-Controller, nur um die 950GB angeben.
Also lieber mehere kleinere Virtual Disken anlegen. Die Last wird somit trotzdem auf alle Spindeln aufgeteilet, da dass Raid ja
über allen Disken liegt.

Dann hätte ich aber nochmal ein Frage den ESX würdest du denn aber auch auf das Raid 10 installieren oder auf ein USB-Stick oder sowas?
 
Der ESX selbst hat sogut wie keine Anforderungen an die HDDs. Ich meine den kannst du bedenkenlos auf das Array mit installieren. Ansonsten nimmst halt nen USB Stick.
Oder ne kleine SSD. Diese 2-8GB Teile gibts ja fast hinterhergewurfen.

Vorteil von der Installation auf einem seperatem Medium ist halt, wenn es dir mal das Array wegfeuert, aus welchen Gründen auch immer, so hast du immernoch Zugriff auf den ESX selbst. Sprich die Einstellungen und Co. sind alle noch vorhanden. Ob das für dich als lohnender Grund durchgeht, kannst nur du wissen ;)


Zum anderen, also wenn der Beitrag da wirklich stimmt, dann kann der Perc mehrere LUNs auf einem Array erstellen. Würde mich ehrlich auch wundern wenn nicht ;)
Dem steht also nix im Weg.

Ich würde sagen kauf du testest das vorher erstmal ausgibig aus. Sprich 3 oder 4 HDDs nehmen und dann jeweils im Raid 5 oder 10 probieren. Dann halt mal ne VM drauf schieben oder besser dessen mehrere und dann mal Last anlegen und gucken wie die Performance sich verhält.
Das ganze ist ja auch stark Plattenabhängig...
 
Gut werde ich machen und meld mich denn mal wieder wenn ich alles zusammen habe etc danke nochmal für deine Hilfe.

Hier nochmal ein paar Auszüge aus dem LSI MegaRaid und Dell Perc5/i SAS/SATA PCIe [4] über das mehrere LUNs auf einem Array erstellen mit dem Perc 5/6:

Jop, das geht definitiv.

Ich hatte meine 4 WD15EARS in 4 RAID5 mit jeweils ~1TB aufgeteilt und diese dann eingbunden...

Das sah im Endeffekt dann so aus wie im Anhang zu sehen. Klappte eigentlich einwandrei, bis mir eine HDD abgeraucht is :fire:

(Die angabe mit den ~1275,5MB/sec kannste ignorieren. Das brachte damals HDtune als Wert :d)

So sah das ganze aus. Zwar bissle klein das Bild, aber es sollte reichen :drool:

VD1 als "RAID5" eingebunden und um die restlichen VDs erweitert -> 4TB Platz.

Danke auch nochmal an screama für die Infos :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh