leeren 19" Schrank füllen mit ESXi - Hardware für "Haus-Server"

Hallo!

Ich sehe die Probleme hier bzgl. des Raid bzw. Software-Raid z. B. mit einem

Asus P5Q Deluxe + Core2Duo E8400 (65 Watt)
- 6x SATA im Software Raid 5 für Datastore (ICH10R)
- 2x SATA im "Raid 1" für VMs (Drive Xpert Technology)
- ESXi dann extra (macht das so Sinn; also VMs/Data/ESXi extra zu verteilen?)

--> in dem engl. Thread wird von Problemen mit der Geschwindigkeit/Erkennung gesprochen - oder verstehe ich das falsch?

Ein Hardware Controller ist mir zu teuer - ausserdem meine ich, dass es problematich wäre, wenn so ein Controller sich verabschiedet...

Ich dachte immer ESXi läuft eben nur mit der ganz bestimmten Hardware bzw. Hardware von der Whitebox etc.
Dadurch mache ich es mir glaube ich schwer - zumal stromsparende "günstige" Komponenten hinein müssen...

Allerdings gefällt mir das Asus P5Q Deluxe + extra Intel 1000 NIC!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Softwareraid oder das Raid der ICH10R wird wohl im ESX nicht gehen...
Wenn du Raid haben willst, dann brauch es einem richtigem Controller... Da diese Controller (ala Perc 5i) aber auch recht brauchbar günstig zu haben sind, gibt es da weniger Probleme...
Die NIC Geschichten fertigst du wie gesagt mit Intel NICs recht unkritisch ab. Zur Not einfach zwei PCIe SinglePort Intel NICs verwenden. Wobei es denke ich auch fraglich wäre, ob du eine NIC schon voll bekommst... ;)

Was dir aber noch gesagt sein muss. Du kannst im ESX meine ich nach wie vor kein Volumen größer 2TB nutzen. Sprich es bringt überhaupt nix hier ein riesiges Raidvolumen zu bauen. Der ESX versteht nur 2TB LUNs.
Unterm Strich bleibt die Aussage, das es weniger Sinn macht einen Fileserver (und nur diesen) zu virtualisieren. Wenn du noch diverse andere VMs laufen lassen willst, dann macht das schon eher Sinn. Die Einschränkung bleibt aber.

Wenn es primär um den Fileserver geht, dann würde ich hier lieber auf ein echtes Linux oder von mir aus auch Windows setzen und mit Virtualisierungssoftware weitere VMs drauf packen. Der Fileserverzugriff läuft dann nativ auf der Kiste und die anderen VMs tuckern nebenbei mit.

Achso, falls du dich für den ESX entscheiden solltest, lass dir gesagt sein, das du keine USB Platten oder ähnliches fürs Backup nutzen kannst, sofern du nicht eine CPU/ein System hast, was das durchreichen der USB Ports unterstützt. Dazu brauchst du diese spezielle Virtualisierungstechnik. Intel Nehalem CPUs bzw. eine einzige S775er CPU können dies. Auch geht das wohl mittlerweile mit AMD Systemen, neuesten 8xxer Chipsätzen und einigen CPUs von AMD...


Ich hab hier bei mir Zuhause ein Asus P5Q-VM stehen, dazu ne Intel PCI 1GBit NIC. Und zwei Single HDDs ohne Raid. Es gibt günstig PCI Raidcontroller welche wenigstens Raid 1 Funktionalität und ESX Unterstütztung bieten. Sowas kann man noch nachträglich nachrüsten. Oder halt PCIe, müsste man mal genauer Suchen was geht und was nicht...
CPU ist ein E5500 gepaart mit 4x2GB DDR2 RAM.
Selbst die OnBoard NIC lässt sich über spezielle Treiber wohl nutzbar machen. Gebraucht hat das ganze um die 150€ gekost...
 
nunja, in großen umgebungen werden keine luns mehr gemountet, da nimmt man raw-devices.
sprich, die festplatte die der ESX am Board angesteckt hat, wird direkt in die vm durchgereicht, das hat vorteile, vorallem was die performance angeht. - das freenas würde selbst das raid des ich10r nicht nehmen, sondern die platten selbst ansprechen, von daher würde ich - wenn schon - das raid gleich über den freenas abdecken, wenn es so günstig sein soll.
dann können die platten an den onboard controller und in der vm mountest du dann keine vmdk sondern die raw-devices. - lediglich für das OS des Freenas würd ich eine vmdk erstellen, aber die braucht ja kaum platz.

ansonsten, einfach mal ausprobieren...
 
Und wie verhällt es sich wenn diese eine physische HDD dann ausfällt? Sprich wenn der Link wegfällt?

Ich hab grad mal paar Dokumente von VMWare gewälzt. Das RDM funktioniert ja offiziell nur mit SAN Konstrukten. Interne HDDs kann man aber auch über die Kommandozeile Mounten. Bei einem SAN ist der Wegfall einer HDD nicht zwingend tragisch, weil man ja per RDM das LUN mountet und nicht die phyischen HDDs ansich... Aber bei einer einzigen HDD könnte ich mir das schwierig vorstellen, wenn diese wegfällt. Klar sollten dank des Raidvolumes im Client OS die Daten vorhanden bleiben, nur was bringts mir, wenn die VM abschmiert, oder der ganze Host!?
Was halt noch problematisch ist, wenn man RDM nutzt, dann ist die komplette Disk wohl an die VM gebunden. Sprich Zugriff anderer VMs auf die HDDs ist dann nicht. Was wiederum für weitere VMs noch weitere HDDs benötigt.
VMWare selbst schreibt so viel Performancegewinn dem RDM gar nicht zu. Einzig für Clusterumgebungen (ala MS Cluster) wird es zwingend erforderlich und für gewisse Datenbanken und ähnliche Sachen, welche exklusiven Zugriff auf die HDDs brauchen/haben sollten. Macht schon Sinn die Platten da nicht zu sharen...

Es scheint aber wohl noch paar Unterschiede zu geben. Mit VMFS2 kann man wohl Volumes größer 2TB nutzen. Aber man muss dazu die Blocksize hoch treiben. (was ebenso kontraproduktiv ist)
Und wenn man das ganze Intern nutzen will, sprich auf nem internen Raid, so bleibt auch wieder das Problem mit dem Raidcontroller, der zwingend benötigt wird... Oder halt HDDs einzeln Mounten mit allen Vor/Nachteilen ;)

EDIT:
Gerade noch was interessantes gefunden:
http://www.vmware.com/files/de/pdf/vsp_40_config_max_de.pdf
Dort steht, max. Größe für ein RDM Device wäre ebenso 2TB...
Aber so richtig werde ich daraus nicht schlau... Mit VMFS2 kann man die Blocksize größer 8MB setzen (geht laut dem Dokument nur mit dem ESX3-3.5) Mit VMFS3 nur bis 8MB und gleichsam hat man die 2TB Grenze...
 
Zuletzt bearbeitet:
Gerade noch was interessantes gefunden:
http://www.vmware.com/files/de/pdf/vsp_40_config_max_de.pdf
Dort steht, max. Größe für ein RDM Device wäre ebenso 2TB...
Aber so richtig werde ich daraus nicht schlau... Mit VMFS2 kann man die Blocksize größer 8MB setzen (geht laut dem Dokument nur mit dem ESX3-3.5) Mit VMFS3 nur bis 8MB und gleichsam hat man die 2TB Grenze...

Ein VMFS3-Volume kann so weit ich weiss bis zu 64TB groß werden, aber durch die maximale Blockgröße von 8MB kann man keine VMDKs drauf packen die größer als 2TB(-512B) sind.
 
Aber scheinbar kann man das bei VMFS2 Volumes, zumindest lässt mich das dieses Dokument glauben. Wobei sich das irgendwie mit dem Punkt, VMFS in ESX3-3.5 wiedersprechen würde... Denn man würde denke ich keinen Rückschritt machen...
 
und der controller, der dem ESX ein RAID bietet muss selber die logik haben!
Fake-Raid's kennt der nicht, sondern spricht die HDDs trotzdem direkt an.

gut, was passiert wenn eine HDD wegfällt? - das was immer passiert, entweder das RAID kann es verkraften oder nicht - ob nun ein software auf dem controller oder der VM macht da letztlich keinen unterschied. - wirklich testen kann man das bei ner VM ja nicht...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh