[Guide] Wir bauen uns einen ESX

Wenn du sowieso nicht lokal an der Kiste arbeiten willst, kannst du getrost auch ESXi nutzen... Und eben die 2008R2 Installation als VM betreiben.
Alternativ auch andere Sachen ala Hyper-V von MS direkt auf die Hardware und weitere Gast OSen als VMs da mit drauf...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt es dazu Leistungstests oder Erfahrungen dazu wie der Unterschied zwischen real installiert und als VM??
 
Performanceunterschied nahe Null ;) -> Meine Erfahrung.
Ansich ist Performance rein auf die CPU bezogen sowieso uninteressant.

Viel wichtiger ist das Storage und die RAM Menge. Denn hast du bei diesen beiden zu wenig, gehts massiv in den Keller mit der Performance. Das dürfte aber auch rein logisch schon verständlich sein ;)
 
Hi

Sorry das ich deine frage nich beantwortet habe.
Es wird alles neu gemacht und mom auch nur per Remote darauf zugegriffen. Am Server sind nur 2 LAN und 1 Netzkabel dran. mehr brauch ich ja nicht ;-)

Ich würd ESXi nehmen und W2k8 als VM laufen lassen. W2k8 braucht aber relativ viel Ressourcen. Stellt sich die Frage, ob Du den zwingend brauchst.

---------- Post added at 14:50 ---------- Previous post was at 14:26 ----------

also momentan schaut es wie folgt aus.

Der Server hat ein Raid Controller von Promise drin wo 8 2TB HDD im RAID5 dran hängen.
Zusätzlich noch ein paar HDD für Backup, OS usw.

Neu:
Server mit Server2008R2 drauf für den Storage und mehrere VM für die einzelnen Server (TS, FTP etc)

Ich frag mich jetzt halt einfach was mehr Sinn macht, Server2008R2 direkt auf die Festplatte installieren und dann mit VmWare die einzelnen VM direkt da drauf laufen lassen. Oder ESX installieren auf den nackten Server und da drauf Server2008R2 und die anderen VM installieren. Die Storage HDD laufen wieder an einem Hardwarecontroller von Adaptec, dies soll aber später erweiterbar sein. Bis anhin konnte ich im Win nach dem migrieren die Partion einfach erweitern. dies wäre neu auch nötig.

Beim ESXi ist es wichtig, dass der Controller in der HCL steht. Und falls Du den an die VM durchreichen möchtest, also für eine File VM, sollte der Chipsatz sowie CPU VT-d unterstützen
 
Zuletzt bearbeitet:
Ich würd ESXi nehmen und W2k8 als VM laufen lassen. W2k8 braucht aber relativ viel Ressourcen. Stellt sich die Frage, ob Du den zwingend brauchst.

Da scheinbar der Leistungsunterschied nicht so gross sein wird, werde ich den W2k8 wohl auch auf dem ESX laufen lassen. Ich habe den eigentlich um die ganzen Daten zu managen.
1. ist er sehr ähnlich wie Win7 von der Bediehnung her
2. Kann ich da ohne probleme mein RAID erweitern
3. Inst. von Software rel. einfach, da Windows



Beim ESXi ist es wichtig, dass der Controller in der HCL steht. Und falls Du den an die VM durchreichen möchtest, also für eine File VM, sollte der Chipsatz sowie CPU VT-d unterstützen

Ich verstehe gerade nicht was HCL bedeutet.

Hier mal mein geplantes System

CPU: FX-8320 wahrscheinlich herunter getaktet um den Stromverbrauch zu veringern
RAM: 32GB DDR3-1600
Board: Wahrscheinlich AsRock 970 Extreme 3, muss ich aber erst testen ob es geeignet ist.
SSD: Samsung 830 64GB für OS
HDD Raid: entweder 7k4000 oder 5k3000 von Hitachi
Controller: Adaptec 71605
NIC: Intel Pro/1000 CT noch nicht ganz sicher

CPU-VT ist sicherlich kein problem bei der CPU, beim Chipsatz bin ich mir gerade nicht sicher. Ansonsten sollte sicherlich genügend Leistung vorhanden sein??
 
2 sec Google :)

Vmware Hardware compatibility list


VMware Compatibility Guide: System Search


Das Asrock müsste IOMMU können mein ArbeitsPC aus der Signatur hatte ich mal als ESXi getestet mit Durchreichen von Hardware klappte einwandfrei.
 
VT-d ist nicht gleich VT. VT brauchst Du zwingend um 64 Bit Software laufen zu lassen. VT-d oder eben das AMD Pendant AMD-Vi, oder wie das heisst, brauchts um Hardware durchzureichen. Wenn Du den Controller also durchreichen möchtest, brauchst Du neben AMD-Vi (CPU und Chipsatz, bzw. BIOS) noch einen Datastore, auf dem das OS drauf ist, an das Du durchreichen möchtest. (z.B. einen zweiten Controller oder der onboard Controller, sofern der unterstützt wird)

Auch um die NICs musst Du Dir Gedanken machen. Auch diese sollten in der HCL stehen. Bei meinem Board musste ich ein Custom Build machen, damit die onboard NIC erkannt wurde.

Mit mindestens 2 Nic kannst Du auch noch eine Firewall im ESXi realisieren, die das Routing übernimmt. Mache ich bei mir so.

Hast Du schon einmal an einen fertigen Server gedacht? Wenn dieser in der HCL steht, hast Du bessere Karten. Obwohl, meiner ist auch unsupported. Frag vielleicht auch mal im deutschen VMware Forum nach. Mir wurde damals vom Bulldozer abgeraten, genauso wie von anderer Desktop Hardware. Dem würde ich heute mehr Beachtung schenken. Ich hätte damals auch besser auf einen kleinen XEON Server aus der HCL gesetzt. Aber hinterher ist man immer schlauer. :)

---------- Post added at 16:28 ---------- Previous post was at 13:07 ----------

2. Kann ich da ohne probleme mein RAID erweitern

Was willst Du denn für ein FS? NTFS? Ich bin komplett auf VMFS umgestiegen. Einer sagte mal passend dazu: dann kannst Du ja gleich (wieder) auf Blech umsteigen. Allerdings kannst Du mit VMFS glaub ich nur 2 TByte grosse "Partitionen" (LUNs) machen. Ich habe zwar VT-d Unterstützung, aber durchreichen von Hardware wird allgemein auch nicht empfohlen und somit von mir noch nicht praktiziert.

Wenn Du also bei einer Installation von Windows Server auf Blech bleiben würdest, hättest Du mit deinem Fileserver auch einige Vorteile.
 
Zuletzt bearbeitet:
VT-d ist nicht gleich VT. VT brauchst Du zwingend um 64 Bit Software laufen zu lassen.
nicht ganz ;)
was du meinst ist VT-d... Und VT-x... Ersteres gibt es bei Intel meine ich nur, wenn die CPU auch VT-x unterstützt. Sprich kann die CPU VT-d, kann sie auch VT-x, man könnte VT-d wohl als Untermenge von VT-x bezeichnen.
Kann eine CPU aber beispielsweise VT-d nicht (im Fall von Intel wären das zum Beispiel die K Modelle, wenn ich nicht alles täuscht), sollte man aber dennoch drauf achten, das VT-x unterstützt wird. Denn wie du auch schon sagtest, ohne VT-x keine 64Bit VMs unter ESXi oder auch Hyper-V.
64Bit VMs gehen aber grundsätzlich dennoch, wenn die CPU 64Bit kann. Beispielsweise mit dem horn alten VMware Server 1 Punkt irgendwas... Zumindest war das mal so...


Was willst Du denn für ein FS? NTFS? Ich bin komplett auf VMFS umgestiegen. Einer sagte mal passend dazu: dann kannst Du ja gleich (wieder) auf Blech umsteigen. Allerdings kannst Du mit VMFS glaub ich nur 2 TByte grosse "Partitionen" (LUNs) machen. Ich habe zwar VT-d Unterstützung, aber durchreichen von Hardware wird allgemein auch nicht empfohlen und somit von mir noch nicht praktiziert.

Wenn Du also bei einer Installation von Windows Server auf Blech bleiben würdest, hättest Du mit deinem Fileserver auch einige Vorteile.

Die Frage nach dem Filesystem stellt sich beim ESXi ja aber gar nicht... Entweder du nutzt VMFS oder eben hast kein Storage :fresse:
Bestenfalls wäre noch RDM zu nennen, aber auch bei RDM benötigt man wohl irgendwie noch ein Stückchen Datestore, wo die VMX Datei sowie diverse andere Konfig und Logfiles pro VM abgekippt werden können. Das gleiche gilt auch beim Durchreichen eines Controllers an eine VM.

Ansonsten empfohlen oder nicht ist da übrigens nicht das richtige Wort. Die Möglichkeit besteht grundsätzlich erstmal. Man erkauft sich damit aber ein paar gravierende Nachteile. Ob einen das dann tangiert oder ob man diese Nachteile in Kauf nehmen kann, muss jeder für sich selbst entscheiden.

PS: 2TB LUN Begrenzung war mal ;)
Ab ESXi 5.0 gehen auch mehr... Wir haben auf der Arbeit teils 3-6TB LUNs an internen Storage in einigen Servern, die als Stand Alone Geräte teils beim Kunden im RZ tuckern.
Wichtig ist, VMFS Version 5 muss als Filesystem sein. Ebenso wichtig ist, man kann zwar VMFS3 Volumes von älteren Installationen konvertieren, aber das Resultat entspricht nicht vollumfänglich dem einer frischen VMFS5 Formation. Nämlich bleibt die Blockgröße des alten Volumes bestehen. Frisch formatiert hat VMFS5 beispielsweise immer 1MB Blocksize. Wärend große Volumes je nach benötigtem Platz am Stück pro VMDK Datei auch mal mit 8MB aufgefahren sind.
Sprich wenn man kann, sollte man hier klar frisch die Volumes Formatieren.

Was aber aktuell, wenn mich nicht alles täuscht eben nicht geht, sind VMDK Files größer 2TB. Das heist, pro virtuelle HDD ist das Limit nach wie vor bei 2TB.
Man kann aber natürlich der VM mehrere dieser 2TB VMDKs zuweisen. Und diese dann in der VM selbst wieder zusammen packen. Macht sich je nach verwendetem Zusammensetzverfahren auch Speedtechnisch nicht bemerkbar. Beispielsweise JDOB mit dynamischen Datenträgern unter Windows.

Ob der Fileserver nun direkt auf der Hardware, oder in einer VM rennt, ist dabei auch nichtmal wirklich ein Problem. ;) Zumindest bleibt als einziger Vorteil, das man den Platz des Storages komplett voll fahren kann, wärend in einer VM etwas Luft auf dem Storage einkalkuliert werden sollte.
Besser noch, man hat sogar einige Vorteile. Beispielsweise kann man via Snapshots direkt die ganze VM schnell und effizient wegsichern. Ohne dabei die Files native vom Fileserver saugen zu müssen. Je nach Anzahl und durschnittsgröße geht das nämlich extrem langsam.
 
Zuletzt bearbeitet:
Die Frage nach dem Filesystem stellt sich beim ESXi ja aber gar nicht... Entweder du nutzt VMFS oder eben hast kein Storage
Bestenfalls wäre noch RDM zu nennen, aber auch bei RDM benötigt man wohl irgendwie noch ein Stückchen Datestore, wo die VMX Datei sowie diverse andere Konfig und Logfiles pro VM abgekippt werden können. Das gleiche gilt auch beim Durchreichen eines Controllers an eine VM.

Er will wohl sein Win2k8 RAID (ich nehm an NTFS) weiter nutzen, wovon ich abraten würde. Wenn er den Controller per DirectPath I/O an die VM weiterreicht, geht das. Wie ich bereits gesagt habe, bräuchte er dann aber noch einen Datastore ausserhalb des Controllers, auf dem der W2k8 rennt. RDM hatte ich ausser acht gelassen, habe ich auch noch nie verwendet.

was du meinst ist VT-d... Und VT-x... Ersteres gibt es bei Intel meine ich nur, wenn die CPU auch VT-x unterstützt. Sprich kann die CPU VT-d, kann sie auch VT-x, man könnte VT-d wohl als Untermenge von VT-x bezeichnen.

Ja VT bzw. VT-x unterstützen wohl die meisten gängigen 64Bit CPU. VT-d allerdings nicht. Wies bei AMD aussieht, weiss ich nicht so genau. Will er nun sein W2k8 Hardwareraid weiter nutzen, braucht er auf jeden Fall sowas.

Kann eine CPU aber beispielsweise VT-d nicht (im Fall von Intel wären das zum Beispiel die K Modelle, wenn ich nicht alles täuscht)
...meine K Modelle können das.

Aber irgendwie erinnert mich sein Anliegen an meinen Start mit ESXi, auch ich wollte andere Filesysteme wie VMFS verwenden. Geht wahrscheinlich vielen ESXi Neulingen so. Ich bin nun froh, davon weg gekommen zu sein und auf VMFS zu setzen.

Wenn ich mir jedoch heute einen ESXi bauen würde, dann sowas wie jaddel hier kaufen möchte, mit ECC RAM und XEON z.B.

Gruss
 
Zuletzt bearbeitet:
Also wie bereits gesagt, es wird alles neu gemcht, somit bin ich auch offen für ein neues FS. Bis jetzt ist es NTFS und damit ist es rel einfach grosse Datenmengen bzw. Partitionen zu verwalten (erweitern).

Wenn ich bei VMFS die grösse bei einer Speichererweitern auch vergrössern kann, ist mir das völlig egal. ES muss einfach sicher sein und es muss erweiterbar sein. Beim start wird es sicherlich eine grosse Partion mit 4x 4TB im Raid 5 sein. An den Kontroller kann ich 16 HDD's anschliessen und diese Möglichkeit will ich mir für die Zukunft auch offen lassen.

Wenn ich das richtig verstanden habe, Kann ich für die VM eine SSD als LUN für die BS (VM) nehmen und den Speicher des RAID-Kontrollers als zusätzliche LUN den VM's bereitstellen. Stimmt das? Wenn ich nun dem zweiten LUN zusästzlichen Speicher geben kann, indem ich den Raidverbund vergrössere sollte ich dann auch im BS die Kapazität erweitern können, oder??
 
...meine K Modelle können das.

Aber irgendwie erinnert mich sein Anliegen an meinen Start mit ESXi, auch ich wollte andere Filesysteme wie VMFS verwenden. Geht wahrscheinlich vielen ESXi Neulingen so. Ich bin nun froh, davon weg gekommen zu sein und auf VMFS zu setzen.

Wenn ich mir jedoch heute einen ESXi bauen würde, dann sowas wie jaddel hier kaufen möchte, mit ECC RAM und XEON z.B.

Gruss

Also dann hast du vermutlich den I7 3930K mit C2 Stepping weil erst ab dem C2 wird da auch VT-D unterstützt.
 
Mal eine Frage an die Spezialisten hier :)

Was denkt ihr sinnvolle Zusammenstellung für einen Leistungsfähigen ESXi ?

da mir für meine ganzen Windows 2012 Tests leider der N40L + alter C2D nicht mehr langt.


1 x Shuttle XPC SH67H3
1 x Intel Core i7-3770, 4x 3.40GHz, tray (CM8063701211600)
1 x Corsair XMS3 DIMM Kit 32GB PC3-10667U CL9-9-9-24 (DDR3-1333) (CMX32GX3M4A1333C9)

+ 2er oder 4er Intelnetzwerkkarte.


Meinen N40L würde ich als Zentralen Storage ausbauen und könnte mir später noch ein zweites System dazu stellen wenn ich mal mehr testen will wegen Cluster usw.

Habe leider in meinem Arbeitszimmer nicht so viel Platz für noch mehr Hardware hinzustellen und es sollte den WAF erfüllen :)



Geplant sind folgende VMs:

Homelab:

Windows 2008R2 und Windows 2012 + Systemcenter 2012 SP1
Exchange 2013 und Sharepoint 2013 + SQL Server + Windows 8 Clients

Spätere Tests mit Hyper-V 2012

Produktiv Privat:

Windows 2008R2 Domäne + Exchange 2010 + WHS2011 + Terminalserver + Linux Webserver .....




*grins*

WAF = Woman acceptance factor
 
Mhhh die VMs sind schon sehr knackig in den Anforderungen ;)
SCCM 2012 + SQL + AD + Clients und du kommst mit 32GB RAM nicht! weit. Es läuft wenn überhaupt entsprechend zäh.

Heist, wenn dann wäre S2011 + 48-64GB RAM interessant. Mit S1155 bracht man da nicht anfangen, da bei 32GB RAM schluss ist. Wenn dazu noch ein paar VMs produktiv laufen, bleibt auch noch weniger Luft für die Test VMs.

PS: ich hab hier erst vor ein paar Monaten den Test hinter mit. Mit 16GB RAM bekommt man nur mit äußerster Not SCCM mit ner CAS + prim. Site, zwei Clients, einem DB Server mit zwei Instanzen sowie einem DC zum laufen. Mehr ist nicht...
Und dabei waren den Clients gerade mal 512MB RAM, den SCCM Maschinen nur 2-3GB RAM sowie dem SQL auch entsprechend wengig zugeteilt.
32GB ist da die absolute minimum Basis. ;) Nur würde ich das dann nicht auf S1155 machen, weil eben mehr nicht dort geht.
 
Danke ich habe es schon fast befürchtet das die 32 GB nicht langen dann muss ich mal schauen was ich noch für alternativen habe und was die Kosten :)
 
:) jo C2

Zuerst hatte ich C1 im Server, hat mir aber Intel ausgetauscht, da die es auf ihrer Website falsch angegeben hatten.
 
Zuletzt bearbeitet:
Danke ich habe es schon fast befürchtet das die 32 GB nicht langen dann muss ich mal schauen was ich noch für alternativen habe und was die Kosten :)

So viel mehr Kosten S2011 Systeme ja auch nicht...
Man darf halt nicht die fettesten CPUs rein packen. Und die CPU ist mehr oder weniger sowieso unkritisch.

Eventuell geht gebraucht ja sogar was...
Ggf. wäre auch S1366 interessant. Gebraucht aktuell wohl schon recht günstig zu haben. Sollte dann aber gleich ein Dual CPU Gespann sein. Zwei kleine E5520er CPUs bekommst du entsprechend günstig. Und du kannst mit mindestens 2*48GB schon anständig den RAM ausfahren. Kaufst du die etwas teureren 16GB DDR3 Reg. ECC Module gehts sogar bis 144GB in Summe ;)
Ist zwar ne ältere Plattform selbst, dafür aber grundsolide aktuell.

Ansonsten halt Single S2011 und möglichst viel RAM mit möglichst großen Modulen. 8x8GB oder 4x8GB + 4x4GB wären auch halbwegs bezahlbar. Die S2011 Serverbretter sowie die CPUs haben natürlich aktuell etwas mehr Preis wie die Vorgänger...
 
Ja das wäre eine alternative aber ich tippe mal stark das ein Dual S1366 deutlich mehr Strom frisst als ein Single S1155 oder S2011 System.

Das teil soll halt 24/7 laufen und ich denke über Ostern teste ich mal wie weit ich mit meinem Desktop PC (16GB) unter ESXi komme vielleicht langt mir ein 32 GB System doch erstmal werde sicher auch nicht immer alle VMs am laufen haben.
 
Neja der Verbrauch steigt natürlich...
Die Frage ist nur, was kostet dich das über einen gewissen Zeitraum mehr und ab welchem Kostenpunkt willst du nicht mehr ;)

Ich finde es durchaus angenehmer sagen wir ~20€ im Monat mehr Strom zu verbraten, anstatt gleich dortmal 2000€ für nen Server rauszuhauen ;)


Sofern du testen kannst, mach das mal. Beim SCCM wie gesagt ist es halt zu knapp. Denn der SCCM braucht halt ein laufendes AD sowie SQL Instanzen. Und SCCM testet man am besten mit CAS + primary Site. Dementsprechend zwei SQL Instanzen. + mindestens einen DC sowie mindestens einem Client. Weniger ist halt nicht.
Und SCCM ist ja vor allem auch nur ein Produkt aus dem ganzen System Center Paket ;)
 
Wollte mich in der nahen Zukunft ebenfalls mit ESXi 5.1 auseinandersetzen, nutze derzeit Workstation 9 und bräuchte öfter VT-d zum Durchreichen, was CPU und Mainboard auch unterstützen würden allerdings eben nicht mit WS9 geht.

Eine zentrale Frage hätte ich: Ist es möglich, einen ESXi-Host mit laufenden VMs in einen RAM-Stand by-Modus zu versetzen? Mit WS klappt das auf einem Windows-Host einwandfrei, dagegen wird bei MS Hyper-V der Energiespar-Modus des Host-Systems völlig deaktiviert. Ich weiß, eigentlich laufen Server 24/7, bei wir wäre das allerdings nicht unbedingt das Gelbe vom Ei und einfach 'ne Stromverschwendung.

Danke für die Info!
 
So ohne weiteres geht das nicht...

Was man nun machen könnte, man könnte VMware Workstation like die VMs einfach suspenden. Und dann den Host direkt runterfahren.
Nachteil, der Host schläft nicht wirklich... Sondern wird direkt runtergefahren und dann auch wieder gestartet. Heist also, kostet ein Stück weit Zeit.
Vorteil, das geht mit Boardmitteln ganz brauchbar.

Denn der Host bietet beim herunterfahren dieses die Möglichkeit, alle VMs nach einer selbst definierbaren Reihenfolge zu suspenden oder auch die VMs runterzufahren (entweder/oder)
Heist, einmal auf den an/aus Schalter des Hosts gehämmert und die VMs legen sich schlafen -> der Host fährt runter.
Alternativ kann man das Herunterfahren auch über ein Script starten oder direkt über die Konsole.

Beim Boot müsste man schauen, ob die VMs wieder starten, aber normal sollten diese wieder gestartet werden. Hab das aber nie! probiert, da mir suspenden zu Fehleranfällig ist.
 
Danke für die Antwort - schade, dass das Host-Suspenden mit laufenden VMs nicht funktioniert. Sofern das System gründlich durchgecheckt ist, habe ich bislang keine negativen Erfahrungen mit dem RAM-Ruhe-Modus, allerdings unterbreche ich auch keine "laufenden Programme", es geht mir mehr darum, schnell dort in den VMs weiter zu arbeiten, wo gerade aufgehört wurde.

Ich habe in Randnotizen gelesen, dass bei Hyper-V unter Windows Server 2012 "irgendwie" VT-d funktionieren soll. Auch soll Hyper-V in der 2012er Version das Host-Suspenden mit laufenden VMs unterstützen. Ich denke, ich werde mal die Evaluierungsversion testen.

*Edit*: Das ist falsch und gilt nur für die abgespeckte Client-Hyper-V-Version unter Windows 8.
 
Zuletzt bearbeitet:
Mal eine Frage an die Spezialisten hier :)

Was denkt ihr sinnvolle Zusammenstellung für einen Leistungsfähigen ESXi ?

da mir für meine ganzen Windows 2012 Tests leider der N40L + alter C2D nicht mehr langt.


1 x Shuttle XPC SH67H3
1 x Intel Core i7-3770, 4x 3.40GHz, tray (CM8063701211600)
1 x Corsair XMS3 DIMM Kit 32GB PC3-10667U CL9-9-9-24 (DDR3-1333) (CMX32GX3M4A1333C9)

+ 2er oder 4er Intelnetzwerkkarte.


Meinen N40L würde ich als Zentralen Storage ausbauen und könnte mir später noch ein zweites System dazu stellen wenn ich mal mehr testen will wegen Cluster usw.

Habe leider in meinem Arbeitszimmer nicht so viel Platz für noch mehr Hardware hinzustellen und es sollte den WAF erfüllen :)



Geplant sind folgende VMs:

Homelab:

Windows 2008R2 und Windows 2012 + Systemcenter 2012 SP1
Exchange 2013 und Sharepoint 2013 + SQL Server + Windows 8 Clients

Spätere Tests mit Hyper-V 2012

Produktiv Privat:

Windows 2008R2 Domäne + Exchange 2010 + WHS2011 + Terminalserver + Linux Webserver .....




*grins*

WAF = Woman acceptance factor

Hast du das System so gekauft? Läuft es zufriedenstellend?
 
Zuletzt bearbeitet:
Danke für dein Feedback. Die Shuttles scheinen ja beliebt zu sein für Homelabs.

Wie schon geschrieben überlege ich mir zu Testzwecken auch ein Shuttle PC zu kaufen um darauf ESXi zu installieren.
Sind die Dinger Wohnzimmer tauglich?
Was ist der Unterschied zwischen den beiden SH67H3 und SH67H7

CPU werde ich einen i7 nehmen
Festplatten 2 x SATA (benötige kein Backup daher RAID 0, kann VMs verteilen)
Genug Memory
evtl. noch eine Netzwerkkarte

Hat jemand so etwas im Einsatz und kann mir die aktuellen und detaillierten Hardwarekomponenten angeben?
 
Die beiden unterscheiden sich wohl nur bei der Gehäusefront technisch kein unterschied.

Da die Shuttle eine eigenes Kühlsystem haben sollten sie sehr leise sein.

Rein vom Platz sind die teile der Hammer aber man bezahlt halt auch die ganzen Vorteile.

Frage ist wie du unter ESXI ein Raid 0 machen willst dafür brauchst du einen Raidcontroller der von ESXi unterstützt wird oder musst den Satacontroller in eine Storage VM durchreichen nur nicht sicher ob die Kisten sauber VT-D unterstützen.
 
Und wenn du ein Raid 0 in einer Storage VM machen willst brauchst du 3 Platten...
 
Besten Dank für eure Feedbacks.
Sorry meinte nicht RAID0 in dem Sinne, sondern einfach 2 Disk, und beide als je einen Datastore verwenden ;)
 
hi

Ich bin mir gerade am überlegen welchen CPU ich für meinen ESX kaufen soll.
Bis jetzt bin ich immer davon ausgegangen, dass ich mir einen FX-8320 kaufen werde und den auf 2-2.5Ghz max laufen lassen werde. Rein vom Stromverbrauch sollte das noch gehen und ich habe 8 Kerne zu verfügung.
Als Alternative habe ich mir jetzt den FX-6300 herausgesucht, da der eine tiefere TDP hat und somit auch weniger Strom braucht. Auch diesen würde ich wahrscheinlich runtertakten und UV. Dann habe ich aber nur noch 6 Kerne.

Wie denkt ihr darüber. Sind die 2 zusätzlichen Kerne nötig bzw. merkt man den Unterschied extrem?

Auf dem ESX wird folgendes laufen: Win Server 2008 R2, Win 7 zum testen, Linux Server für Teamspeak, own cloud server, und evtl noch ein zwei kleinere Server zu testen.


Vielen Dank
 
Hi Leute,

kann mir jemand den günstigsten PCIe Controller nennen, der mit dem aktuellen ESXi läuft? Es sollen nur 2x 1TB Seagate SV-35 im Raid 1 dran betrieben werden. Wollte das über den onboard machen, aber geht ja anscheinend nicht...

Restliche Config:

Xeon E3-1220V2
Intel S1200BTL
32GB DDR3 ECC

Danke im Voraus!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh