Server Hardware für ESXi (oder Hyper-V) Umgebung

JohnnyFu

Neuling
Thread Starter
Mitglied seit
28.05.2006
Beiträge
215
Hi,

ich werde mir einen neuen Server für mein Labor aufstellen. Auf dem Server werden einige VM laufen.


  • 4x Server 2003 R2 (Secondary Domain Controller die lediglich "idlen" und replizieren).
  • 1x Server 2008 R2 (Symantec Endpoint Protection Manager und WSUS für 120 Clients)
  • 1x Server 2008 R2 (MS Exchange 2010 Testumgebung)
  • 1x Linux Server (Nagios Monitoring)

Als Hypervisor wird entweder Hyper-V oder ESXi 4 zum Einsatz kommen. Das hängt davon ab welcher Hypervisor es mir erlaubt mein/e Raid Array/s anständig zu überwachen. ESXi kann dies derzeit leider nur mit einigen LSI Raid Controllern oder HP Servern.

Ein Adaptec 5805Z SATA/SAS Raid Controller steht schon bereit und wird auch zum Einsatz kommen. An ihm hängen 8 Stück WD3202ABYS (320GB Raid Platten). Über die Array Konfiguration bin ich mir noch nicht ganz im klaren, 5, 6 oder 10? <--- Ratschläge erwünscht!

Nun fehlt mir noch ein 1x Mainboard, 1x Xeon CPU + 12 bis 16GB RAM. <--- was würdet ihr nehmen? Das ganze sollte bei Alternate zu bekommen sein! Budget: 1200-1300€ Brutto

Ich bin für eure Ratschläge, Meinungen und Kritik sehr dankbar!

Gruß
OSJF
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich weiss, da steht "Labor", aber nach dem Labor folgt der Produktivbetrieb.

Und mit dem Aufgabengebiet (120 Clients, 4xDC, Exchange) kannst mit Selbstbaulösungen gleich aufhören.

Gerade sind die neuen extrem leistungsfähigen und für ESX(i) ausgelegten HP ProLiant DL385 G7 rausgekommen.

Das ist mein Tipp. Ungeachtet der Einkaufskosten.
 
Ich denke auch dass hier ein richtiger Server seine Dienste besser verrichten wird.

Erfahrungsgemäss hat man gerade mit ESXi seine Mühe mit sehr aktueller Hardware. Auch wenn man es dann mehr oder weniger zum laufen bekommt, werden immer irgendwo kleiner "Unebenheiten" sein.

So etwa bei meinem "Server" der eine richtig miese ESXi Performance bietet.
Passtrough geht auch nur mit aktuellen 890GX Board (AM3) oder halt richtiger Server-Hardware.

Und ob die USB Ports und andere Controller funktionieren ist Glückssache.

Ich bin auf KVM Linux umgestiegen und viel glücklicher.
Da benötigt man nur den Linux-Treiber.

Aber das komtm für dich wohl nicht in Frage.

Wenn du unbedingt (wegen des Budget) auf den Eigenbau setzen willst, sehe ich einen 6-Core als Pflicht.

Der wird aber wohl sehr stark geforder sein.
Das andere Problem, auf normale Desktop-Boards bringt man nicht genug RAM.

Wenns also Server-Hardware sein soll, ist das Budget etwas tief.
Schon ein gutes Sockel-F Board verschlingt gerne 300€.

2x AMD Opteron 2378 310€
Tyan S8212 305€
8x Kingston ValueRAM DIMM 2GB PC2-6400E ECC CL5 384€

Und schon haben wir 1000€ aber es fehlen HDDs, Gehäuse, Netzteil usw.
 
Zuletzt bearbeitet:
Hallo traxxus,

danke für den Feedback, ich muss nochmal kurz genauer auf die Rollen der VM's eingehen.

Die DC's sind reine "idle und replizierungs" Maschinen, sie werden nicht als Logon-Server genutzt. Es handelt sich um secondary Domain Controller von Domänen anderer Standorte, die sind für den Fall gedacht das ein Physischer DC in einem Branch Office ausfällt. In so einem dem Fall soll das VMDK des DC's ins Branch Office gebracht und dort wieder hochgefahren werden.

Die 120 Clients sind lediglich an den WSUS und Symantec EP Dienst gekoppelt, dies verursacht keine außerordentlich große Belastung. Der MS Exchange 2010 läuft nur als Testumgebgung mit maximal 5 bis 10 Usern, wenn er in Produktion gehen sollte wird er auf einen DL380 G6 umziehen.

Denkst du jetzt immernoch das eine Selbstbaulösung "undersized" ist?

gruß
Johnny
 
Nein es geht nicht nur um Leistung, sondern um Hochverfügbarkeit und aufeinander abgestimmte Hardware und! - vor allem Support/Ersatzteile vom Serverlieferant.

Ich könnte die Verantwortung mit einem Selbstbau nicht übernehmen. Wäre mir schlichtweg zu.... hobbymässig.

Just my 2 cent.
 
Nein es geht nicht nur um Leistung, sondern um Hochverfügbarkeit und aufeinander abgestimmte Hardware und! - vor allem Support/Ersatzteile vom Serverlieferant.

Ich könnte die Verantwortung mit einem Selbstbau nicht übernehmen. Wäre mir schlichtweg zu.... hobbymässig.

Just my 2 cent.

Neja die Frage ist doch, muss eine Backuplösung wie diese überhaupt Hochverfügbar sein?

Selbst wenn der WSUS oder das Symantec Produkt mal für paar Tage steht, geht die Welt nicht unter. Bei den Backup Domaincontrollern schon gleich gar nicht...

Auch wenn ich nicht wirklich der Freund von Bastellösungen im Produktivbetrieb bin, kann man hier für diesen Einsatzzweck wohl gut damit leben.

So etwa bei meinem "Server" der eine richtig miese ESXi Performance bietet.
Passtrough geht auch nur mit aktuellen 890GX Board (AM3) oder halt richtiger Server-Hardware.

Und ob die USB Ports und andere Controller funktionieren ist Glückssache.

Passthrough funkt auch erst ab den i7 Xeons und eben mit ganz aktueller AMD Technik. Mit S771/775 oder älter hast da auch bei Intel keine Change... ;)

Zum Thema USB Ports, stellt sich mir die Frage, für was brauch man diese?
Wenn da nicht irgendwelche Software drauf läuft die nen USB Dongle vorraussetzt, dann sind diese idR sowieso unbenutzt... Zu den Controllern, auch da gibt es eine Ellenlange Liste seitens VMWare, was unterstützt wird und was nicht.


Wenn du unbedingt (wegen des Budget) auf den Eigenbau setzen willst, sehe ich einen 6-Core als Pflicht.

Der wird aber wohl sehr stark geforder sein.
Das andere Problem, auf normale Desktop-Boards bringt man nicht genug RAM.

Wenns also Server-Hardware sein soll, ist das Budget etwas tief.
Schon ein gutes Sockel-F Board verschlingt gerne 300€.

2x AMD Opteron 2378 310€
Tyan S8212 305€
8x Kingston ValueRAM DIMM 2GB PC2-6400E ECC CL5 384€

Und schon haben wir 1000€ aber es fehlen HDDs, Gehäuse, Netzteil usw.

Auch einen Hexacore brauch man für das Vorhaben nicht... Da reicht dicke ein kleiner Quad. Wie gesagt, die Kisten machen sogut wie nix, ein Backup DC brauch normal keine Leistung, und der WSUS und Symantec Server ruft auch nur Leistung ab, wenn Updates anstehen. Da werden aber wohl idR eher die Platten schlapp machen oder die LAN Anbindung dicht sein bei 120 gleichzeitigen Zugriffen im Worstcase als die CPU.
Und der Test Exchanger... Neja, in einer Testumgebung muss man vllt auch nicht unbedingt von super HighEnd Speed ausgehen...


Zum Thema RAM, da magst du recht aben, aber aktuelle i7 Boards bringen gut und gerne 24GB auf die Platine, ohne Reg. Speicher... Ansonsten gibts ja noch die Möglichkeit da auf ein "Serverboard" mit Xeon CPU zu setzen, dann geht auch Reg. Speicher und schon kannst die Bänke voll ausfahren...

@JohnnyFu
zum Thema Überwachung des Controllers im ESXi, da wirst du wohl recht schlechte Karten haben. Es sei denn, der Controller ist irgendwie über LAN erreichbar. Oder es gibt Tools/Plugins für den ESX.
Vllt wird dort aber mit dem Hyper-V von Windows was zu machen sein, denn den könnte man ja auch mit normalen Windows Tools impfen. Bzw. einfach nen normalen 2008er Server aufsetzen und die Hyper-V Rolle anhängen. Wobei das glaub bisschen langsamer ist...

Aber was ich mich frage, warum du da überhaupt so viel überwachen willst?
Einerseits gehst mit einem Eigenbau Server ins Rennen, und andererseits willst du "volle" Systemüberwachung haben...
Warum dann nicht gleich nen Anständigen Fertig Server ala HP DL3xx mit iLo und gut?
 
Danke für eurer kompetentes Feedback!

Ich sehe das an sich genauso wie du @fdsonne, es muss nicht hochverfügbar sein und 120 Clients werden niemals gleichzeitig zugreifen, eher 20-30.

Bezüglich Überwachung, "so viel" will ich gar nicht überwachen. Aber die Raid Arrays sind Pflicht, die will ich einfach in meiner Nagios sehen. Ansonsten: jehr mehr Überwachung umso besser. Frei nach dem Motto "In God we Trust, the rest we Monitor!"

Zum Thema Passtrough, geht es hierbei um das durchschleifen von PCIe/X, USB etc.?
Das ist zwar kein muss aber eine nette Sache. Ich hoffe das Tyan Board welches ich gerade geordert habe beherscht das.

Habe eben Bestellt:

1x Tyan S5502GM3NR S1156
1x Xeon X3430 S1156
4x 4GB 1333-9 REG ECC Dx4
950€ Brutto

Danke nochmal für euer Feedback, jetzt bleibt noch die Frage was für eine Raid Konfiguration ich vornehmen werde.
 
Ich rate dir aufgrund des sehr abenteuerlichen Preises des "Xeon Core i5" zu nem Athlon Tuban 6 Core.

Auch wenn du nciht 6 Kerne benötigst, er kostet kaum mehr, ist schneller (stammt von den AMD Istanbul-CPUs ab) und kann in Verbindung mit 890GX/FX fast alles was ein gutes Serverboard auch kann.

Schlussendlich ist es aber deine Entscheidung und die Ambitionen des Boards sollten entscheiden.
Da eignet sich dann ein Tyan Board besser, dank Dual-NIC oder eben gar Tripple NIC.

Unterm Strich macht deine Combo dank guter NIC mehr her in nem Server als ein schnellers AMD-Geschütz mit 6 Pumpen...
 
Bezüglich Überwachung, "so viel" will ich gar nicht überwachen. Aber die Raid Arrays sind Pflicht, die will ich einfach in meiner Nagios sehen. Ansonsten: jehr mehr Überwachung umso besser. Frei nach dem Motto "In God we Trust, the rest we Monitor!"

Zum Thema Passtrough, geht es hierbei um das durchschleifen von PCIe/X, USB etc.?
Das ist zwar kein muss aber eine nette Sache. Ich hoffe das Tyan Board welches ich gerade geordert habe beherscht das.

Zum Thema Überwachung, neja ich denke mal dafür musst du doch nativ den Controller ansprechen können, ich meine mal das wird dir unter einer ESX Umgebung nicht gelingen...
Wie gesagt, mit Hyper-V oder nen echten 2008er Server + Hyper-V Rolle sollte das aber machbar sein.


Zum Passtrough, ja da geht es um das Durchschleifen der physischen Hardware zur VM. Ob das ganze Sinn macht, steht auf einem anderen Blatt. Auf jedenfall sollte der Controller damit auch was anfangen können bzw. muss die Software das können.
Ist zwar eine Schicke Sache, aber man büst ein paar kleine Feinheiten ein, die noch viel interessanter sind. So gehen beispielsweise keine Snapshots mehr im ESX, soweit ich weis, auch ist das suspenden der VM nicht mehr möglich und die VM bekommt nativ den kompletten zugeteilten RAM auch reserviert (was gerade bei mehreren VMs unschön ist)
 
@Gohst_oc
ich habe ~170€ für den Xeon 3430 gezahlt, fand den Preis jetzt gar nicht so Abenteuerlich"?

@fdsonne
In ESX geht es, in ESXi nicht. Das liegt daran das man in ESXi nicht installieren kann. Es ginge auch in ESXi, Adaptec hat zumindest alle Weichen gestellt... aber VMWare offenbar hat daran nicht viel Interesse das ganze zu unterstützen, seit fast 2 Jahren warten die Leute und es ist bis Heute nichts passiert.

Daher wird der Hyper-V demnächst mal seine Chance bekommen. Damit kann ich bestimmt etwas basteln das mir den Controller in meinem Nagios anzeigt.
 
du kannst den adaptec unter esxi durchreichen das habe ich auch bei mir gemacht...
nur k/a mehr wie ich werde die tage mal nach dem tut suchen...
 
Ja wie gesagt, beim ESX und ESXi hängt es von der CPU Generation ab, die neuen Intels auf i7 Basis können das, bei AMD scheints mit den neuen 8xxer Boards auch zu gehen...
 
Verstehe ich das richtig, ich könnte den dann z.B. den Adaptec Storage Manager auf mehreren VM's installieren und von allen auf den Controller zugreifen?

Puh... ich hoffe das der i5 Xeon den ich Bestellt habe das auch kann. Wobei, ist so etwas nicht mehr eine Chipsatz Abhängikeit?
 
Du bindest dann das Gerät physisch in die VM. Ob das bei mehreren VMs funktioniert, weis ich nicht, hab ich noch nicht probiert...

Die Entscheidenden Nachteile die mich überhaupt von sowas abhalten stehen oben, gerade das Wegfallen der Snapshotfunktion bei einer VM mit aktiviertem Passtrough schmerzen schon recht stark ;)
 
Achja genau, das war der Haken. Keine Snapshots sind natürlich ein NO GO :) Meine Backups laufen über das VCB und die brauchen halt Snapshots.

Bis auf mein Mainboard sind übrigens schon alle Komponenten hier, aber die i5 Server Boards sind praktisch kaum zu bekommen.
 
Ein anständiger Raid-Controller bietet auch eine Management-Software für ESX(i), Linux und teils Opensolaris oder FreeBSD.

Was soviel heisst wie, mit etwas glück kannst du dann gar unter ESX(i) das Web-Gui des Raidcontrollers nutzen.
Oder zumindest ein CLI Tool.

Ok, bei ESX(i) ist es aber wirklich schwer, da kein richtiges Host-OS läuft...
Aber die Management-Funktionen werden durch ein Oberflächenloses Linux gestellt, welches eigentlich eine VM ist die immer mitgestartet wird.
(Lol kleine ESX(i) Lektion^^).

Ich würde von ESX(i) sowieso die Finger lassen, auch wenn vSphere eine sehr gute Server-Management-Softwar ist.

Xen etwa hat gerade einen schönen Quantensprung geschafft, nun kann man auch die Grafikkarte durchreichen (ist zumindest für ne CUDA / GPU-Computing-Rechenfarm zum Teil sinnvoll xD).

Oder mein Favorit KVM unter Linux.
Einfach, schnell und den grössten Hardware / OS Support den es derzeit gibt.
 
Oder mein Favorit KVM unter Linux.
Einfach, schnell und den grössten Hardware / OS Support den es derzeit gibt.

Kommt halt immer drauf an, was man damit vor hat. Im Firmenumfeld macht sich eine ESX Lösung sehr gut, da gibts fast nix besseres, gut besser geht immer, aber ist schon sehr sehr komfortabel. Vor allem, wenn man alles in einem Boot hat.

Ob das im Privatbereich auch so sein muss, ist Geschackssache... Für einfache zwecke ist aber der ESXi durchaus sehr gut geeignet, vor allem, weil man so eine Maschine in wenigen Minuten aufgesetzt hat. Und dann kanns sofort los gehen.
 
Ich hatte dank meiner Hardware einige lange Stunden damit verbracht die oem.tgz anzupassen.

Die Treibersuche war auch alles andere als einfach.
Und dann noch die Pci IDs eintragen....

Alles in allem mehr als 10h Arbeit um an all das Wissen zu kommen und immer wieder neu probieren etc...

Proxmox (KVM Linux + Debian Lenny 5.0) ist ich echten 10 Minuten drauf.
Aber Management-Funktionen sind nur wenige da.

Aber alles was man braucht ist per Webgui im Browser zu erreichen.
Und da es ein Linux ist, was sowieso nahezu alle Treiber drinn hat, geht wirklich nicht einfacher.

Sogar ein Grafischer Installer etc.

Für Zuhause gerade perfekt.
Und zumindest bei mir läuft alles eine Ecke besser als unter ESXi 4.0.

Was aber stimmt, vSphere ist genial, alles was man mit einem ESX(i) Server je tun muss, kann man damit machen.

Was kurz gesagt heisst: am besten kann man ESXi managen.
Für Zuhause aber unnötig.

Was sollte man denn schon gross am Host-OS machen?

Wenn man ein Linux als untersatz hat, geht auch alles relativ gut.
Ich nutze meinen Server hauptsächlich als Fileserver, da kann ich mein Linux einfach ohne die VMs laufen lassen.

Wenn ich dann mit Windows rumspielen will, habe ich dann immer noch meine VMs.

Also ein gutes Host-OS und gute Leistung in einem wenn man KVM nimmt.
So ähnlich auch für Hyper-V von Microsoft.
 
Wenn man auf anständige Hardware baut, hat man auch keine Treiberprobleme... Ich verstehe sowieso nicht, warum immer alles 100% mit jeglichen erdenklichen Funktionen mit jeglicher zu kaufender Hardware laufen muss. Und das ganze dann auch noch kostenlos...
 
Ich verstehe sowieso nicht, warum immer alles 100% mit jeglichen erdenklichen Funktionen mit jeglicher zu kaufender Hardware laufen muss. Und das ganze dann auch noch kostenlos...

Habe ich ja nicht gesagt.

Aber es ist nunmal nicht so einfach mit ESXi.
Es unterstüzt zwar erstaunlich viele Funktionen, aber irgendwann werden Hyper-Visoren die ein richtiges Host-OS haben Überhand nehmen.

Schon nur wenn man auf ganz aktuelle Southbridges oder Chipsätze setz, muss man aufpassen.
Für das ESX(i) ein unabhängiges Produkt ist, ist der HW-Support sehr gut, mag ja sein.

Obwohl schlussendlich nahezu alle meine HW auf ESXi lief, war die Performance schlechter als erhofft.
Schein für mich so, dass es hier grosse Unterscheide macht ob optimierte Server-HW oder nicht.

Ausserdem hat ESX(i) noch ein Spezielles Datei-System was auf anderen System einfach nutzlos ist.

KVM XEN und Hyper-V sind weniger pingelig.

Nur weil vmWare draufsteht ist es noch lange nicht das gelbste vom Ei.
Ich habe so das Gefühl dass hier vmWare Fanboys herumgeistern.

Mag sein dass bei professioneller Server-Hardware ESX(i) gut läuft, aber wer hat hier im (HOME) Server / Workstation Forum schon die absolute Server-HW?

Für mich muss der PC schnell, günstig, sparsam und leise sein.
Von diesen Eigenschaften kann man bei den meisten Server gleich streichen.
 
Zuletzt bearbeitet:
Habe ich ja nicht gesagt.

Aber es ist nunmal nicht so einfach mit ESXi.
Es unterstüzt zwar erstaunlich viele Funktionen, aber irgendwann werden Hyper-Visoren die ein richtiges Host-OS haben Überhand nehmen.

Schon nur wenn man auf ganz aktuelle Southbridges oder Chipsätze setz, muss man aufpassen.
Für das ESX(i) ein unabhängiges Produkt ist, ist der HW-Support sehr gut, mag ja sein.

Obwohl schlussendlich nahezu alle meine HW auf ESXi lief, war die Performance schlechter als erhofft.
Schein für mich so, dass es hier grosse Unterscheide macht ob optimierte Server-HW oder nicht.

Ausserdem hat ESX(i) noch ein Spezielles Datei-System was auf anderen System einfach nutzlos ist.

KVM XEN und Hyper-V sind weniger pingelig.

Nur weil vmWare draufsteht ist es noch lange nicht das gelbste vom Ei.
Ich habe so das Gefühl dass hier vmWare Fanboys herumgeistern.

Mag sein dass bei professioneller Server-Hardware ESX(i) gut läuft, aber wer hat hier im (HOME) Server / Workstation Forum schon die absolute Server-HW?

Für mich muss der PC schnell, günstig, sparsam und leise sein.
Von diesen Eigenschaften kann man bei den meisten Server gleich streichen.

Das hat doch nix mit Fanboy oder sowas zu tun... Fakt ist einfach mal. Der ESX ist im richtigen Umfeld von der Funktionalität und von der Bedienweise sehr gut aufgestellt.
Wenn man aus eigenem Interesse am Unterbau spart, muss man ggf. damit leben hier und da Abstriche zu machen. Auch sollte man bedenken, das das Produkt kostenfrei nutzbar ist.

Klar gerade bei Linux im OpenSource Bereich gibts sowas auch des öfteren, aber wir reden hier über Produkte mit fast vollem Funktionsumfang ohne frickellei oder bastellei.

Das wäre wie wenn MS seine Officeprodukte für den Homeuser kostenfrei anbieten würde und beispielsweise sagen wir den Serienbriefassistenten im Word entfernt, weil man den für gewöhnlich im Homegebrauch nicht brauch...


Zum Thema Hardware, es spricht ja niemand von Serverhardware, der ESXi läuft auf aktuellen Intel Plattformen auch in vollem Funktionsumfang und Speed. Einzig Raid Arrays kann man nur mit anständigem Controller nutzen... (ein Abstrich wie oben erwähnt)
Von schlechter Performance kann man da nicht wirklich sprechen...

Auch wenn ich mal glaube, das VMWare AMD gegenüber etwas stiefmütterlich steht, sprich AMD Platformen öfters das Nachsehen haben...


Und zum Thema Dateisystem, ist doch total Banane was man da drunter hat. Es interessieren doch sowieso nur die Containerfiles vom ESX. Der Rest wird unabhängig vom User gemanaged. Selbst wenn der User das Bedürfniss hat, da mal Zugriff zu haben, nimmt er halt den Datenexplorer vom VSphare Client oder nimmt Veeam FastSCP (auch kostenfrei) und kann mit den Files hantieren.
Für einen normalen Filesystem Zugriff sehe ich bei einem auf einzig Virtualisierung ausgelegten OS keine Notwendigkeit. Selbst im Prof. Umfeld nicht.
 
Wir sprechen eigentlich vom selben aber verstehen uns nich...

Ich sage ja, ESX(i) hat eine super Management Funktion.
Aber KVM ist nun einfach mal im HW-Support massiv überlegen.

Es ist halt einfach ein richtiges Linux der Host.
Ausserdem ist es umständlicher an die Containers zu kommen dank dem exotischen Dateisystem.

Ich habe wechsel-HDDs, und wollte so ein Container-File verschieben, aber ohen ESXi fehlanzeige.
Wenn mal ein Disaster-Recovery gemacht werden muss, kann man die Platte nicht einfach so an den nächsten PC hängen und die Images ziehen...
Ich weiss, das ist sehr kleinlich von mir, aber das ist ja der Nachteil.

Ausserdem hat AMD momentan die attraktivere Server-HW und die besseren Preise (da scheiden sich auch Geister aber BTW).
Da hat auch ESX(i) drauf gut zu laufen.

Ausserdem, probier doch Proxmox Linux mal aus!
Du musst kein einziges Programm auf nem anderen PC installieren.
Alles per Webgui machbar.
Alles was sehr wichtig ist jedenfalls.

Ich stimme dir zu, wenn man den ganze Management-Umfang von ESX(i) auch unter Linux+KVM nutzen möchte, ist einwenig Frickelei notwendig.

Aber es gibt mittlerweile auch ordentliche Management-Software, etwa LibVirt.
KVM ist halt auch noch relativ neu, daher muss man noch ab und an was basteln.

Kein Produkt (schon garnicht wenns Opensource ist) kommt über Nacht auf den Markt und bietet mehr Funktionen als ein schon laaange etabliertes Produkt
 
Im Firmenumfeld ist VMWare einfach Top und das nicht nicht ohne Grund. Sicherlich wird auch viel auf Xen gesetzt, besonders in RZ's vermute ich mal.

Aber es gibt halt auch Small and Midsized Business, hier ist Hyper-V und ESXi die sehr oft die passenste Lösung. Vor allem weil hier Windows ganz stark verbreitet ist.
 
Wir sprechen eigentlich vom selben aber verstehen uns nich...

Ich sage ja, ESX(i) hat eine super Management Funktion.
Aber KVM ist nun einfach mal im HW-Support massiv überlegen.

Es ist halt einfach ein richtiges Linux der Host.
Ausserdem ist es umständlicher an die Containers zu kommen dank dem exotischen Dateisystem.

Ich habe wechsel-HDDs, und wollte so ein Container-File verschieben, aber ohen ESXi fehlanzeige.
Wenn mal ein Disaster-Recovery gemacht werden muss, kann man die Platte nicht einfach so an den nächsten PC hängen und die Images ziehen...
Ich weiss, das ist sehr kleinlich von mir, aber das ist ja der Nachteil.

Ausserdem hat AMD momentan die attraktivere Server-HW und die besseren Preise (da scheiden sich auch Geister aber BTW).
Da hat auch ESX(i) drauf gut zu laufen.

Ausserdem, probier doch Proxmox Linux mal aus!
Du musst kein einziges Programm auf nem anderen PC installieren.
Alles per Webgui machbar.
Alles was sehr wichtig ist jedenfalls.

Ich stimme dir zu, wenn man den ganze Management-Umfang von ESX(i) auch unter Linux+KVM nutzen möchte, ist einwenig Frickelei notwendig.

Aber es gibt mittlerweile auch ordentliche Management-Software, etwa LibVirt.
KVM ist halt auch noch relativ neu, daher muss man noch ab und an was basteln.

Kein Produkt (schon garnicht wenns Opensource ist) kommt über Nacht auf den Markt und bietet mehr Funktionen als ein schon laaange etabliertes Produkt

Ich denke schon das ich verstehe was du meinst, nur sehe ich die Sache wohl ein wenig anders, weil ich eben weis, wie es im echten Firmenumfeld läuft... ;)

Zu den Containerfiles, wann musst du denn da mal ran? Sogut wie nie. Und wenn du mal ran musst, dann doch nur dann, wenn entweder der Host wegbrennt, oder das Storrage den geist aufgibt. In beiden fällen nutzt dir direkter Zugriff auf die Files aber auch nich wirklich was.

Wenn der Host wegbrennt, binde ich mein Storage an den neuen Host, dann mount ich die VMs neu und weiter gehts. Wenn das Storage weg brennt, dann muss ich sowieso aufs Backup zurück greifen.

Einzig, wenn ich vom einen aufs andere Storage portiere, aber wie gesagt, auch dafür gibts anständige Tools, die nichmal was kosten müssen...


Zu den AMD Server geschichten, ich denke mal man muss anerkennen, das der ESXi einfach trotz kostenfrei nicht primär für den Heimgebrauch gemacht ist. Im Firmenumfeld setzt man idR auf Fertiglösungen, da rennt dann auch der ESXi. Für HP Server gibts beispielsweise sogar irgendwelche Plugins im ESXi, um den Server noch weiter zu managen. Und da kommt auch AMD nicht zu kurz.
Im Privatbereich gut, da geb ich dir recht...
 
Naja, ich denke dass man auch EIhn Linux mit KVM mit den richtigen Tools einigermassen Firmentauglich machen kann.

Aber es ist mir bewusst, das im Firmenumfeld eine gebrauchsfertige Lösung her muss (meist) welche bereits funktionierende & ausgereifte Management-Software bereitstellt.
 
Ich frag mich gerade warum hier niemand den Citrix Xen Server empfiehlt, Management vom Citrix Xen Center und vsphere sind vergleichbar einfach und komfortabel.

Dazu ist das Linux unter Citrix Xen etwas leichter anzupassen.


Achso man sollte erwähnen das ein Grossteil vom Citrix Xen Server kostenlos erhältlich ist.
 
Nun habe ich dieses schönes Intel S3420GPLC + Xeon 3420 und die wollen einfach nicht mit den Kingston KVR1333D3D4R9S/4G RDIMM's. Das Board piept 3 mal und das war es. Ich habe gestern mit spät in die Nacht im Büro gesessen.... keine Chance. :kotz:

EDIT: inzwischen bin ich etwas schlauer, der Lynnfield Xeon kommt nur mit x8 DIMM's klar. Die Teile die ich gekauft habe sind x4. Mal sehen ob ich die bei Ebay los werde :)
 
Zuletzt bearbeitet:
Ich frag mich gerade warum hier niemand den Citrix Xen Server empfiehlt, Management vom Citrix Xen Center und vsphere sind vergleichbar einfach und komfortabel.

Dazu ist das Linux unter Citrix Xen etwas leichter anzupassen.


Achso man sollte erwähnen das ein Grossteil vom Citrix Xen Server kostenlos erhältlich ist.

Was mir damals beim Xen negativ aufgefallen ist, ist die fehlende Möglichkeit der VM während der Fahrt die HDDs zu vergrößern. ;)
Geht das mittlerweile?

Ansonsten hast aber recht, Xen ist nicht schlecht, auch wenn einiges immernoch nur via Komandozeile machbar ist...
 
Was mir damals beim Xen negativ aufgefallen ist, ist die fehlende Möglichkeit der VM während der Fahrt die HDDs zu vergrößern. ;)
Geht das mittlerweile?

Hab ich nie probiert. Bin ich wahrscheinlich zu vorsichtig für :p

Ansonsten hast aber recht, Xen ist nicht schlecht, auch wenn einiges immernoch nur via Komandozeile machbar ist...

Immernoch einfacher als einen ESXi zu modden um ihn mit Desktophardware am laufen zu haben.
( Und ich nutze selbst auch einen gemoddeten ESXi im Heimbetrieb als Server, also dagegen bin ich nicht )
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh