VMWare Server - ! Budget 2000-2500 Euro !

Also wenn es geht mehreremale PartyPoker zu starten , gerne.

Im Endeffekt willst du nur das gleiche Programm mehrfach ausführen, obwohl es dafür nicht gedacht ist, oder?!

Dafür brauchst du doch nur z.B. eine Art Sandbox und nicht gleich zig komplette VMs mit Overhead für jede Session Ende nie...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn es geht mehreremale PartyPoker zu starten , gerne.

Terminal Server ist doch 1 System wodrauf mehrere Konten drauf sind wo die Progs ausgeführt werden oder ?

wenn du nur bissel minen willst reicht nen dualcore +4gb dicke hin.

hab auf nem stromspar amd mit 2x2,4ghz, 4gb ram als host laeuft nen debian mit xen als vmaufsatz, 12vms + microxps belegen bei 12xpokerstars (1000-2000tables) 40% cpu last und knapp 3gb ram.
 
hm, kk, aber mit dem P5K-VM is schwer dranzukommen ^^ - hab mich selber schwer getan eins zu finden -> jetzt hab ich für meine beiden ESXi ja je eins ;)
 
Ich meinte damit auch nicht, dass er das unbedingt nehmen sollte - es ist halt nur der Nachfolger vom P5B-VM.
Also es war ja P5B -> P5K -> P5Q - daher meine P5K-VM bzw. P5Q-VM Vorschläge.
Andere Firmen haben natürlich ebenfalls gute Boards im Angebot (Gigabyte) und wenn man dann anstatt OnBoard Grafik eine günstige sparsame PCIe Graka einsteckt hat man noch mehr Auswahl ;)
 
wenn du nur bissel minen willst reicht nen dualcore +4gb dicke hin.

hab auf nem stromspar amd mit 2x2,4ghz, 4gb ram als host laeuft nen debian mit xen als vmaufsatz, 12vms + microxps belegen bei 12xpokerstars (1000-2000tables) 40% cpu last und knapp 3gb ram.

1000 bis 2000 tables pokerstars gleichzeitig OHNE Account ? Dass will ich sehen :-D

Der kollege hier der das haben will möchte 5-7 PokerPlattformen minen !
Mit je ca. 2000-3000 tischen (später)
 
Moin, erstmal kurz die wichtigsten Kommentare der Kollegas unterstreichen..

Bei so vielen VMs brauchste du nochmal richtiges Storage und nich so nen bisschen Spielkram von 5-7Platten.
VM ist Storageperformancefresser schlechthin.

in der regel geben ohnehin nur die IO diskperformance und die ramauslastung die anzahl der maximal sinnigen systeme vor und weniger die cpu auslastung.


"Mein Baby" läuft bei uns derzeit mit 19 virtuellen Maschinen. Die Performance ist nicht rasend schnell, aber in Ordnung.
Greift eine VM intensiv auf "ihre" Festplatte zu (z. B. Restart) ist klar, dass alle andern VMs die auch auf dieser Platte liegen Probleme bekommen. Nur Raid löst das, aber dazu benötigt es einen guten Controller der je nach Raidlevel einen schnellen Chip hat.

Das Sys ist so aufgebaut:
1x Nehalem Board
1x Xeon DP E5440
16 GB RAM
6x Single-Festplatten (17 VMs)
3x Festplatten in Raid5 (2 VMs)

Wir brauchen leider das Hostsystem (Debian) für diverse andre Jobs, daher kein ESXi.
Das Raid5 verträgt maximal ca. 6 VMs, da der Controller (3ware 9650SE-4LPML) keinen besonders schnellen Chip hat.

Die CPU-Auslastung ist bei etwas weniger als 25%

Die virtuellen Guests sind völlig unterschiedlich von den Performance-Anforderungen. Daher auch die Belegung der Festplatten unterschiedlich - eine hat 6 VMs, eine andre nur 3, aber beide sind ordentlich unter Dampf.
Dieses Problem hast du aber ja nicht.

Der RAM ist komplett in Benutzung, ich war vor einer Weile sogar gezwungen, Swapping zu aktivieren.. *mist* aber das liegt auch daran, dass einige VMs gleichmal 2 GB benötigen.



Das Fazit ist wie schon mehrfach angedeutet: Platten, Platten, Platten, Platten und RAM, RAM, RAM ..... oder SSDs .. ;)
 
nunja, als ich heut mal über den esx geschaut hab, weil nen kollege in der testumgebung probs mit seiner vista-vm hatte, da wurde mir ganz schlecht, braucht des drecks os doch glatt die gesamten zugeteilten RAM inkl. overhead und lastet die cpu aufs maximum aus - gut, nach der installation gleich mal dieses ganze unnütze gedöns von wegen indizierung ausgeschalten und schon wars ruhig.

insgesamt hat unser esx ne durchschnittliche plattentransferrate von ungefähr 50MB - beim startenden VM's mal mehr, aber dafür das des ganze an nem Fibrechannel dran hängt hätte ich doch mehr erwartet, aber solange rumgeidlet wird kein problem - unser filer in der arbeit ist eine FibreCat AX 100 -> mit vielen SATA-Platten aber nur softwareraid, trotzdem merkt man aber kaum einen performance verlust.

welches OS sich gut als iSCSI-Target anbietet weis ich nicht und kommt wohl auch auf die Hardware drauf an, aber auf meinem P4 mit 2.8 Ghz und seperaten Adaptec Controller mit 2 1TB platten im RAID 0 waren die ~ 15VM's auch performant über 1Gbit Kupfer kein problem. (immer objektiv was performant heist, aber diese VM's sind auf 2 ESX als Gameserver gelaufen)

ich denke das der ICH10R durchaus gute werte bringen kann, und es war ja auch nur ein vorschlag...

macht doch ihr mal zusammenstellungen in seinem budgetbereich...
 
macht doch ihr mal zusammenstellungen in seinem budgetbereich...
So spontan kann ich das hier anbieten: http://spreadsheets.google.com/ccc?key=pBJDrbG_oGHMOjYZFbosAfQ

Das ist jetzt zwar nicht auf VMs optimiert (fehlende Platten und RAM), aber da ist vom Budget her ja noch Luft.

Dummerweise lassen die Boards noch auf sich warten.. :wall:

---------- Beitrag hinzugefügt um 00:12 ---------- Vorheriger Beitrag war um 00:11 ----------

Ah, Kompatibilität zum ESXi is jetzt natürlich auch höchst unklar, da neue Gainestown-Plattform!
 
Das Sys ist so aufgebaut:
1x Nehalem Board
1x Xeon DP E5440
16 GB RAM
6x Single-Festplatten (17 VMs)
3x Festplatten in Raid5 (2 VMs)

die systeme die ich aufbaue bestehen aus:


ProLiant DL385 R5
2x Quad 2.1 AMD Opteron 2352
16GB
Systemplatte Raid 1 Verbund
Datenplatte für die VMs Raid 5
W2003 64bit

nach 10VMs mit Windows 2000/2003 ist hier definitv Feierabend. Bei Clients könnte ich mir aber ebenfalls eine Zahl von 15-20 VMs vorstellen, wenn man diese auf 512mb beschränkt.
 
"Mein Baby" läuft bei uns derzeit mit 19 virtuellen Maschinen. Die Performance ist nicht rasend schnell, aber in Ordnung.
Greift eine VM intensiv auf "ihre" Festplatte zu (z. B. Restart) ist klar, dass alle andern VMs die auch auf dieser Platte liegen Probleme bekommen. Nur Raid löst das, aber dazu benötigt es einen guten Controller der je nach Raidlevel einen schnellen Chip hat.

Neja ich sag mal so, in einem Raidverbund aus viele HDDs ändert sich an der Problematik mit der Zugriffszeit nix.
Gerade beim normalen Betrieb zählt nicht die maximale Übertragungsrate, sondern viel mehr die Zugriffszeit.
Ob du nun eine HDD, 2 oder 10 HDDs in einem Raid zusammen steckst, die Zugriffszeit bleibt gleich bzw. wird schlechter.

Greift nun eine VM massiv (beim Start zum Beispiel) auf die HDD zu, bzw. das Raid, werden alle HDDs im Raid voll ausgelastet. Die Zugriffszeit kannst sozusagen mit der Anzahl der gleichzeitigen VMs multiplizieren.
Und das macht die Sache leider nicht besser ;)

SSDs dürften hier Abhilfe schaffen, da sehr geringe Zugriffszeit...
 
Das ist ja dann eine Dimensionierungsfrage. Was ich meinte ist, dass wenn mehrere VMs auf einer Festplatte liegen und eine VM macht einen Neustart, dann ist da für eine ziemlich lange Zeit die Performance der "Nachbarn" auch am Arsch (Dauer des Neustarts).

Das sollte bei einem schnellen Raid-Controller nicht so stark zum Tragen kommen weil über Diesen der Neustart der betreffenden VM schneller gehen sollte. Auch parallele Requests anderer Guests sollten noch Platz finden, da ein Bootvorgang ja nicht 100%ig aus Festplattenzugriffen besteht.
Alles natürlich nur sofern er eben schnell genug ist und über genügend Platten im Array verfügt. Trotzdem natürlich meinerseits nur theoretisch, da unser Controller, wie geschrieben, nicht zu der schnellen Sorte gehört.. ;)

Die Zugriffszeit sollte ja eher eine Rolle bei "normalen" Arbeiten innerhalb einer Guest-VM spielen, im Sinne von wie schnell reagiert das System.
 
Wir brauchen leider das Hostsystem (Debian) für diverse andre Jobs, daher kein ESXi.
Das Raid5 verträgt maximal ca. 6 VMs, da der Controller (3ware 9650SE-4LPML) keinen besonders schnellen Chip hat.

warum leider? Einen grossen Unterschied wirst du nicht merken. Mit was virtualisiert ihr den?

die systeme die ich aufbaue bestehen aus:


ProLiant DL385 R5
2x Quad 2.1 AMD Opteron 2352
16GB
Systemplatte Raid 1 Verbund
Datenplatte für die VMs Raid 5
W2003 64bit

nach 10VMs mit Windows 2000/2003 ist hier definitv Feierabend. Bei Clients könnte ich mir aber ebenfalls eine Zahl von 15-20 VMs vorstellen, wenn man diese auf 512mb beschränkt.

Feierabend? Was soll man darunter verstehen? Von den CPU Auslastung sollte das kein Problem sein und locker noch mehr gehen. Wird bestimmt, wie immer, am Storage liegen.

Thema Raid:

auch ein Raid kein ist kein Allwundermittel und schon alleine nicht im gleichen System. Deswegen sollte man ja immer schön ein Shared Storage nehmen. Ich würde, gerade im produktiven Bereich, immer ein Shared Storage nehmen und nur für kleine Test Geschichten lokale Platten.
 
warum leider? Einen grossen Unterschied wirst du nicht merken.
Ja gut das weiß ich ja nicht genau .. hast du das mal mit der gleichen Maschine und hinreichend Auslastung getestet?

Ich hatte bisher eben immer angenommen, der ESXi wäre effizienter durch spezielle Treiber und keiner Overhead-Systemteile, etc.

Mit was virtualisiert ihr den?
Derzeit mit VMware Server 1.irgendwas, geplant ist aber das Ugrade auf VMware Server 2.
Dazu muss die zweite Mühle aber erstmal laufen, um VMs abschieben zu können.. :d

Deswegen sollte man ja immer schön ein Shared Storage nehmen. Ich würde, gerade im produktiven Bereich, immer ein Shared Storage nehmen und nur für kleine Test Geschichten lokale Platten.
Warum sollte das per se intern langsamer sein? Wenn man die interne Hardware extern angebundenem Storage angleicht sollte da doch kein Unterschied bestehen?
Oft ist es halt so, dass Kompromisse z. B. beim internen Raid-Controller gemacht werden, da "eine Kiste" (inkl. Storage) nicht soviel Budget bekommt wie "zwei Kisten" (Storage separat)... :d
 
Ja gut das weiß ich ja nicht genau .. hast du das mal mit der gleichen Maschine und hinreichend Auslastung getestet?

Ich hatte bisher eben immer angenommen, der ESXi wäre effizienter durch spezielle Treiber und keiner Overhead-Systemteile, etc.


Derzeit mit VMware Server 1.irgendwas, geplant ist aber das Ugrade auf VMware Server 2.
Dazu muss die zweite Mühle aber erstmal laufen, um VMs abschieben zu können.. :d

ok, dann nehm ich alles zurück ;) Solltet ihr mal auf ESXi / XEN / KVM etc umsteigen dann merkt ihr einen Unterschied.
Aber warum hab ihr das überhaupt mit VMware Server am laufen, wenn ihr Debian als OS habt? Das macht, finde ich, keinen Sinn, wenn XEN / KVM zur Verfügung stehen
 
Zuletzt bearbeitet:
Ohne das jetzt gegoogelt zu haben (Schande über mein Haupt), nehme ich mal an, dass die VMware-Machines nicht ohne weiteres in XEN oder KVM laufen werden.
Konvertierung - sollte das gehen - ist auch keine Lösung, da die virtuellen Systeme im VMware-Format bleiben müssen. Das ist bei uns eben das Standard-Virtualisierungsformat .. nicht nur die Kollegen arbeiten z. B. mit VMware Workstation (und da müssen dann halt mal Maschinen zu denen kopiert werden, oder wir bekommen Maschinen von denen die auf dem Host aktiviert werden sollen), auch weitere Server in unserm Hauptsitz in Berlin sind z. B. VMware ESX...

Oder kurz gesagt: das ist keine Insellösung. ;)
 
Feierabend? Was soll man darunter verstehen? Von den CPU Auslastung sollte das kein Problem sein und locker noch mehr gehen. Wird bestimmt, wie immer, am Storage liegen.
die cpus spielen sich an den füßen...die haben praktisch nichts zu tun, es sei denn, auf den gästen wären rechenintensive applikationen gefahren. nein.... mit feierabend meine ich, dass dann eine speicherauslastung von knapp 13gb ram erreicht wird. darüber gehe ich nicht, denn dann müsste ich ggf. das swapping auf dem host anschalten und dann wirds wirklich träge. desweiteren sind dann auch die io zugriffe so zahlreich, dass auch dann die mit extraviel ram bestückte hp smart array p400 controllerkarte ins schwitzen kommt.
 
Das ist ja dann eine Dimensionierungsfrage. Was ich meinte ist, dass wenn mehrere VMs auf einer Festplatte liegen und eine VM macht einen Neustart, dann ist da für eine ziemlich lange Zeit die Performance der "Nachbarn" auch am Arsch (Dauer des Neustarts).

Das sollte bei einem schnellen Raid-Controller nicht so stark zum Tragen kommen weil über Diesen der Neustart der betreffenden VM schneller gehen sollte. Auch parallele Requests anderer Guests sollten noch Platz finden, da ein Bootvorgang ja nicht 100%ig aus Festplattenzugriffen besteht.
Alles natürlich nur sofern er eben schnell genug ist und über genügend Platten im Array verfügt. Trotzdem natürlich meinerseits nur theoretisch, da unser Controller, wie geschrieben, nicht zu der schnellen Sorte gehört.. ;)

Die Zugriffszeit sollte ja eher eine Rolle bei "normalen" Arbeiten innerhalb einer Guest-VM spielen, im Sinne von wie schnell reagiert das System.

Nein du irrst...
Guck dich mal im HDD Forum um, was dort zum Thema Raid 0 vs. SingleHDD vs. SSD gerade beim Betriebssystemboot zu finden ist...

Das gleiche spiegelt sich analog bei allen Raidleveln ab, weil wie gesagt die Zugriffszeit nicht kleiner wird.

Rechenbeispiel von HisN hier ausm Forum
HisN schrieb:
Du startest Windows, dabei müssen etwa 1000 Dateien mit einer durchschnittlichen Größe von 32kb geladen werden.

1000 Kopfbewegungen a 12ms = 12 Sekunden
1000 x 32KB laden bei einer Dauertransferrate von 64MB/sec = 0,5 Sekunden

Und jetzt Raid0

1000 Kopfbewegungen a 12ms = 12 Sekunden
1000 x 32kb laden (in 2x16kb-Häppchen wenn man die Stripsitze klein genug eingestellt hat, was wohl der Casual-User auch nicht schafft). 0,25 Sekunden.


Wie man schön sehen kann, beschleunigt doppelte Transferrate nur minimalst, also ob das Raidarray nun 200MB/sec oder 2000MB/sec schafft, ergibt nur einen minimalen Unterschied.
Problem stellt die Zugriffszeit dar, weil diese die Zeit der Kopfbewegung angibt.
Bei zwei gleichzeitigen Boots vom selben Medium/Array müssen die Kopfe annähernd doppelt so oft bewegt werden, sprich die Zeit wird sich annähernd verdoppeln.

Gut bei 15k Server HDDs hast idR deutlich weniger als 12ms an Zugriffszeit, aber dennoch, das Problem bleibt weiterhin bestehen ;)
 
@fdsonne
Hmm .. ich glaube ich sehe langsam den Punkt ... aber ich muss mir das noch bisschen durch die Synapsen wandern lassen.. :fresse:

@Sukrim
Jau, bei meiner Planung ist nur eine CPU dimensioniert, sowie auch nur die dazu passende RAM-Bestückung auf einer Hälfte der RAM-Slots.
Dies deswegen, weil ich derzeit noch nicht mehr CPU-Power brauche. Die Aufrüstmöglichkeiten für in ein paar Jahren ist dann jedoch exzellent - im Gegensatz zu meinem bisherigen "Server" auf P4-Basis, der jetzt eben schon mit der schnellsten Heißsporn-CPU dieser Klasse vor sich hinschwitzt.. :d (ich sag nur 82° C Peak!! :fresse: )

---------- Beitrag hinzugefügt um 19:37 ---------- Vorheriger Beitrag war um 19:32 ----------

Ach wegen der SSD, sowas brauche ich für den Server nicht ... das würde nur für den VM-Einsatz spannend werden, aber primär habe ich permanent sowieso nur eine laufen (virtuelle Servermaschine), sowie ein zwei mal zusätzlich für irgendwelche Tests - meine "Working VMs" habe ich auf meinem Client-PC laufen.
Auf diesem habe ich auch schon eine SSD im Einsatz (die rennt so genial kann ich nur sagen!) und mein HTPC z. B. habe ich gestern ebenso um eine SSD aufgerüstet => dort macht das derzeit noch viel mehr Sinn. ;)
 
Moin zusammen,

auch wenn ich die Tipps die ich hier lese doch recht angenehm finde denke ich dass die Sache eine neverending Story wird.
Man wird immer etwas verbessern können... wenn ich schon etwas über Lizenz und "Abkommen" lese was dann noch geheim ist... dann wird es nichts seriöses sein.

Irgendwann kam mal einer in unseren Laden und wollte sich über ein Webhosting auf irgendeiner Takatuka-Insel informieren um darüber dann Viagra zu verkaufen...

Wenn ihr etwas professionelles machen wollt und nichts zu verbergen habt, dann wendet euch doch mal an einen IT Dienstleister. Der hilft euch sicherlich... wir sind nicht böse.
Aber bei allem Anderen wo man ne schnelle Mark verdeinen kann, würde ich die Finger davon lassen... auch in deinem Interesse... in diesem Sinne alles Gute.

Daenni
 
Hast du das jetzt in den falschen Thread geposted?

Oder ists dir egal, dass es völlig am Thema vorbei geht?

Oder hab ich was verpasst? :hmm:
 
Ich würd nen HP DLXXX hinstellen mit nem Raid von 6 Platten (Intern) 512MB Speicher (Controller)
16 GB / 24 GB Speicher und nen ESXi draufmachen.

*g* Grüße Ben
 
Wie bereits mehrfach erwähnt wurde, ist hier ein verteiltes System aus Desktophardware wohl die wesentlich bessere Wahl:

Vorteile:
- Preisgünstig (~230€ für einen Phenom 9550, 4GB Speicher und all inkl.)
- Lerneffekt
- Skalierbarkeit (neuen Rechner ins Netz, PXE Boot an, ESX/XEN/KVM OS booten, VMs booten)

Nachteile:
- Arbeit
- Stromkosten
- """Zuverlässigkeit"""
 
Zuletzt bearbeitet:
Wie bereits mehrfach erwähnt wurde, ist hier ein verteiltes System aus Desktophardware wohl die wesentlich bessere Wahl:

Vorteile:
- Preisgünstig (~230€ für einen Phenom 9550, 4GB Speicher und all inkl.)
- Lerneffekt
- Skalierbarkeit (neuen Rechner ins Netz, PXE Boot an, ESX/XEN/KVM OS booten, VMs booten)

Nachteile:
- Arbeit
- Stromkosten
- """Zuverlässigkeit"""



Dadran hatte ich auchschon gedacht ...
@All das Projekt läuft noch ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh