VMware Verständnisfrage

ah okay... habs nun verstanden, mache mir dazu nochmal ordentlich gedanken und melde mich Morgen nochmal dazu.

thx soweit erstmal!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wichtig ist, so wenig Last wie möglich auf einem einzelnen Storage oder eben richtiges Storage.
Und wenn das Host nix weiter macht als zu hosten und eben den FTP zu machen, hast du erstmal wenig last durchs System und überwiegend Last durch sequentielle Transfers des FTPs, damit hast du also auf dem Storage noch Platz für etwas weiteres. (1VM)

Und mit den 2 weiteren VMs auf dem anderen Array bist du besser bedient als wenn diese zusammen mit dem Host und VM1 auf den Raptors liegen.
 
Die von underclocker vorgeschlagene Aufteilung ist auf jeden Fall das beste aus vier Platten.

Wenn du allerdings sparen willst, stellt sich die Frage wie und wann die VMs die Festplattenleistung benötigen.

Das hängt dann von den genauen Use Cases ab. Wie wird mit den virtuellen Systemen tagsüber genau gearbeitet? Werden viel Anwendungen geöffnet/geschlossen oder lediglich mit immer offenen Anwendungen gearbeitet? Sind die Systeme Einzelarbeitsplatzsysteme oder gemeinsam genutzte Systeme? Wann werden sie hoch- und wann heruntergefahren? Automatisiert oder manuell?

Der Best Case wäre z. B.:
alle VMs werden morgends um x Uhr automatisch hochgefahren, per Startup die notwendigen Anwendungen geladen, diese bleiben immer offen und nur in diesen wird gearbeitet und es sind auch nur kleine Bewegungsdaten die gespeichert werden. Abends wird auch automatisch heruntergefahren.
=> dafür benötigts dann auf keinen Fall viel Leistung, da würde ein Raid für alle reichen .. die brauchen dann zwar ein gutes Stück bis die alle gut gestartet sind aber das lässt sich ja timen - zur Laufzeit brauchen die kaum Festplattenleistung, wenn nur mit der offenen Anwendung (aus dem RAM) gearbeitet wird.

Worst Case:
Vor jedem virtuellen System sitzt ein MA der viele unterschiedliche Anwendungen benötigt und nach dem Start jeder Anwendung geduldig davor sitzt und wartet bis sie geöffnet ist. Auch manuelle Virenscans und diverse manuelle Neustarts machen die MA gerne und häufig. Die Bewegungsdaten sind riesig (Grafik, Video, Whatever) und werden permanent modifiziert.
=> Für diesen (natürlich überspitzten Use Case) wäre auch die physikalische Trennung jedes einzelnen virtuellen Systems voneinander sehr sinnvoll, denn: macht eine VM einen Neustart beeinträchtigt das immer alle anderen Maschinen die auf dem gleichen physikalischen Speicher sitzen (und diesen zeitgleich und wenn nur für kleine Aufgaben benötigen).
 
Das hängt dann von den genauen Use Cases ab. Wie wird mit den virtuellen Systemen tagsüber genau gearbeitet?

Jeden Tag in der Woche zwischen 10 Uhr und 19 Uhr

Werden viel Anwendungen geöffnet/geschlossen oder lediglich mit immer offenen Anwendungen gearbeitet?

Eine Buchhaltung wird einmal am Tag gestartet, und sonst werden öfters Browser Tabs geöffnet und geschloßen. Die Systeme werden u.A. viel für Internet Recherche genutzt. Aufwändige Grafikprogramme etc.. werde nicht genutzt. Höchstens mal den Windows Image Viewer zur Bilder-Selektierung.

Sind die Systeme Einzelarbeitsplatzsysteme oder gemeinsam genutzte Systeme? Wann werden sie hoch- und wann heruntergefahren? Automatisiert oder manuell?

Einzelarbeitsplatzsysteme, worauf zwei verschieden User Zugriff haben sollen.
Eigentlich war es so gedacht dass sie immer laufen, und über einen Thin Client auf sie zugegriffen wird.

Der Best Case wäre z. B.:
alle VMs werden morgends um x Uhr automatisch hochgefahren, per Startup die notwendigen Anwendungen geladen, diese bleiben immer offen und nur in diesen wird gearbeitet und es sind auch nur kleine Bewegungsdaten die gespeichert werden. Abends wird auch automatisch heruntergefahren.
=> dafür benötigts dann auf keinen Fall viel Leistung, da würde ein Raid für alle reichen .. die brauchen dann zwar ein gutes Stück bis die alle gut gestartet sind aber das lässt sich ja timen - zur Laufzeit brauchen die kaum Festplattenleistung, wenn nur mit der offenen Anwendung (aus dem RAM) gearbeitet wird.

Die Buchhaltung benötigt denk ich nicht allzuviel Leistung. Die Internet Tabs (Firefox!) sollten wirklich flüßig laufen über die Thin Clients.
Eventuell werden privat auch mal videos geguckt über youtube in den Mittagspausen, das sollte auch drin sein.

Worst Case:
Vor jedem virtuellen System sitzt ein MA der viele unterschiedliche Anwendungen benötigt und nach dem Start jeder Anwendung geduldig davor sitzt und wartet bis sie geöffnet ist. Auch manuelle Virenscans und diverse manuelle Neustarts machen die MA gerne und häufig. Die Bewegungsdaten sind riesig (Grafik, Video, Whatever) und werden permanent modifiziert.
=> Für diesen (natürlich überspitzten Use Case) wäre auch die physikalische Trennung jedes einzelnen virtuellen Systems voneinander sehr sinnvoll, denn: macht eine VM einen Neustart beeinträchtigt das immer alle anderen Maschinen die auf dem gleichen physikalischen Speicher sitzen (und diesen zeitgleich und wenn nur für kleine Aufgaben benötigen).

So anspruchsvoll bin ich nicht ;) Neustarts werden eher selten sein
 
Wie realisierst du das Datenshare für die VMs?

Ich würde das ganze nicht in die VM packen sondern auf dem 2008er Host Server einfach 3 Freigaben (oder wie viele auch immer) machen um den Usern dort Zugriff erzeilen.

Vorteil, du brauchst nicht den kompletten Platz vorher belegen und bist Flexibel wenns mal mehr werden sollte als die gedachten 100GB pro VM.
Weiterer Vorteil, die Daten liegen direkt auf der HDD und nicht in dem VM Container, was den Zugriff auf die Daten erleichtert und die Performance nochmals steigern sollte...



Achso und noch ne Sache, wie wird denn der User nun schlussendlich auf die VMs zugreifen?
Über RDP? Wenn ja, dann vergiss die Videowiedergabe ;) das geht imho darüber nicht wirklich brauchbar...
Ebenso ist das Surfen im Netz schon allein über RDP von einem zum anderen PC eher mühsam. Also richtig fluffig bekommst das nicht hin, das sag ich dir gleich...
 
Wie realisierst du das Datenshare für die VMs?

Ich würde das ganze nicht in die VM packen sondern auf dem 2008er Host Server einfach 3 Freigaben (oder wie viele auch immer) machen um den Usern dort Zugriff erzeilen.

Vorteil, du brauchst nicht den kompletten Platz vorher belegen und bist Flexibel wenns mal mehr werden sollte als die gedachten 100GB pro VM.
Weiterer Vorteil, die Daten liegen direkt auf der HDD und nicht in dem VM Container, was den Zugriff auf die Daten erleichtert und die Performance nochmals steigern sollte...



Achso und noch ne Sache, wie wird denn der User nun schlussendlich auf die VMs zugreifen?
Über RDP? Wenn ja, dann vergiss die Videowiedergabe ;) das geht imho darüber nicht wirklich brauchbar...
Ebenso ist das Surfen im Netz schon allein über RDP von einem zum anderen PC eher mühsam. Also richtig fluffig bekommst das nicht hin, das sag ich dir gleich...

Hatte ich genau so vor mit den freigaben, und dann als Netzlaufwerk.
Ja über RDP soll das passieren. Videofreigabe??

Hm, wenn das surfen nicht rund läuft, wäre das sehr schade.
Kann das aber noch nicht so richtig glaub dass das nicht läuft oder laufen würde.

Ich habe Testweise einen vmware Server aufgesetzt und mich mit meinem Notebook verbunden, darüber ging surfen eigentlich recht geschmeidig.
Müsste es mit einem ThinClient mit 1Ghz und 1GB RAM nicht auch flüßig laufen?



Habe ich allgemein eine alternative zu VMs und rdp? Terminal-Server?
 
Zuletzt bearbeitet:
OK, also bei dem Anwendungsprofil könnte man zwar wenn man geizig ist noch etwas knausern - aber die Aufteilung in die zwei Raids macht dann schon Sinn .. sonst passiert es nur allzu schnell, dass es träge wird.

Bzgl. flüssig arbeiten per RDP spielt natürlich auch das Netzwerk eine große Rolle. Wenn das Netzwerk gut ist, sollte das schon gehen - ist natürlich nie ganz so wie wenn man wirklich direkt an der lokalen Maschine sitzt.
Die fps von Videos kriegste da aber natürlich ned rüber.. ;)

Btw. .. was hast denn da für Tags vergeben rofl! *gg
 
hab die nicht selber vergeben... keine Ahnung wie die herkommen.

Ist der flaschenhals beim rdp dann die VM oder der Thin Client?
Mit meinem Notebook per rdp auf das VM ging ganz gut, und Videos konnt ich auch recht gut gucken ohne große Ruckler (youtube).
in einem 100Mbit Netzwerk über 2 Switche.

Hinterher wirds über ein Gigabit Netzwerk laufen, unmanaged.

Ich weiß, es kann niemand voraussagen ob das lüppt, aber eine Prognose ist schonmal stützend.

Ins Auge gefasst haben ich den hier:

HP t5730 Thin Client - AMD Sempron 1,0GHz - 1GB FD, 1GB
 
Zuletzt bearbeitet:
Youtube-Videos über RDP gingen bei dir ruckelfrei? Hmm .. das muss ich auch mal probieren... belasten sollte das weniger den Client (dessen VGA sollte es halt nur flüssig wiedergeben können), eher das Netzwerk und den Server (der den Videostream produzieren muss).
 
gerade nochmal probiert, und ist kein Problem.

Host System: Win Server 2008 Standard
Client: Notebook mit Windows XP Sp3
 
So, hab das grade mal getestet mit diesem Video: http://www.youtube.com/watch?v=rfR9ZlFCGpg

1.) Das Filmchen im normalen kleinen Fitzelfensterchen spielt tatsächlich ruckelfrei
2.) Wenn ich aber auf HQ stelle ists nicht mehr ruckelfrei
3.) Vollbild geht natürlich schonmal gleich garnicht


Also vom Prinzip her haste recht, aaaaaaber hast mal auf die CPU-Belastung geschaut?

Mein VMware Server 2 läuft auf einem 64 Bit Debian mit Quad Xeon Gainestown bei 2,2 GHz und da war die CPU schon ordentlich am Ackern:

1.) 60-70%
2.) 80-90%
3.) 60-90%

Diese Prozentwerte bezogen sich jeztt natürlich "nur" auf einen Kern. Allerdings ist damit klar, welcher Anwendungsfall die Skalierung der Server-CPU definiert! ;)


Meine Test-VM war nen Windows Server 2003 32 Bit ...
 
ja, ist ja nicht so dass 3 Clients gleichzeitig Videos gucken ;)

aber auch das Browsern im Internet gestaltet sich zumindest bei mir recht problemlos.
Bei dir etwa nicht?

Kannst jetzt sagen "gut, warum fragt der dann noch wenn bei ihm schon alles geht?"

Ich hab noch bedenken ob es mit dem Thin Client noch genau so ordentlich hinhaut später.... haben ja weiter oben schon gepostet, welcher es werden soll.

Finde leider nirgendwas Reviews, Test, oder Erfahrungsberichte.
Nichtmals eine Seite mit Thin Client Reviews.
 
Nunja, mehrere Antworten:
a) Durch kollegiale Gruppendynamik ist es schon oft so, dass wenn der eine sich mal ein Video o. Ä. anschaut, die Anderen dann nachziehen.. ;)
b) Die hohe CPU-Auslastung soll auch viel eher warnen dass dort ein Vorgang nahe am Limit läuft .. nicht trivial vorauszusehende Querwirkungen sind da nicht selten die Folge

Das ist auch genau das Stichwort fürs nächste Thema: das Browsen. Das funktioniert in der Tat wunderbar und kaum verzögert - aber nur wenn Server und Client optimal funktionieren, sprich ansonsten idlen und keinen CPU Hog-Prozess im Hintergrund in den Transistoren stecken haben.

Als Fazit für deinen Plan im Allgemeinen würde ich sagen: das funktioniert auf jeden Fall, allerdings nicht mit höchsten Ansprüchen und Video etc. würde ich eher nicht als Funktionierend kommunizieren (wenn die MA dann herausfinden dass das doch ein bisschen tut, dafür aber die Systeme mehr verzögern, dann fangen sie nicht an zu meckern sondern freuen sich trotzdem dass ihre Videos tun und nehmen die Verzögerungen in Kauf.. ;) )

Wie jetzt die Terminal Clients im Besonderen funktionieren ist ja kein VM-Thema. Die sollten so funktionieren wie sie in anderen Umgebungen auch tun..
 
Zuletzt bearbeitet:
okay... ein sehr umfangreiches Thema, womit man sich anscheinend den Kopf des öfteren mal zerbrechen kann. Ich danke soweit erstmal allen die mir geholfen haben in diesem Thread!

Ich denke falls ich noch Fragen zum Thema hab, bin ich hier gut aufgehoben. Sofern die Hardware da ist, werden solche sicher auftauchen ;)
zB was die Zuweisung des Arbeitsspeichers für die einzelnen VMs betrifft.
 
Ich habe zwar nicht alle Beiträge gelesen, aber @TE:

Wozu brauchst du denn Citrix oder konsorten?
Also für ne grosse Firma ists gut, und dann NUR wenn die zu geizig sind für echte Desktops.

Denn Citrix ist sehr eingeschränkt und teils Wartungsbedürfig.
Ich darf täglich für eine gut 500 Köpfige Firma hängen geblieben Citrix Sessions abschiessen. xD ^^

Und Programme gibts auch nur sehr begrenzt.
Ebenso die Leistung etc. im Vergleich zu nem heutigen Desktop-PC.

Da bist du mit Active-Directory, Images (zum schnellen installieren der PCs) und SCCM/WSUS (für die kontrollierten und Netzressourcen schonenden Updates) gut bedient.
So würde eine normale Firma die IT strukturieren.

Servergespeicherte Serverprofile etc. halt, dann kann sich jeder überall anmelden, udn hat sein Desktop etc. Und natürlich alle Daten in den Userhomes etc. auf einem Fileserver.
 
Zuletzt bearbeitet:
du hast die Posts nicht gelesen.

Ich hab nicht vor Citrix zu nutzen.

Es geht u.A. auch darum die Vorteile der Thin Clients zu nutzen.

lautlosigkeit, wenig Platzverbrauch, usw...
 
Wenn du von Thin Clients sprichst, dann sprichst du von Citrix UND KONSORTEN.

Also überhaupt die Idee dass das OS aufm Server läuft.
Solange du nicht ne Gross-Firma bis, ist das Blödsinnig.

Scheiss auf Lautstärke und co.

Kannst auch ne 4870 Passiv Kühlen und einen Core 2 Quad mit nem IFX-14 oder dem Nachfolger ausstatten.

Noch ne SSD und schon hast du ein unter 20 dBA System.

Das nur so wegen Leise etc.
Und die alte Thin Client HW, so ein Gerät braucht min. 40 Watt, ein normaler Desktop mit AMD Sempron etc. macht das genau so gut.

Denn das Citrix prinzip ist einfach nicht so toll.
Ich habe ja die ganze Zeit damit zu tun.

Sowas taugt nur, wenn ne grosse Firma hunderte von PCs braucht, aber alles bequem zentral verwalten will.
So sparen die sich dann Geld, ist billiger als 200-500 FAT Clients zu kaufen.

Und sowas taugt allerhöchstens fürs Büro, das macht dann aber auch ein Intel Atom System locker mit, und zwar mit lokal installiertem OS.
Zudem schneller.

Ich will dir nur gaaaaanz ernstgemeint sagen, es bringt dir wohl nix.
Falls ich mir irre, berichtige mich. Aber um 6 Seiten des Threads zu lesen, ists mir momentan zu heiss draussen.
 
Zuletzt bearbeitet:
okay... vielleicht ist es bei mir auch einfach nur die Lust darauf, etwas Neues zu probieren.
Aber okay... ich sehe es ein und werde mir mal eine Alternative überlegen.

Die Rechner sind elemantar wichtig und müssen immer redundant sein, daher hätte es sich angeboten. Jeden Rechner jetzt Neu auszustatten mit aktueller Hardware und nen Raid, ist wieder recht mühselig.

Ich werde nochmal ne Nacht drüber schlafen!

ganz so dringend ist es momentan wohl auch nicht.

Es hätte sich nur angeboten, da in der Firma als Datashare momentan nur eine externe LAN Festplatte vorhanden ist, und sowieso ein Update der Hardware / Rechner angedacht war.
 
Zuletzt bearbeitet:
Moin Moin - ich klink mich hier mal ein wie issen nun der Stand? Ich muss nochmal fragen was du genau machen willst. Server mit Clients und die Thin Clients für was genau?

Grüße Ben

@Gohst_oc
Was hast du denn für Prbleme mit deiner Farm - bezüglich den Sessions? Vlt kann ich dir ja helfen - bin selber Citrix Admin mit ner Farm von 15 Server und 700 Usern.
 
Nun, also ich supporte User auf einer 5 Server Farm, sind ca. 500 Stück (aber nie mehr als 350 eingeloggt).

Und dauernd kommt es vor, dass gewisse Applikationen (Vorallem Outlook CS4 und Office hängen).

Meist sind es Thin Clients, aber auch FAT Clients die zugang haben hängen ab und an.

Wiso weiss leider neimand.
Überlastet sind sie nicht.
 
Moin Moin - ich klink mich hier mal ein wie issen nun der Stand? Ich muss nochmal fragen was du genau machen willst. Server mit Clients und die Thin Clients für was genau?

Grüße Ben

Kurz und Knapp: ich möchte 3 VMs (Windows 7) auf einen Server packen, und dazu einen ftp Server. Das ganze soll auf einem Windows Server 2008 laufen und mittels Thin Clients auf die VMs zugegriffen werden.

Es wurde diskutiert darüber ob es

a) Sinn macht, vom lokalen OS wegzugehen auf eine zentralisierung mittels vmware
b) welche Hardware ich benötigen würde
c) über die Aufteilung der Raids
d) ob ein TerminalServer nicht mehr Sinn machen würde als vmware Desktops
 
a) NEIN, zu langsam. Auch bei gutem Netzwerk nicht optimal.
Wobei, kommt halt ein wenig drauf an. Bist aber mit günstigen PCs besser unterwegs. Wirklich.

B) 8 GB RAM (besser 16 GB). 4-8 Kerne (Xeon 5XXX, Opteron 23XX Shanghai).
Raid Controller (besser / nötig) für Parallelen Zugriff auf HDDs von mehrern OS aus.

Für 3 Clients echt unsinn. Zum ausprobieren lustig, das kannst du aber auch auf nem Gamer PC (oder sonst nem performantem PC).

Ein solcher Server den du dafür brauchst, kostet ne ganze Menge.
Aber! es gibt auch virtualisierung, die den Kernel nur einmal laden muss, um mehrere "Sessions" damit starten zu können.
 
Na also das stimmt ja nicht alles so!

CPU-Belastung ist bei "normalem" VMware-Guest-Betrieb das kleinste Problem - wir hatten zeitweise 20 VMs auf unserem Server laufen und der Quad-Xeon mit 2,6 GHz hat nur gelächelt... soviel dazu.

Dafür schwitzt aber das Raid5 mit drei Platten schon bei 3-4 VMs und zwar schwitzt das ganz schön! Das schwitzt so sehr, dass die Guests mehrsekündige Freezes bekommen.
Daher kann ich von Raid als Allesfresser für alle VM-Guests abraten - die Aufteilung in entweder die hier geplanten zwei Raid1'es ist sinnvoll.

Wir haben die VMs auf 4 oder 5 Einzelplatten verteilt, zzgl. das Raid5 und dann laufen die 20 VMs mehr schlecht als recht (das war ne absolute Worst Case Ausnahmesituation) - permanent aber ca. 14-17 ohne Probleme.

Wenn das Netzwerk i. O. ist und der Server so designt wie hier oben empfohlen, dann sollte das schon lüppen. Ob es bessere Alternativen gibt, kann natürlich sehr gut sein das will ich nicht bestreiten - der Ansatz den du im letzten Satz beschreibst klingt z. B. ziemlich interessant!

---------- Beitrag hinzugefügt um 20:41 ---------- Vorheriger Beitrag war um 20:38 ----------

//Edit: natürlich hat der RAid-Controller noch ein Wörtchen mitzureden - unserer ist zwar Hardware-Raid aber dessen Chip taktet nicht besonders schnell ... richtig gute schnelle teure Raid-Controller sollten so eine Belastung natürlich weitaus besser im Griff haben - hat hier im Forum auch mal irgendwo irgendwer gepostet ... ich kann nur noch aus dem Kopf raten er hatte irgendeinen Controller dessen Chip mit 3 GHz taktet - is klar das unsrer (mit weißnichmehr, irgendwas mit paar Hundert MHz) in einer ganz anderen LIga spielt)
 
so, die Kiste rennt jetzt, die Konfig ist wie folgt:

Intel Q8400 3,2GHz
8GB DDRIII RAM
2x 640 GB Raid1

Ich habe vor drei VMs zu erstellen, wie teile ich den RAM und Core je VM auf?
Gibts da etwas besonderes zu beachten?
 
Ist völlig latte, kommt ganz auf die VMs an.

1gig sollte aber schon drin sein zum Arbeiten. Besser 1,5GB. Da hast du dann noch 3,5 für den Host.

Bei den Cores, auch das ist egal, da VMware die Last so verteilt wie es passt.
 
Es wird allerdings empfohlen, keine virtuelle Maschine mit mehr als einem virtuellen Core/Prozessor auszustatten.

Weiß nix Genaueres darüber, aber das soll sonst eher hinderlich sein, da der VMware Host Process die Last schon gut auf die verfügbaren Cores aufteilt.
Quelle VMware Server Forum .. wo genau weiß ich jetzt nichtmehr...
 
so, die Kiste rennt jetzt, die Konfig ist wie folgt:

Intel Q8400 3,2GHz
8GB DDRIII RAM
2x 640 GB Raid1

Ich habe vor drei VMs zu erstellen, wie teile ich den RAM und Core je VM auf?
Gibts da etwas besonderes zu beachten?

Habe jetzt nicht alles durchgelesen aber welche der vielen hier vorgeschlagenen virtualisierungssoftware kommt jetzt zum Zuge?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh