ESX / ESXi - Hilfethread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Netzwerkdiagramm bitte.

Bekommst du. Aber zwischenzeitlich hab ich gemerkt, dass das Problem auch ohne VPN Auftritt. Also lassen wir das jetzt erst mal außen vor.

Hauptstandort-------------------------------------------------Zweigstelle

vCenter --> Switch --> Router --> Internet --> Router --> Switch --> ESXi

Da ich inzwischen wieder am Hauptstandort bin, hab ich mich testweise mal mit dem vSphere Client direkt auf den betroffenen ESXi geschaltet, und das klappt ohne irgendwelche Probleme oder Abbrüche. Den vCenter Server hab ich auch grade mal neu gestartet, hat aber leider nichts gebracht :(
Interessanter Weise schmeißt der mir den ESXi auch dann raus, wenn ich grade die Konsole einer VM offen habe und was mache (und dabei sehe, dass auf dem Router der Zweigstelle kontinuierlich Daten vom ESXi übertragen werden)

Ich hab irgendwie das Gefühl, als ob das vCenter alle ESXi's alle paar Sec anpingt und sobald die Round Trip Time einen gewissen Wert überschreitet (anscheinend reichen die 40-50ms da schon) wird der Host gekickt :mad:
 
mal ne fragen zwischendurch... da ich meinen lsi im esxi nicht sehe habe ich vorhin einen neue festplatte zu einem raid5 im Webbios des controllers hinzugefügt. der rebuild dauert jetzt natürlich ewig. kann ich den pc einfach neu starten und den esxi bootten? macht er dann automatisch weiter?
 
Bei meinem Perc 5/i Raid10 ging das ohne Probleme. Allerdings hab die neue Platte direkt im Kontrolle BIOS hinzugefügt. ESXi danach neu gestartet und der Rebuild lief ganz normal.
 
Klar wär ich da auch vorsichtig, im schlimmsten Fall musst du den Rebuild halt ohne ESXi überstehen. Wenn du auf den gerade nicht angewiesen bist, warte ab bis das R5 fertig ist.

Ansonsten, no risk no fun ;) Hast du ein aktuelles Backup?
 
@Steggi
so ähnliches hatten wir auch schon... Wichtig ist, es darf kein NAT zwischen vCenter und ESXi sein, das führt zu Problemen. Sprich der Traffic muss geroutet sein. Optimalerweise sollten sich die Hosts sowie das vCenter direkt sehen. Des weiteren brauchst du ein paar Kommunikationsports. Zumindest TCP/UDP 902, HTTS, HTTP und irgend ein 9000er Port waren wichtig für den reinen Verwaltungsaufwand.
DNS sollte im übrigen auch gehen, muss aber glaube ich nicht zwingend. Es sei denn, du hängst den Host via DNS Namen ins vCenter, anstatt direkt über die IP.

Ich kann dir aber versichern, das 40-50ms kein Problem sind ;) wir haben Hosts sehen, welche mit ~300ms angebunden sind. Das geht schmerzfrei, das Arbeiten wird nur etwas träge, aber geht.

optimalerweise hängst du dich mal mit nem Sniffer direkt an die Router (Hauptstandort sowie Zweigstelle) und guckst was dort für ein Traffic zwischen vCenter und Host stattfindet. Alternativ geht auch ne Loggingrule in der lokalen Firewall, welche dir die geblockten Ports aufzeigt, die du dann aufmachen musst.

vCenter Appliance nicht gut?

Kann die Appliance geclustert werden?
Und geht mittlerweile der Updatemanager in der Appliance?
 
vielen dank! ich habs einfach probiert... aber unterirdisch langsam ist ja gar kein ausdruck. mich wundert aber, dass sogar der raid10 verbund aus den ssds auch so langsam ist. ist der controller druch den rebuild so extrem beansprucht?
 
Der rechnet ja beim Raid 5 alles immer wieder gegen, sprich ja keinen Fehler einbauen sozusagen. So als ob du dich extrem konzentrieren sollst. Kein Wunder das man da langsam wird.
Deshalb raten Leute wie Mete, DunklerRabe etc. auch ein neues Array zu erstellen und das von nem Backup zu befüllen.
Aber das ist ja bekanntlich einfacher gesagt als getan.

Versteh Ich das richtig, das du neben dem Raid 5 noch ein 10er an dem Controller hast? War das bei dir nicht auch ein Perc 5/i ? Wenn ja dürfte der mit dem Rebuild gut zu tun haben und deswegen ist das 10er so lahm.
 
ne ist ein lsi 9266 8i. ist jetzt fertig und rennt wieder... aber der hat nur die festplatte hinzugefügt, wenn ich nu auch mehr speicher will, muss das ding nochmal durchlaufen :d! Demnächst werden wohl 4 neue 3tb platten angeschafft dann erstelle ich aber ein neues array. evtl. sogar parallel und ziehe es vom alten rüber. vms brauche ich dazu ja nicht. einfach datastore verschieben.

Hab heut en bissel die Firma lahmgelegt :d! war heute aber halb so wild. Als ich heute abend wieder im Büro arbeiten wollte ging wieder alles :)!

Aber echt nervig, dass der lsi sich unter dem esxi nicht verwalten lässt. irgendwie mag er da was nicht.
 
da gibts bestimmt auch was. Wir nutzen hier Fujitsu Geräte mit LSI Controllern aber Fujitsu Lable... und da gibts ne Software die sowas kann. Auf dem ESXi läuft ein Agent der genau das kann... vllt läuft das gar mit org. LSI Hardware? Das Tool heißt ServerView Raidmanager und kann von Fujitsu geladen werden. Der Agent scheint direkt von LSI zu sein. zumindest vom Namen her schaut das so aus...
 
Also ich hatte meine LSI auch im ESXi mit dem Megaraid Storage Manager verwaltet, aber die Version ist entscheidend. Mit einer Version gings nur von meiner Workstation aus weil da auch ein LSI drin ist, ansonsten hat er im Netz keine Server gefunden zum verwalten (vom Notebook und einer VM aus) - es gibt eine 11er Version die funktioniert, aber die genaue Versionsnummer hab ich auch nicht mehr im Kopf...
 
der 9260 steht ledier auch offiziell in der hcl. ich sehe den controller zwar unter den speicheradapter, aber sehe keinen gesundheitsstatus im sphere client. ich glaube solange er nichtmal direkt im esxi angezeigt wird kann man ihn auch nicht mit dem megaraid storage manager verwalten oder könnte das trotzdem gehen?
 
Das könnte trotzdem gehen (ohne addon hab ich beim 9260 auch keine Daten gesehen) - das Remote mgmt ist im esxi eingebaut imho
 
Hallo

Ich habe auf meinem ESXi 5.1 eine WHS2011-VM mit, per PCI Passtrough eingebundenem, LSI 9211-4i HBA.
Neuerdings wird dieser aber bei einem Kaltstart nicht mehr eingebunden, erst nach einem erneutem Neustart ist er wieder da.
Kennt jemand dieses Problem ? Alles rumprobieren nützte bisher nichts.

Ich hatte am Anfang noch ein zweites PCI-Device, genauer gesagt eine Netzwerkkarte, eingebunden, welche ich später wieder entfernte. Jetzt weiss ich nicht ob es an dem liegt. Hat jemand eine Idee wie dies zu beheben ist ?
 
Zuletzt bearbeitet:
grad nochmal mit der aktuellsten version versucht, funktioniert nicht... er findet die ip vom esxi nicht, nur die windows vm. aber hier läd er einfach nur ewig.

werd mal versuchen ne 11er version zu installieren.

edit: hab jetzt zwei 11er versionen gefunden, funktioniert mit keiner :(!
 
Zuletzt bearbeitet:
Ich verwalte minen Perc 5/i mit der MSM Version 12.05.03.00.
Allerdings geht das komischerweise nur unter nem WHS v1 (Server 2003), nicht unter WHS v2 (server 2008R2). Beide liegen direkt auf dem ESXi. LDAP Zugang hilft nicht beim Server 2k8.
Von ner lokalen Win7 Maschine funktioniert das auch nicht.

Hier mal ein paar Bilder.

Config.jpg

LSi ESXi.jpg

MSM 2k8.jpg

MSM.jpg
 
hmm ok. bisher hab ich nur whs 2011 probiert... vll. pack ich heute abend mal whs v1 drauf. wäre natürlich schon einmal ein anfang :d! Jetzt muss ich nur noch die installations-cd und denkey finden. :d
siehst du im clientmenü (esxi) unter "konfiguration" --> "systemstatus" den controller mit den einzelnen festplatten?
 
Ich glaube ja, bin aber nicht ganz sicher Kann morgen früh nochmal nen Screen von machen wenn du willst.

Edit: Sehe nur den Controller, keinerlei nähere Sachen zu Platten oder BBU. Das ging aber, bin ich mir sicher. hab den ESXi nur gerade gepatcht, muss eigentlich damit zusammen hängen.
 
Zuletzt bearbeitet:
Hey Leute,

ich hab da ne Frage: Im Moment hab ich einen ESXi v4.1 am Laufen, auf Xeon 1280 + 16GB. Das Host-OS liegt zusammen mit dem Datastore für VMs auf einem Raid1 aus zwei 320GB Notebookplatten.
Eine VM ist 2008R2 + Exchange, die andre 2008R2 als Fileserver. Letzterer hat einen LSI 9261-8i per Passthrough durchgereicht bekommen.

Das Raid1 für den Datastore wird über einen Wechselrahmen gebildet, der am Onboard-Sata hängt. Zusammen mit den Notebookplatten ist das natürlich ziemlich lahm, war eigentlich nur als Provisorium gedacht.
Aber so ists mit den Provisorien, die halten am Längsten :d

Auf jeden Fall geht mir die lahme Performance ziemlich aufn Zeiger, deswegen hab ich 2x 500GB SAS gekauft. Die Frage ist nun:

Brauch ich zwingend einen zweiten SAS/Raidcontroller, oder kann ich das auch mit dem einzigen vorhanden machen? Dort angeschlossen sind im Moment 4x 2TB Samsung F4 für den Fileserver.
Onboard-Raid fällt aus, das ist klar. Aber kann ich nicht am Controller zwei Arrays einrichten, und nur eins davon für Passthrough konfigurieren? Oder ich spar mir Passthrough, wie schauts atm mit der 2TB Grenze aus, die der 4.1er ja noch hatte?
 
Du hast nicht das Array als Passthrough configuriert, sondern den Controller. Damit verschwindet er für den ESX Server und er ist nur noch für eine VM nutzbar. Daher kannst du dir das schenken mit dem aktuellen Controller.

1. 2. Controller (was ich machen würde)
2. HDDs einzeln betreiben und dann SoftwareRAID (oder ZFS...) machen

Ich glaube mich zu erinnern, dass der 5er zwar größere Arrays kann, aber die VHD weiterhin bei 2TB steht, das bringt dir also nix.
 
Mhm, so dachte ich mir das schon. Ich hoffe nur der LSI 8308 taugt als Controller für die zwei VMs, die dann auf 2x 500GB SAS liegen.

Edit: Alternativ heb ich das Passthrough auf, und erstelle mehrere 2TB VHD Dateien. Die weise ich dann dem 2008R2 Gast-OS zu und mach ein übergreifendes Volume. Pfusch², aber würde wohl gehen...
 
Zuletzt bearbeitet:
Bringt die irgendwelche Nachteile mit sich? *kopfkratz*
Ich kann den Controller nicht mehr bedienen, oder? Das kann ja nur das OS, zu dem er gehört.
 
@PhreakShow
was sind es denn für 500GB SAS Platten?

Weil ich mein, 500GB ist eine Größe, welche idR für 7,2k Platten verwendet wird. Schnellere 10k oder 15k Platten gibts idR mit 300 oder 600GB.

Was ich damit sagen will, der Speedvorteil wird gegenüber deinen aktuellen Platten wohl ziemlich gering sein. Je nachdem, wie fix dieser Raid Wechselrahmen ist und was die aktuellen Platten überhaupt schaffen kommst du da mit den 500GB SAS Platten nicht wirklich weiter. Denn das was durch die Schnittstelle passt, ist eigentlich ziemlich uninteressant, das was die Platte selbst packt, ist wichtig. Und da sind idR 7,2k SAS Platten absolut identisch mit den 7,2k SATA Boliden.
 
Das sind 3,5" 7200rpm Seagate Constellation ES. Verbaut sind 2,5" Notebookplatten.
 
Aber mal ehrlich. 15k SAS oder SSDs machen da ne weitaus bessere Figure.

Schneller als die NB HDDs werdens schon sein, aber erhoffe dir mal nicht zu viel.

(ich bekomme hier sogar ne Crucial m4 an die Kotzgrenze ausgereizt, ne "standard"HDD bietet dir ggf. nicht soviel Vorteil wie du dir erhoffst)
Unter diesem Stern hätte es auch jede SATA HDD getan.
 
Ich brauch mind. 320GB für die beiden VMs, aber eher mehr. Der Exchange braucht halt Platz. Redundanz will ich auch, hab keine Lust auf Downzeiten wenn eine SSD/HDD mal die Hufe hochreißt.
Für zwei SSDs >320GB wirds ganz schön teuer.

Wenn ich auf 3,5" wechsel, dann brauch ich einen zusätzlichen Raidcontroller. Und wenn ich den eh schon einbauen muss, kann ich auch gleich SAS nehmen (sind mir grad so übern Weg gelaufen).
15k wären natürlich das Optimum, muss ich gucken ob ich die günstig mal finde ;)

Den Umzug würde ich am liebsten mit dd veranstalten, aber ich weiß nicht ob das hinhaut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh