ESX / ESXi - Hilfethread

@ xri12 - ja wir haben in der Arbeit NFS-Anbindung für einen Server, aber ohne LoadBalancing - aber was ist hier genau die Frage? Was für ein Storage nutzt Du denn? - bei uns stellt das eine NetApp FAS270C zur Verfügung (ja, nicht mehr das neueste, aber es tut)

Naja momentan noch kein Storage; es wird aber wahrscheinlich eine FAS2040.
Was ich mich bei NFS nur frage, ist wie ich da genügend Performance bereitstelle. Wenn ich 4Gbit-Ports auf beiden Seiten habe und Link-Aggregation einrichte, läuft doch mein NFS-Traffic trotzdem nur über eine Leitung mit 1Gbit. Also müsste ich für Loadbalancing ja mehrere NFS-Exports einrichten, die dann über verschiedene Leitungen gehen.

Bei FC kann ich ja verschiedene Pfade einrichten, aber bei NFS ka.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eben nicht!
NFS und iSCSI geben sich nicht viel, was der Test hier wieder zeigt:

Jumbo Frames Comparison Testing with IP Storage and vMotion » boche.net – VMware Virtualization Evangelist

Das sagt sogar Netapp die kürzlich bei uns im Haus waren!

Da die aktuelle Implementierung im ESX(i) "Load Based on IP Hash" pro Verbindung wie du schon erkannt hast nur 1 Interface nutzt, muss bzw. kann man etwas tricksen.

Trotzdem hier noch etwas Lesestoff:
IP-Hash versus LBT | frankdenneman.nl
The Great vSwitch Debate

Die schnellste Lösung sind mehrere vSwitches/Kernel Ports mit IPs und mehrere Datastores und die VMs aufteilen.
Und das reicht für kleine bis mittlere Umgebungen.
Man könnte noch bisel was rausholen indem man z.B. kein Thinprovisioning nutzt, sondern den Platz für schreibintensive VMs direkt reserviert.

Für die Performance beim klonen von VMs oder vMotion gibts ab Ontap 8.x das coole Feature, das solche Storage Operationen den Netapp nicht mehr verlassen und alles innerhalb des SAN/NAS passiert.
Dazu mehr auf now.netapp.com
Aber das ist eher für größere Umgebungen interessant, denke so oft macht von uns keiner vMotion bzw. rollt im Akkord VMs aus :)

Alternativ eine Enterprise Lizenz kaufen und LBT aufm Distributed vSwitch nutzen, oder den Nexsus 1000 in der Entersprise Plus :d
 
Zuletzt bearbeitet:
ok, dachte ein gb so wie ich, da gibts wohl probleme was man so sieht

bei mir gehts nun mit trick17



allerdings hab ich nun ein neues problem
von meinem raid5 (5,43gb) werden nur 1,41gb erkannt bzw. kann nur als datenspeicher und vm erstellt werden

jemand ne idee wie ich das umgehen kann?

werd als alternative heut mal den xen testen
 
VM kann nur maximal 2TB als datastore -> hilft nur aufteilen in mehrere LUNs und dann auf OS Ebene wieder zusammenzufügen mit LVM o.ä.
 
Eben nicht!
Das sagt sogar Netapp die kürzlich bei uns im Haus waren!
Dedup muss bei Netapp in Verbindung mit NFS ja auch ziemlich gut funktionieren und deswegen werden wir es iSCSI wahrscheinlich vorziehen. Mir würd ja FC mehr zusagen, aber das kommt für die Umgebung dann zu teuer.
Danke aber schonmal für die Links; wenn ich mal ausm Meeting komme les ich mich ein ;)

Für die Performance beim klonen von VMs oder vMotion gibts ab Ontap 8.x das coole Feature, das solche Storage Operationen den Netapp nicht mehr verlassen und alles innerhalb des SAN/NAS passiert.
Dazu mehr auf now.netapp.com
Aber das ist eher für größere Umgebungen interessant, denke so oft macht von uns keiner vMotion bzw. rollt im Akkord VMs aus :)
Das wäre doch mal eine interessante Verbesserung; dachte bisher das Ontap8 nur für Cluster interessant wäre.
 
Deduplication aufm Netapp ist wirklich eine nette Sache.

Daher bietet es sich auch an Datastores auszuteilen, so haben wir z.B. in einem Datastor nur Server 2008 VMs und sparen 30% Plattenplatz durch die dedup.
Also ohne Dedup wären die Shelfs schon wieder voll :fresse: und bei iSCSI ist da nicht viel zu holen.

Auch das Backup sollte man nicht vernachlässigen.
Ohne passende Backup Software/Konzept/Features auf dem Filers, kann es soweit kommen, dass man wegen einer VM einen kompletten Datastor zurückholen muss.
 
Hallo,
ich bin neu hier im Forum und muss direkt eure Hilfe in anspruch nehmen.
Wir haben hier einen Server auf dem VMWare vSphere 4.1(ESX) installiert werden soll, aber der vSphere den Raidcontroller nicht erkennt bzw. das erstellte Raid1. Jetzt wollte ich die Treiber manuell hinzufügen(während der installation kann man diese einspielen) nur bekomme ich einen Error welcher sagt, dass er die Treiber-CD nicht erkennt.

Hier das System:

Intel Xeon X3430 2,4GHz
32Gb(4x8Gb) Kingston registered RAM
Tyan S5502 (S5502GM3NR)
Adaptec 1430SA
2x Gigabit CT Desktop Adapter

Festplatten sind eine WD Caviar Green 750Gb und eine Samsung Spinpoint irgendwas 1Tb. Wobei dann beide zu einem Raid1 zusammengefasst werden und die kleinste Platte das Gesamtvolumen vorgibt.

Ich hoffe das waren erstmal genug Daten zu meinem Problem und bitte euch mir schnellstmöglich unter die Arme zu greifen da der Server bald eingesetzt werden soll.
Freundlicher Gruß

Stefan

Nimm von dem Vorhaben erstmal wieder Abstand. Ein Raid 1 aus verschiedenen HDDs ist äußerst unvorteilhaft. -> Punkt 1.
Punkt 2 ist die Tatsache, das nachgereichte Treiber erstens einen Support mitbringen und teils wirklich sehr instabil laufen.

Das Einbinden der Zusatztreiber ist ganz einfach. Dazu gibt es zu Hauf Anleitungen im Netz...
Was dafür aber benötigt wird, ist ein Treiber den der ESX versteht. Und hier wirds bei deinem genannten Controller schon schwierig. Das wird wohl so ohne weiteres nicht gehen.
Was man nun machen könnte, wäre sich mit Programmierkenntnissen anfreunden und dann einen Linux Treiber für den Controller neu compilieren im ESX Format. Das ist aber in meinen Augen schon ne ziemlich harte Nuss ;)
Einfacher ist einfach einen Kompatiblen Controller zu besorgen...
 
Was macht ihr denn alle mit den Servern?
Du bist nicht der einzige, der NIC Probleme mit vergessen hat... Ich hab sowas nicht, auch auf der Arbeit hab ich sowas nicht... Selbst mit nem selbst nachträglich eingefügten Treiber für irgend so ne billig Realtek NIC nicht. (nur muss man bei der die Flusskontrolle deaktiveren, sonst gibts Probs)
 
Mir ist bei einem ESXi grade folgendes Netzwerkverhalten aufgefallen:
Netzwerk_ESXi.jpg


Mir kommt dieser zyklische Abfall gen 0 etwas spanisch vor? Hat irgend jemand ne Idee woher das kommen könnte?
Er importiert derzeit eine VM auf ein RAID 10 aus 4x72GB SAS an einem Perc 5i. NIC ist eine Intel Gbit Onboard auf nem Asus ServerBoard.

Bin für Tipps dankbar :)
 
Neja bedenkt man das dort nur gerade mal 15-20MBit/sec angezeigt werden, was wiederum nur ~2MB/sec sind, zeigt das wohl wiederum nur, das die Diagramme Murks anzeigen!?
Oder lässt du das irgendwie über ne WAN Leitung laufen?
 
Nein, Converter im Gbit-Netz.
Entweder er hat n Problem mit dem Datastore (Wobei die anderen VMs auf dem Gleichen Datastore mit ~80MB/s "beschreibbar" sind) oder der Converter bastelt da grade Mist zusammen.

Ansonsten gehts im Netzwerk mit normaler GBit Geschwindigkeit zur Sache, also Netzwerk würd ich mal ausschliessen.
 
Ich meine ja auch nicht das Netzwerk, sondern viel eher die Messmethode, mit der man dort Traffic misst ;) Schau mal auf die HDD Diagramme, die zeigen auch so einen Murks an... Zumindest zum Teil.
 
Ah ok, falsch verstanden :)

Das mit den Diagrammen kann natürlich auch sein, werd ich zumindest mal im Auge behalten.
 
Mir ist aufgefallen das irgendwie scheinbar nur die CPU Auslastungskurve sowie die RAM Auslastungskurve halbwegs hinkommen können.
NIC und HDD Kurven zeigen total den Müll teils an...
 
Ich werd die nächsten Tage mal ein Auge darauf haben, ham noch n gescheites Monitoring Tool hier laufen, der Server steht soweiso unter Überwachung! Der ist Anwärter für den Titel: Zicke des Jahrhunderts :)
 
Aktuell fehlen uns leider noch die Lizenzen für SnapManager & SnapDrive.
Wir nutzen aktuell noch den VDR von VMware.
Hoffe das wir aber bald auf den SMVI umsteigen können.
 
Nimm von dem Vorhaben erstmal wieder Abstand. Ein Raid 1 aus verschiedenen HDDs ist äußerst unvorteilhaft. -> Punkt 1.
Punkt 2 ist die Tatsache, das nachgereichte Treiber erstens einen Support mitbringen und teils wirklich sehr instabil laufen.

Zu Punkt 1 muss ich sagen das die größere Platte nachher im Betrieb rauskommt und eine Baugleiche WD Green Caviar reinkommt. Damit wollen wir Testen ob im ernstfall alles so funktioniert, wie wir uns das vorstellen.

Das Einbinden der Zusatztreiber ist ganz einfach. Dazu gibt es zu Hauf Anleitungen im Netz...
Was dafür aber benötigt wird, ist ein Treiber den der ESX versteht. Und hier wirds bei deinem genannten Controller schon schwierig. Das wird wohl so ohne weiteres nicht gehen.
Was man nun machen könnte, wäre sich mit Programmierkenntnissen anfreunden und dann einen Linux Treiber für den Controller neu compilieren im ESX Format. Das ist aber in meinen Augen schon ne ziemlich harte Nuss
Einfacher ist einfach einen Kompatiblen Controller zu besorgen...

Naja Programmieren ist nichts für mich. Und zu dem ESX-Zertifiziert... wir haben den Controller gewählt, da im moment unser Budget ein sehr limitierender Faktor ist, und dieser Controller auf der inoffiziellen Kompatibilitätsliste steht.
Aber vielleicht hat jemand anderes noch eine Idee wie man das Teil zum laufen bekommt.
Empfehlungen für einen günstigen Controller sind auch gerne gesehen.
Gruß

Stefan
 
Also ich sehe in den Whitelists von ESX4 den Controller nicht... ;)
Wo habt ihr geschaut? Hast mal nen Link?

Wenn das jemand schon hinbekommen haben sollte, dann brauchen wir nur das Treiberfile von dem Teil und dann ist das Einbinden dessen nur noch ein Klacks :fresse:
 
Ups nicht gesehen. Damit wär das Thema wohl vom Tisch.
Danke euch ;)
 
Aktuell fehlen uns leider noch die Lizenzen für SnapManager & SnapDrive.
Wir nutzen aktuell noch den VDR von VMware.
Hoffe das wir aber bald auf den SMVI umsteigen können.

Wir haben damals ein Komplettpaket bekommen, nur hab ich es bisher nur geschafft SMVI/VSC einzurichten. An Exchange und SQL bin ich gescheitert.

Zum NFS: So wies aussieht werde ich wohl dem Storage mehrere IPs geben, ver. Exports anlegen und dann jeden Export über eine andere Leitung ansprechen. Irgendwie wärs einfacher wenn wir 10Gb oder FC nehmen würden ;)
 
Irgendwie wärs einfacher wenn wir 10Gb oder FC nehmen würden ;)

Wem sagst du das... :( Ich stehe ja vor dem selben Problem (und dem Problem mit der NFS Schreibrate) Letztendlich sind iSCSI und NFS mit vorhandener Hardware ja low Buget Lösungen. Zwar kannst du die vorhandene Struktur nutzen, bist aber auch an deren Leistungsgrenze gebunden...
 
Mir ist bei einem ESXi grade folgendes Netzwerkverhalten aufgefallen:
Netzwerk_ESXi.jpg


Mir kommt dieser zyklische Abfall gen 0 etwas spanisch vor? Hat irgend jemand ne Idee woher das kommen könnte?
Er importiert derzeit eine VM auf ein RAID 10 aus 4x72GB SAS an einem Perc 5i. NIC ist eine Intel Gbit Onboard auf nem Asus ServerBoard.

Bin für Tipps dankbar :)

Neja bedenkt man das dort nur gerade mal 15-20MBit/sec angezeigt werden, was wiederum nur ~2MB/sec sind, zeigt das wohl wiederum nur, das die Diagramme Murks anzeigen!?
Oder lässt du das irgendwie über ne WAN Leitung laufen?

Wenn auch etwas spät, aber das Verhalten ist nicht ungewöhnlich, wenn Du da ne VM per Converter hinlegst - wir haben bei uns schon des öfteren festgestellt, das der Converter leider auch im Gigabit Netzwerk nicht die Performance bringt, die man erwarten würde - dafür arbeitet er aber die Warteschlangen schön ab ;) - diese Auslastungskurven müssten aber im Netzwerk des entsprechenden PCs von dem aus konvertiert wird, auch zu finden sein.
Die ersten beiden Absacken gegen Null macht er nach (zumindest wenn man im Converter der Statusbeschreibung folgt) beim Anlegen der VM (vermutlich vmx) und dem Memory - dann kommen die Platten dran, wobei hier auch nicht konstant geschreiben wird - am ende sind noch mal 2 Nullpunkte bis halt fertig ist - seh ich hier regelmässig, ist auch so, wenn man ne VM runterkonvertiert, also von ESX auf PC - warum? - Keine Ahnung... VMware...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh