Frage zu ESX und EVA4400 LWL Verkabelung

SchnittenP

Semiprofi
Thread Starter
Mitglied seit
13.07.2004
Beiträge
1.125
Hi,

ich habe eine Frage bezüglich der LWL Verkabelung.
Und zwar besitzt meine Umgebung

2x ESX Server
2x San Switche
1x EVA 4400
2x Festplatten Enclosure

diese Umgebung ist mit LWL Kabeln redundant verkabelt. Jetzt die Frage, wieso werden die ganzen ESX Server zusätzlich noch mit normalen Patchkablen angeschlossen (RJ45)? Oder sind diese nur für die remote Administration notwendig? Bzw. wieso sollen sich die ESX Server über LWL Verbindung nicht sehen?

vielen dank ^^.. das hab ich nämlich noch nicht ganz kapiert

thx
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei einem derartigen Aufbau wird es meistens so laufen, dass die ESX-Server von der EVA die virtuellen Maschinen booten. Dafür braucht es die schnellen LWL-Kabel, ich vermute es handelt sich um eine FibreChannel-Verkabelung.

Die Server untereeinander selbst brauchen das aber nicht, da reicht normales Gigabit-Ethernet. Das physische verschieben großer Datenmengen passiert ja eh auf der EVA geht also gar nicht erst über die fabric.

Auch wenn das alles viel Geld kostet muss man es ja nicht zum Fenster rausschmeißen und LWL-Kabel ziehen wo sie nicht gebraucht werden.

Backbone
 
Bei einem derartigen Aufbau wird es meistens so laufen, dass die ESX-Server von der EVA die virtuellen Maschinen booten. Dafür braucht es die schnellen LWL-Kabel, ich vermute es handelt sich um eine FibreChannel-Verkabelung.

Die Server untereeinander selbst brauchen das aber nicht, da reicht normales Gigabit-Ethernet. Das physische verschieben großer Datenmengen passiert ja eh auf der EVA geht also gar nicht erst über die fabric.

Auch wenn das alles viel Geld kostet muss man es ja nicht zum Fenster rausschmeißen und LWL-Kabel ziehen wo sie nicht gebraucht werden.

Backbone

Hi,

okay und wieso müssen die esx server noch über patchkabel verbunden werden? können die sich nicht auch über die lwl verbindungen sehen?
 
Die LWL sind nur für die Storage, die Copper für die Anbindung an das normale Netzwerk und verwaltungsverkehr, damit hast du eine feste Netzetrennung.
 
Zuletzt bearbeitet:
Die LWL sind nur für die Storage, die Copper für die Anbindung an das normale Netzwerk und verwaltungsverkehr, damit hast du eine feste Netzetrennung.

könnte der "verwaltungsverkehr", die esx server müssten ja nur kontrollieren ob der andere noch da ist, nicht auch über die lwl vernbindung abgewickelt werden? wenn man schon so schnelle verbindungen hat?
 
Könnte ja aber so hat man eine strickte Trennung gebaut außerdem fragen die ESX sich nicht gegenseitig sondern das läuft über einen VCenter Server das wohl kaum per LWL angebunden ist ;)
 
könnte der "verwaltungsverkehr", die esx server müssten ja nur kontrollieren ob der andere noch da ist, nicht auch über die lwl vernbindung abgewickelt werden? wenn man schon so schnelle verbindungen hat?
Schau' dir mal den Artikel zu Fibre Channel bei der wikipedia an. FC ist nicht für IP-Verkehr geschaffen, sondern ausschließlich für Storage-Netzwerke. Bei Fibre Channel gibt es weniger Overhead, deswegen ist das für blockbasierte Zugriffe ideal, für IP-Verkehr aber weniger, da bei IP-Verkehr eben mehr Informationen pro Datenpaket benötigt werden.

Außerdem wird bei so einer Konstellation wahrscheinlich noch ein komplett separates IP-Netzwerk für VMotion (also das Verschieben der virtuellen Maschinen im laufenden Betrieb, was ein Feature der teureren VMWare-Lizenzen ist) existieren, so dass es ein Mal das Speichernetzwerk über optische Kabel, dann ein Verwaltungs- und Kommunikationsnetz nach außen (auch die können ggf. getrennt werden) und dann noch ein VMotion-Netzwerk gibt.
 
Eben, FC ist eine Storageschnittstelle, ähnlich wie SATA oder SAS. Hier wird zwar LWL genommen, das macht diese Verbindung aber noch lange nich zu einer Netzwerkverbindung. Die Daten, die übertragen werden, sind doch vom Medium unabhängig. Man könnte die Dinger auch per Funk anbinden. Trotzdem hat man dann kein WLAN. (Funk ist natürlich nur als Beispiel zu sehen, es würden unterirdische Datenraten erreicht werden)

EDIT: Es gibt auch FC over copper, das als Ergänzung.
 
Zuletzt bearbeitet:
alles klar,

vielen Dank für eure Antworten, jetzt ist mir die Sache auf jeden Fall klarer geworden :)

Grüße
 
Wie schon angemerkt wurde wird es in der Praxis meist so gemacht, dass es mindestens zwei Netzwerke gibt. Eines das die Infrastruktur für die Virtualisierung bietet (eben FC für boot from SAN) und eines, dass den "richtigen" Informationsverkehr (meist dann Ethernet via Kupfer) abwickelt. Zumindest baue ich das immer so.

Man "kann" auch alles in einem Netzwerk machen, viele iSCSI-Lösungen zielen darauf ab, weil man da eine Menge Geld sparen kann. Dummerweise spart man auch gleich viel Performance, Sicherheit, Redundanz etc.... ;-)

Backbone
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh