Frage zu HP Switch und SFP / GBIC Nutzung

EvoluT1oN

Enthusiast
Thread Starter
Mitglied seit
17.02.2005
Beiträge
2.114
Hallo, ich habe folgenden Switch im Einsatz:

HP ProCurve Switch V1910-16G, 16-Port (JE005A) Preisvergleich | Geizhals Deutschland

Nun möchte ich gerne diesen Switch mit einem zweiten Switch dieser Sorte via Gbic verbinden, um nicht auf eine Bandbreite von 1Gbit/s beschränkt zu sein für alle Clients untereinander.

Nun ist die Frage, was für Gbic Module ich hier verwenden soll.

Müssen es Neue von HP sein, oder können es auch gebrauchte 4 Gbit/s Module sein die mir etwas Geld sparen würden?
Kenne mich leider absolut nicht aus mit den unterschiedlichen Gbic Sorten & Arten, daher die etwas "blöde" Frage.

HP 4Gb GBIC Short Wave SFP Module 405287-001 A7446B | eBay

4Gbit würde mir prinzipiell reichen, zumal ich ja durch die 4 Ports auch 2 FibreChannel Kabel ziehen kann, sprich 8Gbit/s?

Danke für die Aufklärung.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das von dir verlinkte SFP ist ein FibreChannel-Modul - damit kannst du garnix anfangen...

Maximum für den Switch ist 1Gbit/s - auch auf den SFP Ports... und dann bitte normale Ethernet SFPs...
Willst du mehr als 1 GBit/s, musst du mehrere Verbindungen stecken und die dann bündeln. Wenn du in deinem Netz aber nicht ne ganze Latte an Kisten hast, die gleichzeitig Gigabits schaufeln, wirst du davon kaum einen Nutzen haben...

Ob du dafür HP/3Com original-SFPs benutzen musst, kann ich dir allerdings nicht mit Sicherheit sagen... eBay listet einige "HP kompatible" oder "3com kompatible" SFPs - die werden dann wahrscheinlich schon funktionieren...
Willst auf Nummer sicher gehen, kauf halt die Originale - kosten dann auch nur noch ein paar Euro mehr...
 
Zuletzt bearbeitet:
Willst du mehr als 1 GBit/s, musst du mehrere Verbindungen stecken und die dann bündeln. Wenn du in deinem Netz aber nicht ne ganze Latte an Kisten hast, die gleichzeitig Gigabits schaufeln, wirst du davon kaum einen Nutzen haben...

jep, nennt sich dann Link-Aggregation. Und richtig, bei normalen Büro Arbeitsplätzen wird man das kaum brauchen, da langweilt sich 1 Gbit schon die meiste Zeit vor sich hin.
 
ja, es wird gebraucht. Und zwar wird massen-geimaged über einen Ghostcast Server.
Also wie gesagt, ich habe diese beiden Switche und momentan noch einen Server (blech) der mit einer normalen Gbit Intel NIC ausgestattet ist.
Jetzt ist die Frage wie ich am günstigsten mehr Durchsatz kriege, mit möglichst wenig Strippen (sprich FibreChannel?)

Aufbau momentan ist wie folgt:

Ghostcast SRV -----> Switch 1 <------> Switch 2 <------- Clients
----------------RJ45-----------2x RJ45-------------RJ45---------
----------------GBit------------GBit-----------------Gbit--------
 
Zuletzt bearbeitet:
Wie gesagt...
FibreChannel hilft dir nicht - das ist für SAN Verbindungen gedacht, das läuft mit dem Switch nicht...

Wenn der Server eh nur ein GBit/s liefert, bringen dir auch mehr als 1GBit/s zwischen den Switches wenig...
 
hm mist... okay, danke für die Aufklärung.
 
Wenn Du nicht mehr Strippen willst hast du Pech, denn 10GbE wird Dir wohl gewiss zu teuer sein. Ansonsten braucht's eben Trunks (oder Link Aggregates oder wie die Hersteller das nun auch immer nennen wollen). Was ja sowohl zwischen den Switchen als auch zwischen Client und Switch möglich ist, dafür braucht's eben auch entsprechend mehr Ports im Client ...
 
So recht verstehe ich das Vorhaben auch nicht. Wenn jetzt schon 2x1Gbit zwischen den Switches gebündelt anliegen (so deute ich zumindest die Struktur in Post #4), dann ist dort wohl nicht das Problem zu finden. Das Problem ist viel eher der Server selbst, der eben nur mit einem 1GBit Bein am Netz hängt.

Was man nun machen könnte, einerseits wären Switches mit 10GBE möglich (teuer), andererseits wäre die weitere Bündlung mehrerer Ports möglich. Nachteil ist, man benötigt auch mehr Kabel.
Ggf. lassen sich die Switches (wenn nicht räumlich getrennt) auch "stacken". Wobei ich aber nicht weis, ob das mit den Modellen geht, da dürfte die Herstellerpage auskunft geben. Sollte es laufen, hast du idR mehr Speed als bei ner simplen Link Aggregation.

Was auch noch zu beachten ist, diese Bündlungsverfahren benötigen auch zwingend mehrere Connections, sonst wird der Speed nicht ausgefahren. Heist also, zwei gebündelte Ports (also 2x1Gbit/sec) benötigen auch zwei gleichzeitige Clientconnections. Bei vieren dann jene vier usw.

Bildlich vergleichbar ist das mit ner Straße. Ist eine Spur vorhanden, kann ein Auto fahren. Sind zwei Spuren vorhanden, aber nur ein Auto, bringt es kein Effekt. Fahren aber zwei Autos, können auch zwei Autos über beide Spuren gleichzeitig fahren ohne sich gegenseitig irgendwie zu behindern.
 
Bildlich vergleichbar ist das mit ner Straße. Ist eine Spur vorhanden, kann ein Auto fahren. Sind zwei Spuren vorhanden, aber nur ein Auto, bringt es kein Effekt. Fahren aber zwei Autos, können auch zwei Autos über beide Spuren gleichzeitig fahren ohne sich gegenseitig irgendwie zu behindern.

Sehr schön beschrieben! Sollte man in einer FAQ zum Thema als Erläuterung pinnen.

Wenn ich mich auch mal ins Thema einmischen darf denke ich auch, dass momentan eher der Server mit der einen Gigabit NIC der Flaschenhals sein dürfte. Man sollte hier ansetzen.
 
So recht verstehe ich das Vorhaben auch nicht. Wenn jetzt schon 2x1Gbit zwischen den Switches gebündelt anliegen (so deute ich zumindest die Struktur in Post #4), dann ist dort wohl nicht das Problem zu finden. Das Problem ist viel eher der Server selbst, der eben nur mit einem 1GBit Bein am Netz hängt.
Was man nun machen könnte, einerseits wären Switches mit 10GBE möglich (teuer), andererseits wäre die weitere Bündlung mehrerer Ports möglich. Nachteil ist, man benötigt auch mehr Kabel.
Man sollte dabei dann auch noch den Server selbst betrachten. Wenn ich den mit mehreren Beinchen ans Netz hänge, muss ich selbstredend auch darauf achten, wie diese Beinchen dann angesteuert werden - da gibts ja auch noch ne Hand voll Modi, und eine Active-Standby config bringt garnix... Ausserdem - noch wichtiger - muss der Server selbst ja auch erstmal in der Lage dazu sein, die gesteigerte Bandbreite überhaupt zu liefern. Bei 2 Gbit/s mag das ja noch halbwegs gehen, aber wenn ich wirklich 10Gbit/s pumpen will, muss die Büchse schon eine halbwegs ordentliche Phalanx an Platten mit passenden Raid Controllern und adequater Anbindung bieten, damit das überhaupt Sinn machen würde...
Ggf. lassen sich die Switches (wenn nicht räumlich getrennt) auch "stacken". Wobei ich aber nicht weis, ob das mit den Modellen geht, da dürfte die Herstellerpage auskunft geben. Sollte es laufen, hast du idR mehr Speed als bei ner simplen Link Aggregation.
IIRC lassen sich die V1910er "stacken" (Das Feature heist bei den Kisten IRF) - sogar über größere Distanzen - allerdings läuft das auch über die normalen Netzwerkports und ich meine, du brauchst mindestens 2 Links...
 
Danke, das hat mir jetzt weiter geholfen.

2Gbit/s wären ja bereits eine ordentlich Steigerung. Ich denke ich werde das "Projekt" die nächsten Tage mal angehen und berichten, welche Ziele und Werte ich erreichen konnte mit einer Portbündelung.

@dbode: danke für die einfache Erklärung.

Kurz noch zur Server-Konfiguration: Der Server beinhaltet bspw. 2 GB-NICs. Kann ich diese über den Switch ebenfalls 'einfach' bündeln? Ich gehe doch mal davon aus dass ich server-seitig ebenfalls noch Hand anlegen muss?!
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
IIRC lassen sich die V1910er "stacken" (Das Feature heist bei den Kisten IRF).

Nicht bei den V1910ern. Da gibt es nur die billige "Single IP Management" Variante. IRF lite gibt es bei den 5120-SI switches, das "echte" IRF-Stacking (im Ringverbund, etc.) funktioniert nur über die 10Gbe Interfaces ab 5120-EI/5500/58XX/59XX etc.
 
Nicht bei den V1910ern. Da gibt es nur die billige "Single IP Management" Variante. IRF lite gibt es bei den 5120-SI switches, das "echte" IRF-Stacking (im Ringverbund, etc.) funktioniert nur über die 10Gbe Interfaces ab 5120-EI/5500/58XX/59XX etc.

Hm... völlig Richtig... da war die Verbindung HP -> IRF wohl ein ziemlicher Kurzschluss meinerseits :-D
 
Die SFPs für die Switche müssen nicht unbedingt original von HP sein. Wir nutzen meist die SFPs von Home page / flexOptix - The Transceiver Specialists in der jeweils benötigten Ausführung. Die sind wesenltich günstiger und genauso zuverlässig.

Edit: Warum eigentlich trunken, wenn man mit einem neuen größeren Switch die Probleme ganz beseitigen kann?
 
Zuletzt bearbeitet:
Edit: Warum eigentlich trunken, wenn man mit einem neuen größeren Switch die Probleme ganz beseitigen kann?

Und durch einen größeren Switch wird das eine Gigabit-Beinchen des Servers (welcher ja nun mal Anfangsstelle von Allem ist) auf einmal Verzehnfacht? Da ist dann immer noch ein Bottleneck.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh