Stackable Switches

Kullberg

Computer Schach Freak
Thread Starter
Mitglied seit
18.02.2005
Beiträge
5.893
Ich hab bei meinem Cluster die Situation, dass diverse Rechner im Keller stehen, die Anderen hier im 1. Stock. Bisher hab ich Oben und Unten je einen Switch für die normalen Daten + Unten einen für KVM over ip + IPMI.
Nun hat mit der neuesten Software Version die Menge an zu übertragenden Daten massiv zugenommen, so dass die Verbindung vom Keller hier hoch ein Flaschenhals werden könnte.
Ich hab gesehen, dass es "stackable" Switches gibt - z.B. NetGear ProSafe GS748TS. Da sollen 2 Switches untereinander mit 20 Gbit/s kommunizieren können - und das Ganze ist dann zu bedienen wie nur ein einziger Switch.
Kennt sich jemand mit sowas aus?
Wie werden die Switches vebunden? (Bedienungsanleitung hab ich nicht gefunden, nur Berichte, wie toll das sein soll).
4 Cat 7 Leitungen in den Keller sind vorhanden.
Gibt es sinnvolle (schnelle / schnellere) Alternativen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für die Stacks gibts es meißt hinten an den Switches extra Anschlüsse für kurze Flachbandkkabel die die Backplanes direkt zusammen schließen, also nix was für eine Verkabelung über ein Rack hinaus geeignet ist.

Einzige Möglichkeit die bleibt ist ein 4-Port Trunk (max 4GBit bei mehreren Datenstreams, ein einziger weiterhin 1GBit) oder auf 10GBit Module setzen (schweine teuer und wüsste grad keine Module für RJ45, nur SFP und CX4).

Edit:
Aus der Netgear Switch Beschreibung:
2 HDMI ports on the rear of the unit – used for stacking only
http://www.netgear.com/products/business/switches/stackable-smart-switches/GS724TS.aspx
 
Zuletzt bearbeitet:
Stacken ist nix anderes, dass die interne Backplanes des Switches (zum Teil) rausgeführt werden und mit anderen zusammengeschlossen. Diese Verbindung braucht natürlich spezielle Kabel und ist auch nur für Rackumgebungen gedacht um sich ggf ein fettes SlotIn Switch oder gar Backboneswitch zu sparen.

Deine Chance sieht folgendermaßen aus:
1. Porttrunk (siehe Chris)
2. 10gbit uplink zu bauen
2.1. 10gb switch -kostet aber gut Geld aktuell (auch für dein Geldbeutel ;))
2.2. 2 Rechner (oben und unten) mit 10G NICs ausstatten und diese ggf als Switch zu mißbrauchen, ggf noch quad gbit NICs nachschieben

EDIT:
http://geizhals.at/deutschland/?cat=switchgi&xf=659_10GBase&sort=p

Die oberen haben 10G Uplinks, könnte gerade in Bezug auf 2.2. die bessere Option sein.
 
Zuletzt bearbeitet:
Stacking geht idr. wirklich nur über kurze Entfernungen und die Kabel sind auch nicht grad geschenkt.

Ich würd dir auch zu nem Trunk aus ein paar mal GbE oder nem 10 GbE Uplink raten.
 
Für die Stacks gibts es meißt hinten an den Switches extra Anschlüsse für kurze Flachbandkkabel die die Backplanes direkt zusammen schließen, also nix was für eine Verkabelung über ein Rack hinaus geeignet ist.

Einzige Möglichkeit die bleibt ist ein 4-Port Trunk (max 4GBit bei mehreren Datenstreams, ein einziger weiterhin 1GBit) oder auf 10GBit Module setzen (schweine teuer und wüsste grad keine Module für RJ45, nur SFP und CX4).

Edit:
Aus der Netgear Switch Beschreibung:
2 HDMI ports on the rear of the unit – used for stacking only
GS724TS

Danke für die Info - ich / mein Browser findet da aber kein HDMI. Allerdings glaube ich, dass ich unseren Elektriker auch dazu überreden könnte, HDMI Kabel zu verlegen - wenn die ca. 8 m lang sein dürfen.

Ich war auf die Idee mit dem Stacken gekommen, als ich die Bedienungsanleitung von meinem neuen (billig - 24 x 100 mbit + 2x gbit - für IPMI und KVM over ip) SMC Switch gelesen hab. Der kann über normales Netzwerkkabel gestacked werden.
 
Das ist kein Stacken, sondern trunken.

Stacken siehe oben. ;)

Und "stacken" über die RJ45 Ports ist totaler Blödsinn. Das ist nix anderes wie mehrere Switch hintereinander dübeln, bringt nahezu 0 beim Durchsatz.

EDIT:
http://www.netgear.com/products/business/switches/stackable-smart-switches/GS724TS.aspx

Bei interfaces steht "2 HDMI ports on the rear of the unit – used for stacking only"

Das ist kein HDMI Interface, lediglich der Stecker. Die Kabel dürfen auch nicht allzu lange sein. 30cm ist hier die Regel. Max glaube 1m oder sowas.
 
Zuletzt bearbeitet:
hast du die möglichkeit glasfaser legen zu lassen?

gibt z.b. von allied telesis switche die darüber stackbar sind.
 
Musst auf die Seite "Product Specs" Blättern da steht dann das zu den Anschlüssen.

Wie werden die Daten denn Übertragen? Ist es ein Datenstrom der von einem Rechner aus geht oder Reden alle Quer durcheinander?
 
Wenn es eh "durcheinander" läuft würd ich erstmal ein Trunk über die 4 Leitungen konfigurieren.

Drauf achten das der Switch Trunking nach LACP (IEEE 802.3ad oder was auch immer es aktuell ist) kann und möglichst bei einem Hersteller bleiben.
 
Das ist kein Stacken, sondern trunken.

Stacken siehe oben. ;)

Und "stacken" über die RJ45 Ports ist totaler Blödsinn. Das ist nix anderes wie mehrere Switch hintereinander dübeln, bringt nahezu 0 beim Durchsatz.
Das hat mit Trunken nichts zu tun - das ist ein Switch mit 24 100 mbit und 2 GBit Ports + 2 GBit Anschlüssen fürs Stacken. Darüber verbundene Switches werden über eine ip gemanaged. Und es können mehrere 100 mbit Ports gleichzeitig mit voller Geschwindigkeit mit nem anderen Switch kommunizieren. An sowas dachte ich, nur 10x so schnell.

http://www.smc.com/files/AD/MN_SMC6224M_MAN.pdf

@Killer Chris
>und möglichst bei einem Hersteller bleiben
hab ich schon feststellen müssen, mein HP Switch im Keller kriegt keinen Trunk mit meinem Level One Switch hier oben zustande.
 
Daher auch "stacken". Das eigentliche Stacken ist das Verbinden der Backplanes der Switches, und die Backplane ist der Part, der den Maintraffic hat. Diese gbit Links kann man ja nun in der Pfeife rauchen.

Und 10gbit sind schon ordentlich. Wie gesagt, entweder trunten von gbit Ports (4gbit) oder eben was Ordentliches hinstellen, welches eben mit 10gbit über RJ45 arbeitet. Switch oder eben ne NIC die man als Switch mißbraucht.
 
Ich weiß nicht, ob der SMC das stacken wirklich mit gbit macht - man muss nen Schalter drücken, um den als gbit Port zu gebrauchen. Und es war ein 20 cm langes relativ gut aussehendes Netzwerkkabel dabei fürs Stacken. Ich hab das gleich als Verbindung zu meiner PDU missbraucht. Der Switch macht übrigens nen sehr guten Eindruck, Verarbeitung, Management 1A. Ist aber natürlich technologisch ne Antiquität - aber genau das richtige für KVM over ip was eh nur 100 mbit kann.
 
Für KVM sicherlich ideal, aber auch oversized, wenn du da aber wirklich so nen hardcoretraffic hast, dann brauchste was richtiges. Haste schon versucht die aktuellen 4 Leitungen direkt auf die Rechner zu geben um so den gbit uplink zu umgehen, wirds dann besser?!
 
Nicht wirklich oversized - im Keller stehen 15 (ab morgen 16) Rechner ;)
Und ich wollte unbedingt nen managed Switch haben, um von Oben nachsehen zu können, ob irgendeine Verbindung ausgefallen ist.
Wegen der Anzahl der Rechner kann ich auch nicht direkt an die Rechner gehen.
Es wird wohl erstmal auf nen neuen Switch hier oben rauslaufen, um damit nen Trunk machen zu können. Allerdings schätze ich den Level One eigentlich sehr, da er sehr klein ist trotz 24 Ports und weil die Ports auf der Rückseite sind.
 
Zwei Anmerkungen dazu.

- Kauf Dir keinen Netgear-Switch für ein professionelles Umfeld.
- Falls Dir 4x 1 Gbit/s ausreichen, dann mach einen einfachen Trunk zwischen den Switches
 
Einzige Möglichkeit die bleibt ist ein 4-Port Trunk (max 4GBit bei mehreren Datenstreams, ein einziger weiterhin 1GBit) oder auf 10GBit Module setzen (schweine teuer und wüsste grad keine Module für RJ45, nur SFP und CX4).

Mach es via Trunks und bei 2x HP Gbit sollte und kann er die Last auch verteilen über die Leitungen..
z.b. meine alten Netgears können das nicht..

btw. es gab ein paar switche mit RJ45 und 10GbE, wobei ich mir für das geld was die kosten LWL legen würde...


MAFRI
 
Das stacken über RJ45 können so manche Einsteigerswitches, Nachteil ist halt, die Verbindung zwischen den Stacks ist auch nur auf 1-2xGbit/s beschränkt...
Ich würde wie schon angesprochen in dem Fall wohl eher die 4xCat7 Kabel als Trunks missbrauchen... Von oben nach unten. So hast du im Idealfall ab vier Transfers 4Gbit/s an Speed. Sofern die Switche keine Lastverteilung oder ähnliches machen um den Speed sogar bei weniger Transfers voll auszufahren...

Ansonsten würde ich wohl auch nicht so günstig Zeugs nehmen... Thema LWL und Co. macht für mich hier auch noch irgendwie wenig Sinn. Denn ich denke mal die Datenmenge wird nicht die 4GBit überschreiten. Das sind unnötig Kosten, die man in dem Fall besser in anständige Switches investiert.
Bei 16 PCs und noch bisschen Kleinkram kommt schon ordentlich an Daten was zusammen. Mit 20GBit/sec an der Backplane wie du oben sagtest, bist du schon fast am Limit würd ich meinen. Bedenke auch, das was vorn in den Switch rein geht, muss über den Uplink hinten wieder raus. Das heist, würdest du mit 10GBit Uplink arbeiten, kannst du bei ner 20GBit Backplane diese allein durch den Uplink schon zu 50% dicht machen...


Alternativ wie underclocker schon sagte, das ganze im PC Umfeld mit 10Gbit NICs nutzen und diese direkt verbinden. Nur hast du unten dann bei 16 PCs das Problem das dieser PC an der einen Seite den Flaschenhals darstellt... Bei 16 PCs dann vier Quad NICs 1GBit nachschieben wird auch gleich richtig teuer..
Da kann man gleichen nen Switch 10GBit Uplink Möglicheiten kaufen.

Empfehlungen für den Switch kann ich so nicht aussprechen. Ich denke mit HP kann man schon gut arbeite, und die sind rellativ günstig. Ansonsten kenne ich nur Enterprise Switches von Cisco, Nortel/Avana und Enterasys... Nur überschreitet das wohl alles den Geldbeutel ;)
 
Zuletzt bearbeitet:
neben der Möglichkeit mehrere 1 GB Leitungen als Trunk zusammenzufassen, gibt es nur noch die 10 GBe Alternative. Die ist aber bei LWL normalerweise ultra-teuer.

Wir haben bei uns auch die Server im Keller und das RZ im Erdgeschoss. Verbunden sind die entsprechenden Switche (HP modular und Procurve 2910, ab ca 1300,--) mit CX4 10 GBe. Das ist normalerweise zwar nur Kupfer mit max ca 10m, es gibt aber Kabel mit integriertem LWL Tranceiver bis max 300m, dann kostet das Kabel zwischen 200,-- (10m) und 2000,-- Euro für 100m. Ein 10 GBE CX4 Anschluss am Switch kostet ca 250 Euro. Das ist dann State of the Art und noch bezahlbar.

Den Netgear 748 habe ich auch. Ist als reiner Level2 Switch ganz ok, die Web-Management-Oberfläche ist aber vor allem wenn es um vlan und anspruchsvolleres geht viel chaotischer als die HP-Software. Stackable (managebar über eine IP) sind beide. Ich nehm allerdings nur noch HP's. Bei höheren Performance-Ansprüchen und wenn das Geld und die Ansprüche für Cisco und Co nicht passen, ist m.E. HP erste Wahl. Die große Management-Software von Netgear ist zudem Chaos pur- auch da ist HP besser.
 
Zuletzt bearbeitet:
Es gibt ja auch 10G Base-T so ists ja nicht. Damit kommt man, mit entsprechender Verkabelung, auf 100m. Sehe da also nicht die Notwendigkeit für CX4.
CX4 war ne Kurzzeitlösung, weil man davon ausging, dass man RJ45 net 10G Base-T bzw CAT6a tauglich bekommt.
Man hat sich also nicht selber vertraut.
 
Die 100m Beschränkung an sich soll es wohl so auch nicht mehr geben...
Wie ich mitbekommen habe, dreht sich das jetzt alles nur noch nach der Dämpfung bzw. den Messwerten der Kabel. Passt es, so gehts dicke auch weit über 100m. Passt es nicht, so kommt man auch weit unter 100m schon Probleme.
Unsere Jungs sagen sogar was, von das sei mittlerweile irgendwie aus den Spezifikationen raus, selbst die neuesten Messgeräte für Datennetze haben diese 100m Begrenzung nicht mehr im Bauch...
 
http://www.anixter.com/axecom/axedo...25727a0057b3ac/$file/ieee_802_3_10gbase-t.pdf

Leider komm ich grad net an die 802.23an SPECs ran.
Auf jeden Fall ist dort drin die Rede von 100m max length.

Richtig ist natürlich, dass die Länge an sich für die Dämpung usw net entscheident ist, bzw nur bedingt. Solange die Werte passen, kann ich auch zB 130m fahren. Es gibt aber ein Problem. Laufzeitverschiedung im Kabel. dieser Fakt wirkt sich wesentlich stärker aus als der Dämpfungskram. Da kann die Dämpfung bei 130m noch 1a sein, wenn die Laufzeitverschiebung zu groß wird ist Ende mit 10G und je höher die Taktraten werden, desto stärker fallen die ins Gewicht.

Kannst sie ja mal nach einer Quelle dafür fragen.
 
Werd ich tun, aber erst nächstes Jahr... Dies Jahr geh ich net mehr arbeiten :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh