Stacking oder 10G Uplink

h00bi

Enthusiast
Thread Starter
Mitglied seit
28.08.2006
Beiträge
1.484
Hallo zusammen,

viele professionelle Switches bieten ja eine Stacking Funktion an, die es ermöglicht mehrere 24 oder 48 Port Switches zu einem großen logischen Switch zusammenzufassen.
Mal die anderen Funktionen der Switches außen vor gelassen, ab wann würdet ihr zu einer Lösung mit Stacking greifen und wo würdet ihr sagen ein normaler 10G Uplink zwischen den Switches reicht?

Der größte Nutzen von Stacking wäre doch z.B. wenn ich viele VLANs über mehrere Switches habe, sodass ich die Konfig nur 1x machen muss statt auf jedem der Switches, oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beim Stacken hat man das Problem, dass man nur noch einen Switch hat und ein paar dumme Portbereitsteller.
Daher stacken man eigentlich nur noch selten bis garnicht. Dafür gibt es Multichassi-Systeme und darauf aufsetzende Funktionen, die z.B. VLANs über den Verbund syncen.

Wobei beim Stacken der Vorteil auch relativ ist. Denn du musst immernoch Switch 1 und Switch 2 sagen, wo denn VLAN 1 rauskommen soll. Was wegfällt, ist das VLAN auf den Trunk zu propagieren.

Hängt also sehr vom Anwendungsfall machst. Bei 2 Switches @home würde ich einzelne Geräte nutzen, als nen Stack zu fahren.

Stacken macht @home evtl Sinn, wenn man 6x 24 Port hat und sich die Config vereinfachen will. Aber auch da könnte ein Trunk mit RSTP "Ring" mit all VLAN allowed schon ausreichend einfach konfiguriert werden.
 
letztendlich ist das eine Glaubensfrage und auch eine Anwendungsfallsache, ob Stacking oder eben nicht.

Beides hat seine Vor und Nachteile. Anbei mal kurz angerissen die entsprechenden Pro/Contras

Stacking
+ Single Administration Interface für alle Switches
+ Redundante Uplinks über mehrere Switche für Server inkl LACP
+ Teilweise In Service Software Upgrades
+ Innerhalb eines Stacks sind mehrere Wege nach Rom verfügbar. IdR wird der kürzeste genommen, sodass eine bessere Auslastung der Stacklinks entsteht
- Bei Software Problemen kann es passieren das alle Switche im Stack sterben
- Proprietäre Stacking Protokolle. Schlecht zu debuggen.
- Auf einen Hersteller festgenagelt innerhalb des Stacks

Einzelswitche
+ Freie Herstellerwahl, auch unterschiedliche Hersteller in einem Setup möglich
+ Software Probleme auf einem Switch beeinträchtigen andere Switche idR weniger.
+ Standard Ethernet ohne Herstellerabhängigen Schnickschnack
- Bei Ring Struktur ist ein link idR durch STP o.ä deaktiviert und damit effektiv nicht nutzbar
- Redundante LACP Bundes für Server Switchübergreifend NICHT möglich
 
Dafür gibt es Multichassi-Systeme
Die sind preislich aber gleich nochmal in einer ganz anderen Größenordnung....

Wenn ich mal so grob überschlage für 2x 48 Port:
Normale Switches ca. 2x 500€ (mit PoE 2x800€)
Stacking Switches ca. 2x 1000€ (mit PoE 2x1500€)
Multichassis ala HP/Aruba zl2: 5000€+

Klar, 2x 48 Port wie hier ist ja quasi das Einstiegsszenario, wenns mal Richtung 150 Ports und mehr geht wird ein Multichassis Gerät gegenüber eine Stackinglösung auch preislich interessant.

Besten Dank schon mal für eure Antworten.
 
h00bi,
bitte nicht Chassi-Systeme, wie die von dir genannten Systeme, mit Multichassi-Systemen gleichsetzen.
Bei Multichassi-Systemen hat man 2 unabhängige Switche, deren MGMT-Backplane aber gesynct ist. Das führt dazu, dass man eben teilweise Vorteile von Einzelswitches und Vorteile vom Stacking nutzen kann.
Die sind preislich aber wohl auch auf jeden Fall außerhalb des Rahmens.

@Seratio
Es gibt, wie gesagt, auch Multichassi-Verbunde, die den ein oder anderen Nachteil unterbinden.
 
Du meinst ehr Multichassis Trunking bzw Lags oder?

In dem Fall liegen die Switche aber auch ehr im höherpreisigen Segment.

Technisch gesehen hat man da aber ganz andere Probleme. z.B. das Hosts, welche nur mit einem Bein an so einem Switch angeschlossen sind, Server am jeweils anderen nicht erreichen. Ob das für alle Hersteller zutrifft, weiß ich gerade nicht, aber zumindest bei Brocade und Juniper ist das so.
 
Genau das meine ich.

Und natürlich können auch Server quer kommunizieren, wenn er mit einem Bein dran hängt. Alles andere würde ja bei einem Trunk/LAG keinen Sinn machen, wenn mal ein Link wegfliegt (weswegen man ja Trunk/LAG) macht.
Dazu braucht man natürlich einen Link zwischen beiden Switches, aber das hat man eh?!
Wer natürlich die Switche nicht verbindet, der hat ganz andere Probleme, als dass nen Host mal nicht sprechen kann.

Fakt ist, das geht, wäre ja noch schöner.

Und ja, das sind eher TOR/AGGR-Geräte als Access.
 
@TE
Ich weiß ja nicht, was du vor hast.
Aber Switche verbinden ist immer Kacke, weil man nen Bottleneck hat. Durch geschickte Aufteilung und Nutzungsverhalten kann man das egalisieren.
Wenn man mit einem reinen 48x 1G Switch auskommt, ist man bei 200EUR.
Wenn man noch ein wenig 10G für Server oder Interlink haben will, ist man bei ~500EUR.
 
Stacking macht privat imho nur dann Sinn, wenn man günstig sehr viele Ports braucht, also deutlich mehr als 48.
Sonst seh ich da wie die Anderen nicht soo den großen Vorteil.

Wieviele Ports mit welchen Geschwindigkeiten und Features brauchst du denn ? Evtl. gibts das alles in einem Switch für relativ wenig Geld (nicht neu).
 
Für was brauchst du sowas , :oops: das ist mehr für Firmen :unsure:
 
Stacking macht privat imho nur dann Sinn, wenn man günstig sehr viele Ports braucht, also deutlich mehr als 48.

Naja, eben nicht. Wenn du nur möglichst günstig viele Ports brauchst dann nimmst du keine (mittel)teuren Stacking Switche sondern normale und verbindest die mit 1G oder 10G Uplink.
Die meisten Stacking Interfaces laufen auch auf deutlich höheren Geschwindigkeiten als 10G. Bei den Dell Switches die ich mir neulich angeschaut habe sinds glaub ich 72Gbit/s.

Man kann im Enterprise Segment, wo solche Switche halt angesiedelt sind, schon extrem viel Kohle verblasen für die Dinge die man als Privatperson oder selbst als KMU-Admin halt vermutlich nie nutzen wird.

das ist mehr für Firmen
Überleg mal wo man in seiner Freizeit mehrere Computer zusammenschließt...
 
Zuletzt bearbeitet:
Naja, eben nicht. Wenn du nur möglichst günstig viele Ports brauchst dann nimmst du keine (mittel)teuren Stacking Switche sondern normale und verbindest die mit 1G oder 10G Uplink.
Die meisten Stacking Interfaces laufen auch auf deutlich höheren Geschwindigkeiten als 10G. Bei den Dell Switches die ich mir neulich angeschaut habe sinds glaub ich 72Gbit/s.

Man kann im Enterprise Segment, wo solche Switche halt angesiedelt sind, schon extrem viel Kohle verblasen für die Dinge die man als Privatperson oder selbst als KMU-Admin halt vermutlich nie nutzen wird.


Überleg mal wo man in seiner Freizeit mehrere Computer zusammenschließt...
Stacking Switche kosten nicht mehr die Welt, z.B. Cisco SG500X, oder das von mir oft empfohlene Brocade ICX6450, ist auch stackable und kostet n Appel und n Ei.

Dell ist sowieso ein Sonderfall, da gibts auch Switche die sich über HDMI Kabel stacken lassen :ROFLMAO:
 
Kosten nicht mehr die Welt?
Das sind >2k EUR Geräte. Ich mein, klar, wer immer mit 10k Netto im Monat nach Hause geht....
 
Kosten nicht mehr die Welt?
Das sind >2k EUR Geräte. Ich mein, klar, wer immer mit 10k Netto im Monat nach Hause geht....
Ich rede ja auch nicht von Neuware, das 6450 gibts für 150 € aus England, die SG500X für 200-300 € gebraucht. Privat völlig ausreichend, da muss es keine Neuware mit Garantie sein.
 
Bevor ich sowas machen, hole ich mir dann gebraucht lieber z.B. Aruba 5406 und hab dann keine Probleme mit der Backplane, die bei einem Stack der vorgeschlagenen Geräten halt nichts besonder breit ist.
(und kann zudem auch noch 10GBE nachrüsten, wenns denn sein muss.)

Für alles andere tuts dann auch nen 48Port 1GBE Switch neu und mit Garantie und auch noch ganz frech ohne Lüfter und das für den selben Preis.
 
Überleg mal wo man in seiner Freizeit mehrere Computer zusammenschließt...

Sofern du damit ne klassische LAN Party meinst, würde ich nicht gesondert auf Stackbare Switche oder sonstigen fancy Kram achten. Wenn ihr es mit dem Filesharing nicht übertreibt, reichen Switche mit 10G Uplink oder mit einem LACP Bundle aus mehreren 1G Links. Viel wichtiger ist hier, dass die Kisten möglichst leise arbeiten. Und sofern man eine größere LAN Party veranstaltet, dass sie Features wie DHCP Snooping oder Filtering unterstützen.

Dell ist sowieso ein Sonderfall, da gibts auch Switche die sich über HDMI Kabel stacken lassen :ROFLMAO:

Die gabs bei DLink früher auch mal. Je nach dem wie der Hersteller das löst, ist damit auch ordentlich Bandbreite möglich. Bei DLink z.B. waren es 5GBit/s. Baut Dell überhaupt selbst Switche? Früher hatten die ja mal Force10 und später haben die z.B. mal whitelabeled Brocade verkauft.

Die Brocade ICX6450 kenne ich leider auch... Aber ich muss gestehen, dass das mit Abstand die schlimmste Hardware ist, welche ich jemals einsetzen musste :fresse: Für den Datacenter Betrieb waren die viel zu buggy. Stacks fangen plötzlich an Packetloss zu fabrizieren. Zudem brauchen die Kisten eine Lizenz um alle 4 10G Ports benutzen zu können. Wenn man Stacking betreibt, hat man ohne Lizenz dann keinen 10G Uplink mehr... Das einzige was ich an diesen Dingern gut heißen kann, ist die Bootzeit. Keine 60 Sekunden nach einem Reboot und der Traffic fließt wieder.

Aus der Erfahrung kann ich aber sagen, dass bei einem 1G Switch stacking über 10G mehr als ausreichend ist. Selbst bei 10G Switchen haben 40G Links bislang immer ausgereicht.
 
Sofern du damit ne klassische LAN Party meinst, würde ich nicht gesondert auf Stackbare Switche oder sonstigen fancy Kram achten. Wenn ihr es mit dem Filesharing nicht übertreibt, reichen Switche mit 10G Uplink oder mit einem LACP Bundle aus mehreren 1G Links. Viel wichtiger ist hier, dass die Kisten möglichst leise arbeiten. Und sofern man eine größere LAN Party veranstaltet, dass sie Features wie DHCP Snooping oder Filtering unterstützen.



Die gabs bei DLink früher auch mal. Je nach dem wie der Hersteller das löst, ist damit auch ordentlich Bandbreite möglich. Bei DLink z.B. waren es 5GBit/s. Baut Dell überhaupt selbst Switche? Früher hatten die ja mal Force10 und später haben die z.B. mal whitelabeled Brocade verkauft.

Die Brocade ICX6450 kenne ich leider auch... Aber ich muss gestehen, dass das mit Abstand die schlimmste Hardware ist, welche ich jemals einsetzen musste :fresse: Für den Datacenter Betrieb waren die viel zu buggy. Stacks fangen plötzlich an Packetloss zu fabrizieren. Zudem brauchen die Kisten eine Lizenz um alle 4 10G Ports benutzen zu können. Wenn man Stacking betreibt, hat man ohne Lizenz dann keinen 10G Uplink mehr... Das einzige was ich an diesen Dingern gut heißen kann, ist die Bootzeit. Keine 60 Sekunden nach einem Reboot und der Traffic fließt wieder.

Aus der Erfahrung kann ich aber sagen, dass bei einem 1G Switch stacking über 10G mehr als ausreichend ist. Selbst bei 10G Switchen haben 40G Links bislang immer ausgereicht.

Hab als LAN Setup 5 6450 mit zwei 6610 im Mixed Stack ohne Probleme am Laufen gehabt, evtl auch ein Firmware Bug ? Aber sowas kann auch andere Hersteller treffen. Wir hatten ähnliche Probleme mit Avaya (Auweia...) Switche im Stack.

Das mit der Lizenz stimmt, bekommt man aber für den privaten Hausgebrauch im STH genug. Man kann beim 6450 auch schön auf das darunterliegende Linux zugreifen, Recht nett.

Bzgl Aruba, jo gut, wenn ich mir die Gebrauchtpreise anschaue ist das aber auch recht teuer. Oft 400€ + nur für das leere Chassis ist auch recht happig. Aruba hat aber ein gutes Ecosystem, REST API usw.
Führen halt viele Wege nach Rom.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh