Multi-Sockel-Hardwaretreff Part 2

Stacks haben in der Regel nur 10gbit links, was für normale Aufkommen ausreichend ist, bei abgefahrenen Sachen, kann der Stackinterconnect zum Problem werden.

Was?
Woher die Info?
Wir haben hier diverse Nortel Switches, die knallen schonmal ~90GBit durch die Stackkabel... Oder meinst du jetzt was anderes? Bei Enterasys aktuell ists nicht ganz so viel, ich glaub was um die 60GBit...
Wie es bei HP und Cisco ausschaut, weis ich nicht, hatte da ne Weile keine ordentlichen Geräte in den Händen ;)
Mit Stacking ist üblicherweise das Verbinden hinten über die Stackingports gemeint. Ein zusammenschalten über normale Netzwerkports, wie es bei kleinen Switches oft gemacht wird, ist logisch durch den Speed der Ports limitiert...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich weiß schon was stacking ist. ;)

Man muß hier ganz klar die Geräteklassen unterscheiden.

Für die Anwendung wo wir uns gerade bewegen, sprich Etagenverteilung mit wenig Traffic haben im konkreten Beispiel mal die aktuellen Cisco 2900er einen 10gbit Stack. Die glaube 3500er und 3700er fahren einen 60gbit Stack, nur liegen zwischen diesen beiden Klassen Welten.

die 3000er sind hochskalierbare Lösungen mit allerlei redudanten Krimskrams. -> go 4 enterprise at its best

Wobei ein 3000er rund 5k EUR kostet (48T+10GBE) was rund 2x ein 2900er ist.

EDIT: Die 3000er sind zudem L3, was auch den Preis nach obentreibt.

2nd EDIT:
HP steht nicht so auf Stacks, die nehmen lieber mod. Switche, was ich sehr schade finde, gerade wenn so Etagenverteiler hat.
(schade eigentlich)
 
Zuletzt bearbeitet:
OK ich gebe zu, ich hatte bis dato eher Enterprise Equipment in den Händen :fresse:
Und betreibe mittlerweile Zuhause auch nen Stack aus zwei Nortel ERS5510-24T Switches im Stack. Die schaufeln soweit ich weis 80GBit untereinander... Da geht schon einiges... Für Lau ist das schon ne Hausnummer. Leider sehr laut die Teile, da muss ich noch bisschen am Lüfter rumspielen... ;)
 
@underclocker2k4
Wie kommst du zu deiner Aussage HP steht nicht auf Stacks?
Die haben doch durchaus einige Switches im Programm die Stacking beherrschen.
Oder machst du das an der Preisklasse / sonstigen Features / Stackingbandbreite fest?

Schade find ich die modularen allerdings absolut nicht, wir haben @work in den letzten 6 Jahren ausschließlich modulare HPs gekauft und im Einsatz (ein paar Restbestände HP 2424M sind teilweise noch vorhanden) und seh ab mehr als 48 benötigten Links pro Schrank eigentlich keinen Grund mehrere kleine Switches zu kaufen.
 
also die neuen 3000er X-Series sind aber deutlich billiger geworden ;) - und haben mehr Features, wie endlich redundante Netzteile und grad bei VoIP das elementare PoE.

aber darum gings hier doch garnicht oder?
 
@murdock

Klar bieten die auch Stack Switch an, nur fangen die eben weiter oben an.
Die kleinsten sind glaube die 3800er und die sind vom Preis her schon ne Ecke teurer als zB Cisco 2900er

Bieten klar auch mehr Features und haben aber auch Stacksbandbreiten jenseits von gut und Böse, da muß so manches modulare Switch Angst bekommen.

Ich finde modulare Switche ja auch nicht schade, aber eben nicht ganz so ideal, gerade wenn es um Etagenverteiler geht. Für bandbreitenhunrige Anwendungen hingegen sind sie super geeignet.

In "einem" Schrank einer Etagenverteilung mit 500Ports wird das Ganze aber sehr schnell zur Qual, du kommst nämlich nicht mehr ans Switch ran und die Verarbeitung sieht dann auch nicht mehr so sauber aus. Analog zu Coreswitches, wenn die einmal ordentlich bestückt sind, will da auch keiner mehr ran, muß man ja auch nicht so oft.
 
Zuletzt bearbeitet:
OK ich versteh was du meinst.
Mir fehlte nur der Vergleich weil ich mich nur im Switchportfolio von HP einigermaßen auskenn.

Muss zugeben dass unsere Etagenverteiler (haben wir nur in einem Standort) nicht besonders toll aussehen weil das recht alte und spärliche Netzwerkschränke sind (schätz mal 20 HE rum) bei denen man die Tür kaum noch zu bekommt, Kabelführung Fehlanzeige.

Dürften so an die 50 Links pro Stockwerk sein, da kommt aber Telefonanlage auch noch dazu die kommt im gleichen Schrank auf nem extra Patchpanel an und wird dann ebenfalls per RJ45 auf die Dosen gelegt.
 
Was denkt ihr denn, wie viel ein Supermicro 7043M-8 mit Dual-Xeon (Singlecore) + 1 GB Rambus noch Wert ist? Die Kisten waren seit 2003 im Dauerbetrieb, bis auf Kratzer am Gehäuse sehen die noch aus wie neu.
 
Das Gehäuse alleine wohl noch am meisten.
Praktisch nutzbar ist die kiste ja nimmer und nostalgie ists auch ned wirklich - hat die wirklich rambus oder ecc sdram wies bei Supermicro steht?
 
Der Typ war falsch, das Gehäuse sah so ähnlich es, es ist ein SuperChassis 742i-450 (Rack) mit P4DCE+II Mainboard.
 
Also, die Hardware ist wohl wirklich praktisch wertlos, für das Gehäuse kann man aber wohl noch ein paar Euro verlangen.
 
Zuletzt bearbeitet:
Mit etwas Glück bekommste für die RAMs noch ein paar Euro als Sammlerstücke inner Bucht. So lange gabs die Rambus Speicher ja nicht. Und bei dem Board mach ich mir erst recht keine Hoffnung. Mit nem 603er Sockel haste die maximale Einschränkung die duch bei den Netburst CPUs haben konntest und mit max 2GB RAM kommste eh nicht wirklich weit...
 
Mein Tipp wäre:
Sich freuen, wenn die Entsorgung nichts kostet ;)
 
Frage an die Freaks hier:

Wenn man 2 Systeme hat und die 1:1 gleich sind von der Hardware und der OS, kann man die irgenwie "SO" einrichten, das, wenn doch das 1. System stirbt, das 2. System sofort da ist. Klar das beide Systeme an sind^^.

Grund:
Bei größere Liveproduktionen möchten wir eine relative kl. Ausfallzeit haben. Z.zt läuft einiges Rendudant, von den Endstufen über die Lichttechnik bis hinzur Videotechnik. Kosten -> nebensächlich.

Danke.

EDI:T
Wenn das zu komplex wird: gibt es "Firmen" die sowas machen, wenn ja -> bitte um nennung ;).
 
Naja, grundsätzlich kann man vieles clustern. Wie schwer das ist, das hängt von der Anwendung ab. Das hat aber nicht unbedingt was mit Dual Sockel Systemen zu tun ;)
 
Wenn das ganze über ein shared storage läuft - am besten mit der Möglichkeit Snapshots anzulegen - seh ich da kein größeres Problem.

Im Prinzip analog zur VMWare ESXi im SAN nur dass du physische Kisten dran hängen hast.
 
Ne Downtime kannst aber glaub in nem Livesystem ned verhindern.
Bei ordentlichen Workstations istn plötzlicher Hardwaredefekt wärend einer live-session sehr unwarscheinlich.

Ich würde ne FC Storage (inkl redundantem controller/netzteil/raid) und die beiden identischen workstations nehmen. sollte eine ausfallen hängt man innerhalb weniger minuten die 2 te dran, bootet und sollte wieder weiter machen können.
 
Ich musste gerade etwas schmunzeln ;)
Unser Server in einem der Standorte meldet, das ihm zu Kalt ist :fresse:
Fujitsu RX200S3...

Die FB-Dimms tuckern bei gemütlichen ~40°C, die CPU bei knappen 30°C und External Environment bei 6°C!!
 
Fenster auf? 40°C @FB ist schon ne Ansage, dass kenn ich eigentlich nur aus RZs, wo jemand das Fenster als Klima im Winter genutzt hatte bei -10°C draußen.
(eigentlich auch ne dumme Idee)
 
Ne Server steht in nem Rack, welches in ner größeren unbeheizten Lagerhalle steht. Warum das auf einmal so kalt ist, ist mir aber schleierhaft :fresse:
 
Das kenn ich - da hatte jemand vergessen das Rolltor zur Halle ganz zu schließen bei unter -10°C ;)
 
Meinen Servern ist es auch nicht viel wärmer. Aber immerhin meckern die nicht, wenn es denen zu kalt ist :fresse:

Ein kleiner Auszug aus dem RSA von einem meiner beiden IBM Server



Und nein, bei mir steht kein Rolltor offen, sondern nur ein ganz normales 0815 Kipp-Fenster auf beiden Seiten vom Serverraum --> wer braucht schon ne Klima im Winter *g*
 
sehr ungünstig das so zu betreiben... Die extreme Luftfeuchte macht sich nicht gerade gut auf den Boards ;)
 
sehr ungünstig das so zu betreiben... Die extreme Luftfeuchte macht sich nicht gerade gut auf den Boards ;)

Welche extreme Luftfeuchte? Kalte Luft ist trocken. Je kälter, desto trockener.
 
Welche extreme Luftfeuchte? Kalte Luft ist trocken. Je kälter, desto trockener.

Durchaus richtig... In der Praxis aber oft auch anders. Man schaue raus, draußen ist Nebel, draußen ists recht feucht und trotzdem kalt. ;)
Deswegen sieht man wohl auch Reifbildung im Herbst und früh/spät Winter... Eben weil es doch nicht so trocken ist, wie man es sich denkt ;)
Im Gegensatz zu nem klimatisierten Raum mit Luftentfeuchter ist das also doch ein extremer Unterschied. Und wer schon mal Server gesehen hat, die monatelang in hoher Luftfeuchte getuckert haben, wird mir auch beipflichten, das dies nicht sonderlich gut ist ;) Anstatt grün/brauch was auch immer, wird das Board an vielen Stellen schön weis ;)
 
Zuletzt bearbeitet:
Das kommt durch den Tagesverlauf der Temperaturen. Wenn sich die Luft Nachts abkühlt, ist sie nicht mehr in der Lage, das verdampfte Wassser zu halten und dieses schlägt sich dann auf kalten Oberflächen nieder, bzw. findet sich in der Luft zu winzigen Tröpfchen zusammen, was dann Nebel ist.

Wenn man nun die Raumtemperatur innen ein Paar Grad über der Außentemperatur hält, kann sich kein Wassser niederschlagen. Das sollten die Server von ganz allein erledigen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh