[Kaufberatung] Ubiquiti UniFi Switche im Unternehmen

Fishburn

Enthusiast
Thread Starter
Mitglied seit
18.11.2005
Beiträge
1.018
Ort
Bayern
Servus Leute,

Wir haben in der Firma (20 Switche) im Moment 48er FullPOE D-Link im Einsatz. Erst 4-5 Jahre alt und liefen bis vor kurzem einwandfrei. Jetzt habe ich immer mehr Aussetzer bei denen ich den Strom wegnehmen muss damit die Dinger wieder laufen. Echt zum heulen, ganze Firma steht wegen dem Mist.

Ich habe keine Ahnung wieso mein Vorgänger überhaupt D-Link verbaut hat, vielleicht gab es 10% Cashback damals, wer weiß. Kenn mich zwar da nicht so aus, aber D-Link ist mal das letzte was ich kaufen würde.

Von allen Seiten hört man HP-Switche aber persönlich find ich die auch etwas langweilig und wäre eigentlich für Ubiquiti UniFi Switche incl. irgendwann sogar mal auf der WLAN von denen und evtl. andere Sachen.

Jetzt hab ich mehrfach gehört das die zwar lustig und cool sind aber eben nicht stabil genug laufen für ein Unternehmen und eher so für die Größe Arztpraxis ausgelegt sind. Ich mein die 48er POE kosten trotzdem 1600 Euro und das ist für mich jetzt kein Consumerprodukt. Ist wirklich klar das man die Dinger nicht nehmen soll oder sind die alten Verkäufer einfach mit ihren HP Sachen verheiratet?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe in Firma ca. 20 Switche unterschiedlicher Größe und nochmal 20 APs am laufen, inkl. VLAN Segmentierung und bin damit sehr zufrieden. Läuft alles stabil, und wenn nicht hat das andere Gründe, wie z.B. Stromausfall auf einer Etage etc.
 
Du solltest am besten erstmal die genauen Anforderungen niederschreiben.

Ubiquiti ist halt einfach und fancy, Gerade wenn man wenig Ahnung von Netzwerken hat und alles aus einer Hand in Klick Bunti lösen kann, haben die Geräte definitiv einen Vorteil. Ubiquiti verkauft dir halt ein Ökosystem. Wenn mans so will, ähnlich zu Apple.

Zu den Aussetzern in den DLink Switchen: Sind das Managed Switche? Wenn ja, schau mal per serieller Console auf die Geräte, wenn das Problem auftritt. Ggf. einfach mal ein Software Update machen.
 
Die UniFi Geräte wollen Businssess sein, sind aber nur Consumer+ Geräte. Ich rate davon ab, besonders wenn es sich um 20+ Geräte handelt. Da braucht man auch nen richtigen Strack.
Bei 20+ Switches brauchst du auch den passenden CloudKey. Ubiquitiy hat auch die UISP Marke, die schon eher nach Business ausschaut, aber von den Preisen erstunlicherweise sogar Teils billiger ist.

Ich würde Richtung Netgear M4300 Serie gehen oder zu den von dir genannten HPE Switches.

Aber die Frage ist eigentlich, auch was du mit den Switches machst. Sind des einfach nur viele Büroarbeitsplätze oder viele Audio/Videogeräte oder Haupsächliche Überwachungstechnik?
 
Naja wir sind ein Metallbauunternehmen. Heißt die Switche machen alles von Maschinennetz, Videoüberwachung, 30 Office Arbeitsplätze ... Daten werden wir bei uns jetzt nicht soviele verschoben ausser bei Nachtsicherung auf QNAP usw.

Ich hasse die D-Link Dinger halt und hätte schon gerne etwas Klicki Bunti. Gerade die VLANs sind so sinnfrei zu programmieren ...

Das sind eigentlich alle so 3000 Euro Geräte, aber wie gesagt langweilen mich halt so extrem. Und selbst unserer externer Dienstleister findet den Fehler nicht warum das immer abraucht. Haben jetzt schon extra Schalter verbaut um die Switche vom Strom zu nehmen. Komm mir vor wie in einer Pommesbude schön langsam.
 
Wir haben HPE Aruba switche auf Arbeit. Wie du schon schreibst, die sind "langweilig", dafür tun sie halt was sie sollen. Manche davon schon seit 10+Jahren.
Von Ubiquiti nutzen wir die APs auf Arbeit. 40 APs auf 4 Standorte, Controller zentral an einem Standort. Alle Standort im site2site VPN.
Funktioniert gut, das Dashboard finden wir alle sehr gut, da es viele Infos liefert und keine laufenden Kosten verursacht.

pro Ubiquiti (für mich):
- Die GUI. Die GUI von HPE Aruba kann halt gefühlt nix.
- Der Preis. Für den Preis eines HPE Aruba bekomm ich zwei Ubiquiti

pro HPE Aruba (für mich):
- kennt man halt im Enterprise Umfeld als Marke
- kenn ich selber seit gefühlt "immer" und weiß, die funktionieren einfach
 
Habt ihr irgendwo loops oder irgendwas ähnliches, was die Dlinks aus dem Leben ballert? Laufen da irgendwo (MGMT) Protokolle, die sowas auch machen könnten?

Ansonsten:

Da ist meine Meinung zu Ubi dokumentiert.

Wir haben 3stellig ArubaOS CX im Einsatz, eher weniger im CU-Access, eher im Core, Distribution, ServerAccess.
Der wesentliche Vorteil bei den Dinger:
1. Lebenslange Garantie (EOS+5-10 Jahre)
2. Netedit als Configoberfläche

Wir setzen bewusst kein SDN ein. Netedit ist eine Zwischenlösung aus CLI und "SDN". Man kann damit mehrere/alle Geräte so programmieren, als wenn man auf dem CLI wäre.
Wenn man die Config clever aufbaut (gleiche Ports für gleiche Funktionen) kann damit schnell das komplette Switchgelöte anpassen.
z.B. eine LACP einrichten oder ein VLAN deployn usw. Natürlich kann man das dann auch Gerätegranular machen.
Aber besonders wenn man zusammenhängende (z.B. Cluster) Switche hat, ist das schon sehr gut. Auch Sachen wie VSX für redundante Core/Aggregationseben sind nicht zu verachten.

Wenn man das sauber konstruiert, hat man eigentlich eine sehr robuste Infrastruktur, die zwar aus einem Guss ist, die aber bei Bedarf auch angepasst werden kann, auch mit FremdHW. Wenn man also irgendwann z.B. auf Cisco gehen will, bricht man zwar aus dem Ökosystem aus, kann aber, aufgrund der Standardvorgehensweise, auch angepasst werden.

z.B.
für den Access
oder

(nicht von den Preisen abschrecken lassen, sollte man sich individuell anbieten lassen)

Den 8100 bzw. 8320 kann man als Core betrachten. Auch daran könnte man dann Server anbinden mit 2x NIC als LACP, auf den Switches dann MLAG. In diesem Aufbau kann man dann einen der Coreswitche booten für z.B. FW Update ohne dass merkliche Einschränkungen entstehen. Bei einem Accessswitch sieht das dann anders aus, ist der weg, sind auch die Clients weg.
Ein Ausfall eines Cores ist halt auch unproblematisch. Macht halt der andere alleine weiter.

Bei den Arubas kann man einiges über die WebGUI machen, das ist ab nur so gefühlt die Hälfte und das wirklich spannende garnicht. Der große Vorteil ist eine RestAPI. Da kann man sich alles mögliche an Monitoring selber bauen, wenn man einen findet, der sich damit auskennt. Azubi oder Student kann sich da bestimmt austoben.

Beim WLAN kann man ja gerne Ubi machen. Durch die Trennung WLAN und Switch ist das zwar etwas umständlicher, aber am Ende ist das auch nur VLANs getagt auf ne CU Leitung geben. Der Rest ist ja unabhängig vom Rest, wie z.B. Inetaccess.

Wie in meinen anderen Posts schon, bin ich kein Freund solcher hochintegrierten monolithischen Systeme. Das ist immer ganz toll, aber wehe, man will aus dem Ökosystem ausbrechen.

Noch was zur Garantie. Wenn was kaputt ist, Switch, Lüfter, NT, machste einfach einen Case bei HPE auf und dann kommt der UPS Mann morgen mit nem neuen Teil vorbei. Je nach Riskclass müsste man ggf. dennoch ErsatzHW vorhalten (gerade für nen CU Access), das hält sich aber in Grenzen. Aber um den Rest muss man sich dann keine Gedanken mehr machen.

Wir hatten letztes Jahr das Problem, dass ein NT von einem 5412r zl2 ausgefallen ist. Case aufmachen -> neues NT
Und das ganz ohne Servicevertrag.
 
Zuletzt bearbeitet:
Habt ihr irgendwo loops oder irgendwas ähnliches, was die Dlinks aus dem Leben ballert? Laufen da irgendwo (MGMT) Protokolle, die sowas auch machen könnten?
Das vermute ich auch. Ich kenne DLink Switche(zumindest die sehr alten Serien) als sehr stabil. Wenn solch Probleme willkürlich und vor allem auf mehren Switchen auftreten, dann liegts meistens an einem Loop, STP, welches ungünstig dicht macht, weil z.B. die Root Bridge nicht ordentlich definiert ist.
Ursache für solch Verhalten müssen also nicht unbedingt die Switche sein, sondern kann auch ein User, Endgerät oder sonst was sein. Der Klassiker ist halt, dass die Putzfrau irgend ein rumfliegendes Kabel in die Dose steckt ;)
 
Sind die Firmwares der Switche aktuell? Alle mal durchaktualisieren! Bei DLink sind nicht selten Fehler in den Firmwares. Zumindest hatte ich da schon öfter mal Sorgen.
Ansonsten: Raus damit, gerade wenn die eh schon X-Jahre alt sind.
Aruba und Cisco mal ansehen.
Aber alles in allem sollten Switche mit ein paar VLans nirgends mehr (zumindest bei den großen Herstellern) problematisch sein, abseits von Firmwareproblemen.
 
Naja also wir hatten zwar mal eine Maus die nen Kabel angebissen hat und aber ich würde es schon auf die Switche ansich schieben. Der externe hat eine neue FW aufgespielt, totalausfall alle 3-4 Stunden. Alte FW wieder zurück gespielt, lief wieder. Gestern neue VLANs eingerichtet, 4 mal stand die komplette Firma. Externe jetzt wieder alte Backups eingespielt, im Moment läuft wieder.

Bin halt kein Netzwerkprofi und unser Externer ist schon gut, aber auch kein Gott. Aber in meinen Verständnis müssen doch Switche das alles aushalten, selbst nen LOOP sollte doch mit Loopdetection abgewehrt werden. Gott das einzige was bei uns halt ist, wir haben recht viele 8 Port 20 Euro Switche im Netz weil unsere Haustechnik lieber so ein Ding ansteckt wie eine Netzwerkdose hinzieht.
 
Ich kenne DLink Switche(zumindest die sehr alten Serien) als sehr stabil.
Auch wenn ich die Dlinks in den aktuellen Umgebungen bei uns nicht einsetzen würde, sind das eigentlich gerne genommene KMU/SoHo Geräte. In den letzten 20 Jahren sind mir die eigentlich immer irgendwie in solchen ähnlichen Strukturen untergekommen. Mal als AccessSW direkt in Office Räumen installiert oder sonst wie.

So schlecht sind die eigentlich nicht. Und bekannt dafür, dass man mit denen regelmäßig Schmerzen hat, eigentlich auch nicht, zumindest nicht in so einer Fehlerausdehnung.

Dass ein Gerät mal irgendwie sich einen weghängt, auch regelmäßig, ist manchmal normal. Schlechtes NT oder sowas, Altersschwäche halt. (passiert auch allen anderen)
Nur dass man jeden Mittwoch irgendwie nen anderen Switch rebootet, deutet eher auf ein systemisches Problem hin.
Und das Problem am systemischen Problemen ist, dass diese mit anderen Geräte nicht weggehen.
Dass die dann verschwinden hängt oft damit zusammen, dass man die Infrastruktur komplett neu macht.
Das würde aber auch passieren, wenn man alle Dlinks einmal komplett dumm macht und von vorne anfängt. Spart man sich halt den Invest., machen muss es dennoch jemand. Da ja bald wieder lange WEs und Brückentagezeit ist, wäre das evtl. eher etwas, was man angehen sollte.
Ggf. auch gleich mal die Struktur überdenken. Ich persönlich habe den Einsatz von z.B. xSTP in der kompletten Infrastruktur untersagt.
Wir haben eine Distri als Cluster und daran hängt jeder Access diskret. Das ist zwar Leitungsaufwand, gerade wenn es z.B. Fabrikhallen sind, man weiß dafür aber immer, wo der "root" ist, nämlich auf der Distri. Klare und vor allem einfache Strukturen reduzieren die Fehlersuchzeit ungemein. Und je integraler IT in solchen Umgebungen wird, desto wichtiger ist eine schnelle Wiederherstellungszeit und davon macht die Fehlersuchzeit den größten Anteil aus.
Daher fahren wir eine extrem flache Baumstruktur.
Beitrag automatisch zusammengeführt:

Aruba und Cisco mal ansehen.
Hier ist Aruba sehr weit vorne. Die haben Youtube, meiner Meinung nach, durchgespielt.

@Fishburn
Mal zum schnellen ein"lesen".
In Minute 5:37 sieht man einen klassischen Aufbau solcher Strukturen.
Unten sind die Access exemplarisch dargestellt. Das ist beliebig skalierbar.
Naja also wir hatten zwar mal eine Maus die nen Kabel angebissen hat
Sowas sollte absolute keine Ausfälle hervorrufen.
Die Technik ist schon seit Jahren so weit, dass man relativ easy, auch ohne xSTP, einsprechenden Redundanzen abbilden kann.

EDIT:
Evtl. hat man die Chance, dass man, falls es dazu kommt, die Distri auch auseinanderzuziehen.
Z.B. einen auf die eine Seite der Halle/Gelände und die andere auf die anderen Seite. So hat man ggf. die Chance die Auswirkungen physischer Probleme zu reduzieren. (Stromausfall, einer fährt mit dem Stapler wo rein)

2ndEDIT:
Sowas wie VSX gibt es auch bei anderen Herstellern, besonders die Großen. Es muss für sowas nicht zwingend Aruba sein. Man kann das auch mischen. Also Distri von Hersteller A und Access B, C, D usw.
Ggf. macht es sogar Sinn, dass man in der Halle auf Industriegeräte wie z.B. Phoenix Contact oder Siemens setzt.
Die sind für raue Umgebungen gemacht, sind passiv gekühlt und auch robust. (Garantie ist dann eine andere Baustelle)
Siemens kann z.B. auch PVLAN, falls man sowas mal haben mag.
 
Zuletzt bearbeitet:
Von mir auch ne Empfehlung für Aruba, hatten wir auch beim letzten AG mit im Einsatz in Produktion und co. UniFi würde ich für so ne Umgebung tatsächlich auch nur ungern verwenden, das geht schon damit los das ein neuer Switch erstmal auf DHCP angewiesen ist um den an den Controller anbinden zu können. Auch das Garantie-Thema ist wirklich extrem gut, wir hatten da vor 2 Jahren auch nen uralten HP 19xx Switch der den Geist aufgegeben hat, gab anstandslos Ersatz dafür.

Produktion waren auch überall HP/Aruba, je nach Positon normaler 19" Schrank oder teilweise auch abeschlossene Metallschränke oder auch in nem Schaltschrank teilweise. Umgebungsbedingt ist da afaik kein einziger Switch gestorben, auch wenn wir uns das oft gewünscht hätten um Budget für neue Geräte zu bekommen.
 
Kann man die Arubas mittlerweile über SFP+ Stacken, oder braucht man weiterhin die Stacking Module mit extra Kabeln?
 
Die haben schon lange keine Stacking Module mehr.
Schon beim 2930 gab es M und F Modelle. Ich habe das gerne als Eselsbrücke M-modulstacking F-frontstacking gemacht.
d.h. aber nicht, dass man jeden Switch stacken kann.
Gerade die core und aggr sind nicht stackbar, sondern nur als paar clusterbar, was in dem Zusammenhang auch Sinn macht.
Die Kleineren kann man mittels VSF stacken.

Wobei man sich da auch nicht täuschen lassen sollte. Der große unter den kleinen, der 6300, hat SFP56 Ports.
Da ist im Stack auch mit ordentliche Traffic mehr als genug speed im Stack. Das ist bei einem 10GBE mit SFP+ Stack nicht der Fall. Daher sind/waren Stackmodule schon sinnvoll, weil sie eben am switching frontend vorbei den Stackspeed sichergestellt haben.
10x 48 CU Access z.B. über einen 10GBE Link macht dann irgendwann auch keinen Spaß mehr.
Das ist mit 50GBE schon ne andere Nummer.

Weiterer Vorteil ist, dass man mit dem front stacking den Stack auch räumlich ausdehnen könnte.
 
Ohne seine genaue Infrastruktur und Traffic Anforderungen zu kennen, kann man halt auch schlecht eine Empfehlung abgeben. 10G Inter Stack Links können bei normalen Office Netzen total ausreichen. Sind immerhin noch 200mbit pro Client. Der Ottonormal Arbeiter wird vermutlich im Schnitt nicht mal über 5mbit kommen. Voraussetzung natürlich, dass die halbe Firma nicht Baupläne, und co direkt vom Fileserver herunter editiert :rolleyes:

Ich selbst als Netzwerker bin ja eher nicht Verfechter von Stacks. In den letzten 15 Jahren habe ich einfach zu viele Ausfälle in Stacks gesehen. Sei es durch halb defekte Switche, Software Fehler, oder Inkompatibilitäten zwischen verschiedenen vermeidlich kompatiblen Software Versionen. Zu dem sind Stacks in sehr fragmentierten Gebäuden mit hunderten Unterverteilungen auch eher weniger gut möglich.
Zudem ist, gerade auf der CLI, die Konfiguration bei einem 6er Stack mit 48Ports und somit knapp 300 Ports auch nicht mehr schön :fresse2:

Heute würde man da eher, wie oben schon geschrieben wurde, 2 Switche als Core bereitstellen und über diese per Multi Chassis Lag die Access Switche anschließen oder wenn man das nötige Kleingeld hat eine Spine&Leaf Infrastruktur mit VXLAN hinstellen. Das stellt dann allerdings in der Komplexität ein ganz anderes Level dar und ist für den normalo Admin ohne Management Software kaum betreibbar.
 
Zuletzt bearbeitet:
Natürlich nicht! Man sollte auch korrekt schreiben... :fresse2:
 
Ich kann von den Ubiquiti EdgeSwitches nichts schlechtes berichten, sind zwar weniger Klicki-Bunti als die UniFi-Switches, liefen aber in meiner Zeit als Netzwerkadmin super.
 
oder wenn man das nötige Kleingeld hat eine Spine&Leaf Infrastruktur mit VXLAN hinstellen. Das stellt dann allerdings in der Komplexität ein ganz anderes Level dar und ist für den normalo Admin ohne Management Software kaum betreibbar.
EVPN und Co. kommt ja aus dem RZ Bereich.
Und solange man keinen Bedarf nach solchen weit gestretchten Strukturen hat, würde ich das auch unterlassen.
Wie schon geschrieben, ist man da auf ganz anderen MGMT Layer unterwegs, ohne dass man wirklich was gewinnt.

In solchen kleinen Strukturen wie hier, ist das auch überhaupt nicht notwendig. Rein formal würde ja auch ein großer Switch reichen um alles abzudecken, insbesondere auch von den Ressourcen in solchen Dinger. (Tabellen und Co.)

Wir haben auch Racks, da sind 12 Access Switche drin, jeder hängt am Distri Layer und zwar für sich mit den selben VLANs. Da hätte man auch nen Stack nehmen können.
Klar ist so nen Stack netter zu administrieren, wenn man nur mit "einem" Gerät hantieren muss und nicht mit hunderten.
Hier kommt dann bei z.B. Aruba Netedit zum Tragen. Da kann man nämlich alle Geräte in einem Schrank zusammen, aber dennoch diskret, administrieren. Auch das FW Ausrollen ist darüber mit einem Klick machbar, prinzipiell für ein komplettes Netzwerk. (aber Obacht bei den Kaskaden)

Stacks sind perse nichts schlechtes, nur ist das auch kein fire and forget Ding. Das gehört schon richtig durchdacht. Ein Stack in einem Schrank, für einen diskreten Netzbereich ist halt auch was anders, als wenn man etliche Stacks mit gestretchten Netzbereichen hat. Dieser Komplexität muss man beim LAN-Design Beachtung schenken.
Da wir z.B. die Netze über etliche Accessknoten verteilen, ist da die Vorgabe, eben keine Stacks, sondern diskrete Switche mit möglichst wenig Protokollkomplexität (xSTP z.B.) einzusetzen. Von Herstellereigenen Sonderprotokollen noch nichtmal angefangen.
Beitrag automatisch zusammengeführt:

Ich kann von den Ubiquiti EdgeSwitches nichts schlechtes berichten, sind zwar weniger Klicki-Bunti als die UniFi-Switches, liefen aber in meiner Zeit als Netzwerkadmin super.
Für mich sind die EdgeGeräte überhaupt nicht mehr auf der Höhe der Zeit. Der große EdgeRouter hat 8x 10GBE. Die Switches helfen da auch nicht weiter.
Bei den Unifi Geräten sieht das anders aus, nur fehlen da Enterprisefeatures wie z.B. redundante NTs bzw. Hot Swap. Diese DC red. Option ist halt nen schlechter Witz.
Das haben auch die HP 2910. Der Unterschied ist, dass die Dinger bereits zur Mondlandung dabei waren. Heute ist es für niemanden mehr ein Problem sich nen hot swap NT bei einem NT Hersteller zu besorgen und das 2x in das System einzubauen. Da hat man in China mehr als genug Auswahl.

Des Weiteren ist es für mich nicht verständlich, warum Ubi trotz des know hows, eine MGMT-Backplane übers gesamte Netz legen zu können, es nicht schafft, eine Clusterlösungen zu bauen.
Dann hätte man, meine Meinung nach, wirkliche EnterpriseHW. So ist das am Ende nur SoHo Kram.
Der hat durchaus seine Anwendungen, aber mehr als nen überschaubares Officenetz sehe ich da nicht. Wenn eine Firma jetzt etliche Standorte hat, dann ist die WLAN ZentralMGMT-Sache ganz nett sein, das haben andere aber auch.

Das gepaart mit dem Umstand, dass SDN immer vom Problem der Patchnotwendigkeit betroffen ist (da ist Ubi kein Einzelfall), sehe ich da bei Ubi eher eine größere Baustelle. Denn ohne deren SDN geht quasi garnichts mehr. Bei anderen Herstellern kann man den ganzen Kram wenigstens noch abschalten und klassisch weitermachen. Daher sollte man sich genau überlegen, was man sich da anschafft.

Ubi entwickelt zu viel klicki bunti. Auch deren neuste Idee, Ports irgendwie lustig leuchten zu lassen, ist wieder so nen Ding, wo ich mich frage, welcher seriöse Admin das wirklich braucht. Mitbezahlen muss man aber trotzdem.
Ubi ist das Apple der Netzwerktechnik. Für Enterprise nicht zu gebrauchen, sehr gehypt und hip aber schön anzuschauen. Muss man wissen, was einem lieber ist.
D.h. nicht, dass andere Hersteller nicht auch ihre Probleme haben. Ich kann bei Aruba auch Bücher zu schreiben, nur ist das alles im vertretbaren Rahmen.
 
Zuletzt bearbeitet:
Jetzt hab ich mehrfach gehört das die zwar lustig und cool sind aber eben nicht stabil genug laufen für ein Unternehmen und eher so für die Größe Arztpraxis ausgelegt sind. Ich mein die 48er POE kosten trotzdem 1600 Euro und das ist für mich jetzt kein Consumerprodukt.
Die Support Zeiten sind halt Consumer und wenn du bei der Firma noch länger als 2 Jahre Arbeiten willst würde ich die Finger von Unifi und allen anderen Startup klickbunti Buden lassen.
Ich Persönlich hätte zumindest keine Lust dem Chef zu erklären das das 40k€ Equipment nach zwei Jahren dann nicht mehr nutzbar ist, weil der Support eingestellt wurde und man den Kram nicht mehr in den Controller importieren kann. Ubiquiti hat das nicht nur einmal mit ihren Produkten in der Vergangenheit gemacht.
 
Mal davon ab das Support und UBNT in einem Satz eher weniger zusammenpassen. Günstig waren die Switches auch noch nie, für das gebotene fand ich die eigentlich immer zu teuer.

Für mich sind die EdgeGeräte überhaupt nicht mehr auf der Höhe der Zeit.
Warte da auch nur noch drauf das die da alles komplett einstellen, ist ja fast nur noch ein Randprodukt
 
Die Frage ist halt: über wie viele Switchen reden wir hier im Access, welche Datenraten gehen von wo nach wo, was kommt in Zukunft vielleicht an Bedarfen dazu, etc.
So ist das gerade leider alles etwas Glaskugelschauen ohne konkrete Infos zu haben.

Wenn ich hier HPE lese würde ich aber zum Beispiel auch Mal Cisco und Juniper in den Ring werfen... Preislich nehmen die sich im Grunde am Ende alle nichts.

Gerade auf Core-Ebene find ich dann so Geschichten wie die vpc im Cisco Nexus (wo wir dann eigentlich schon bei richtigen Datacenter-Switchen wären) einfach echt schön gelöst. Zudem die Automatisierung über Ansible recht gut dokumentiert ist.
Bisschen nervig hingegen ist die nicht einheitliche CLI zwischen IOS und NX-OS und somit den verschiedenen Serien bei Cisco.
 
Gerade auf Core-Ebene find ich dann so Geschichten wie die vpc im Cisco Nexus (wo wir dann eigentlich schon bei richtigen Datacenter-Switchen wären) einfach echt schön gelöst.
Das sind ja auch die von uns angesprochenen Cluster-Lösungen. Da ist ja vPC nichts spezielle. Das ist auch nur eine Clusterlösung wie das Aruba VSX, das Juniper ICCP oder Ruckus MCT.
Daher auch diese etwas neutraler verfassten Vorschläge oben.
Und klar sind das dann auch Core Switches, die eben etwas spezieller sind wie ein CU Access. Das kann aber, je nach Risk Class dennoch Sinn machen. Ggf. ist die Verortung etwas schwieriger, aber da muss man ggf. durch. Wenn aber der Netzwerkausfall direkt für Schmerzen sorgt, und das ist bei der Digitalisierung der Fall, dann muss man das eben so machen.

Man sollte das halt alles auf den Tisch legen und klar bewerten und kommunizieren.
Wenn ich hier HPE lese würde ich aber zum Beispiel auch Mal Cisco und Juniper in den Ring werfen... Preislich nehmen die sich im Grunde am Ende alle nichts.
Gerade den letzten Part bezweifle ich. Eine TCO umfasst eben auch das, was nach dem Invest kommt. Und da sind notwendige Supportverträge nicht zu verachten.
Wir zahlen im Jahr für 4x Broacde MLX-16 den Gegenwert für 4 Aruba Core Swiches, jedes verdammt Jahr. Das kann also, gerade wenn man sowas länger betreibt richtig ins Geld gehen.
Da ist Aruba schon weit vorne, was genau den Fakt angeht. Da gibt es sowas, für die HW nicht.

Bei den ArubaOS-CX ist es halt leider aber auch so, dass gefühlt jedes Switch nen anderes Featureset hat. Das sollte man sich also vorher genau anschauen.

EDIT:
Was jetzt nicht heißt, dass man nur Aruba kaufen darf und alle anderen, die das nicht machen, sind entweder zu blöd zum Rechnen oder haben zu viel Geld.
Das ist, wie so vieles in der IT, auch Situationsbedingt. Wer ständig über 20EUR für 3 USB Sticks diskutieren darf, der wird erst recht diskutieren, warum man jetzt schon wieder den Support für Gerätelandschaft XYZ bezahlen soll. Wer solchen Vorgesetzten/Geschäftsführer hat, ist da nur am Rummachen. Hat man aber eine saubere IT-Struktur, die auch so in das Unternehmen eingegliedert ist, dass IT als wichtiger Bestandteil angesehen wird, wird ggf. eher weniger diskutieren müssen. Damit sind solche Gelder als notwendige Ausgaben akzeptiert und einkalkuliert.

Auch sollte man bei sowas halt bedenken, wie lange betreibt man sowas. Wer alle 7 Jahre den Netzwerkkram aufn Müll wirft und ne macht, der kann alle 7 Jahre neu entscheiden, war das nun gut oder nicht oder müssen wird was ändern etc.
Wer sowas aber dann tauscht, wenn bereits alles im Sterben liegt, der hat halt sehr lange Wirkstrecken seiner Entscheidung.

Weiter ist halt auch die Frage, welche Leute man wie bekommt. Grundsätzlich sage ich, dass sich alle CLIs der Welt nichts nehmen. Wer ein Gerät kann, kann (kann können) auch alle anderen. Es ist eben die Frage, wieviel Zeit bekommt man, sich auf was neues einzulassen. Wenn man alle 5 Jahre den Hersteller wechselt, muss auch das Wissen mit wechseln. Das kann ein Problem sein, je nach Organisationsstruktur. Da macht es eher Sinn, wenn man in einer Schiene bleibt und einfach so weitermacht, wie auch vorher. CCNA und Co. ist halt gefühlt der Standard in der Netzwerkausbildung. Und wie bei vielem sollte es zwar die Grundlagen und damit Transferleistungen ermöglichen, nur ist das leider nicht immer bei jedem gegeben. So kommt es, dass einer, der nur Cisco kann, auch nur Cisco können mag. Stellt man dem Aruba hin, tut sich erstmal Garnichts mehr.

Daher ist das Vergleichen von 5 Featuretabellen halt nur die halbe Wahrheit beim Netzwerkdesign/Geräteauswahl.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh