[Sammelthread] 10Gbit Homenetzwerk

@2. Aber genau darum geht es. Nur weil etwas verbreitet ist, bedeutet es nicht, dass die Treiber endsprechend gepflegt sind. Und da gibt es nunmal auf dem Markt deutlich bessere Produkte.
Wenn jemand ausschließen kann, dass er in die Situation kommt OK. Aber genau das war das Ansinnen von besterino.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sorry, aber euch fehlt etwas Augenmaß. Zweieinhalb mal so viel auszugeben, um sich irgendeine Option offen zu halten, ist nicht wirklich vernünftig.

So wie ich es auf die Schnelle verstanden habe gibt es auch einen BSD-Treiber.

Aber man kann ja auch eine X540 nehmen. Die kostet weniger und wird Afaik überall unterstützt.
 
Und genau das Augenmaß sagt einem, dass man das macht, was sinnvoll ist ohne Geld zu verschwenden. Und bei einem Server ist meiner Meinung jede Einschränkung durch die Hardwarewahl eine Verschwendung.
Bei einem Client ist Aquantia oder auch Tehuti OK. Da man dort in der Regel Linux oder Windows einsetzt, sprich Massenware.

Bei einem Server, wo jedes Betriebssystem für den passenden Usecase zur Anwendung kommen kann, sollte man alle Optionen offen haben. Und da bieten sich ServergradeNICs an. Da dort ein Treibersupport durch das OS eher gegeben ist.
Gibt ja auch noch was wie Solaris oder auch ESX und das ist je SpielNIC ein Problem.
Das ist zumindest meine Erfahrung der letzten >20Jahre.
Früher war das z.B. die 3COM 905.

Intel NICs oder auch Melanox kosten eben so gut wie "nichts"...
 
Zuletzt bearbeitet:
Kann der Diskussion nicht so recht folgen 🙃
 
Hallo zusammen,

an die Fraktion die sich den Switch sparen will... aus eigner Erfahrung: Das geht, aber nicht unbedingt komfortabel - sofern man den Server nicht einfach nur als aufgebohrte externe Festplatte verwendet sondern den Server an den Router hängt und den Hauptrechner via Brücke an der Server.

Ich hatte das unter Proxmox, da ging es relativ einfach. Hatte mich dann aber aus Kompatibilität für Win 10 Pro + Hyper V als Grundlage entschieden. Damit hat es bei mir nicht wirklich funktioniert. Man kann entweder das Internet freigeben, da war aber nach jedem Neustart das Netz weg. Netzwerkbrücke ging, aber bestenfalls mit 5 Gbit. Aber auch hier oft mit Einschränkungen. Abbrüchen. Freilich hab ich in verschiedenen Konfigurationen verschiedene fixe IPs verteilt, aber irgendwann aufgegeben. Ich hab es tat sächlich so gelöst eine virtuelle Maschine mit Ubuntu aufgestezt, in der eine Brücke nach dieser Anleitung, damit geht es.


Andere Frage: Intel X710-DA2 . wie zickig sind die was Trasnceiver aller Art (inkl 10Gbase-T) angeht? Bzw. DAC Kabel?
 
Kann der Diskussion nicht so recht folgen 🙃
Netzwerkkarten haben wie jede andere Hardware auch ein Treiberproblem. Das zu wählende OS muss diesen Treiber haben oder es müssen diesen zur Verfügung gestellt werden.
Das mag bei Windows und Standardlinux noch passen. Es gibt aber auch etwas spezielle OS, wo das nicht mehr der Fall ist.
Will man ein solches OS nutzen und man hat keinen Treiber für die HW, dann kann man die HW auch nicht nutzen. Wieviel die Hardware dann noch Sinn macht, kann man sich selber denken.

Unter dieser Maßgabe ist es also ggf. sinnvoll sich Hardware zu besorgen, die entweder eine gute OS Integration oder einen breiten Treibersupport haben. Das ist in aller Regel bei ServergradeNICs der Fall.

Daher der Ansatz mit ServergradeNICs zu fahren. Da kauft man dann natürlich keine neue quad10GBE NIC sondern ggf. etwas gebrauchtes bei i-bäh, wo es das Zeug schon für unter nem Fuffi gibt.

Wer sicher weiß, dass er alles mit Windows machen wird OK. Will man aber auch mal andere ggf. exotische Sachen machen, dann ist das ein valides Problem.

Andere Frage: Intel X710-DA2 . wie zickig sind die was Trasnceiver aller Art (inkl 10Gbase-T) angeht? Bzw. DAC Kabel?
Mit den IntelNICs, mit denen ich immer rumspiele, die hätten gerne auch intel labeled SFPs.
Aufgrund interner Verschaltungen akzeptieren die nur MultimodeSFPs. Singlemode sind zumindest bei einigen OEMs geblacklistet. (ich glaube aufgrund des powerbudgets)
Ich nehme jetzt mal an, dass sich die dual wie die quad verhalten. (kann aber auch sein, dass die quad da restriktiver sind wegen der +2 Ports)
10GBASE-T würde ich daher direkt mal ausschließen, da die deutlich über 2W ziehen.

DAC nehme ich dann an, analog, müssen halt gebrandet sein. Ich glaube, dass es bei i-bähn ab und zu mal X520 und DAC Sets gibt. (von DACs lasse ich aber grundsätzlich die Finger -> von daher macht nur Versuch klug)
 
Zuletzt bearbeitet:
Netzwerkkarten haben wie jede andere Hardware auch ein Treiberproblem. Das zu wählende OS muss diesen Treiber haben oder es müssen diesen zur Verfügung gestellt werden.
Das mag bei Windows und Standardlinux noch passen. Es gibt aber auch etwas spezielle OS, wo das nicht mehr der Fall ist.
Will man ein solches OS nutzen und man hat keinen Treiber für die HW, dann kann man die HW auch nicht nutzen. Wieviel die Hardware dann noch Sinn macht, kann man sich selber denken.

Unter dieser Maßgabe ist es also ggf. sinnvoll sich Hardware zu besorgen, die entweder eine gute OS Integration oder einen breiten Treibersupport haben. Das ist in aller Regel bei ServergradeNICs der Fall.

Daher der Ansatz mit ServergradeNICs zu fahren. Da kauft man dann natürlich keine neue quad10GBE NIC sondern ggf. etwas gebrauchtes bei i-bäh, wo es das Zeug schon für unter nem Fuffi gibt.

Wer sicher weiß, dass er alles mit Windows machen wird OK. Will man aber auch mal andere ggf. exotische Sachen machen, dann ist das ein valides Problem.


Mit den IntelNICs, mit denen ich immer rumspiele, die hätten gerne auch intel labeled SFPs.
Aufgrund interner Verschaltungen akzeptieren die nur MultimodeSFPs. Singlemode sind zumindest bei einigen OEMs geblacklistet. (ich glaube aufgrund des powerbudgets)
Ich nehme jetzt mal an, dass sich die dual wie die quad verhalten. (kann aber auch sein, dass die quad da restriktiver sind wegen der +2 Ports)
10GBASE-T würde ich daher direkt mal ausschließen, da die deutlich über 2W ziehen.

DAC nehme ich dann an, analog, müssen halt gebrandet sein. Ich glaube, dass es bei i-bähn ab und zu mal X520 und DAC Sets gibt. (von DACs lasse ich aber grundsätzlich die Finger -> von daher macht nur Versuch klug)
Nö nicht mehr, gab einen Thread im STH Forum, man kann den Brandinglock entfernen.
Ob das jetzt auch für die X710 gilt weiß ich nicht, hätte aber eine hier liegen :fresse:
 
Ich würde jedenfalls eher gebrauchte Server-Nics nehmen als neue Aquantia/Tehuti/Realtec.

Muss gar nicht zwingend Intel sein: z.B. Broadcom, Chelsio, Mellanox - m.E. auch alles in Ordnung und eben gebraucht oft für gute Preise zu haben. Die fliegen eben aus den Unternehmen raus weil entweder beim Kauf dabei und nicht benötigt oder aus Support raus oderoderoder... und funzen dann noch jahrelang problemlos im Homelab.

Es macht eben einen erheblichen Unterschied beim Zeit- und Spaßfaktor, wenn man auch mal ein ESXi, Solarish, BSD, Hyper-V (Core) installieren kann und das outofthebox mit der Außenwelt lübbt und man nicht manuell irgendwelche Treiber injecten muss.

Die NICs werden dann auch zum Beispiel meistens von Synology, Qnap & Co. erkannt - selbst wenn die nicht offiziell supported sind.

Lange Rede, kurzer Sinn: wer billig kauft, kauft 2x. Zumindest oft. Vor allem, wenn man noch nicht ganz genau weiß, wo die Reise hingehen soll.

Letzte Anmerkung: ich hab sowohl als auch hier. Am wenigsten genutzt ist die Tehuti, genau weil ich keine Lust habe mich bei der Hardwarezusammenstellung schon bei der Software einzuschränken.

Allerletzte Anmerkung: außerdem simma hier im LUXX! :d
 
Zuletzt bearbeitet:
Die Aquantias werden auch sau warm, hab locker ne Chiptemperatur von 75..80 °C.
Allerdings befeuert die auch das iSCSI... =)
Bin gerade am überlegen, zumindest im Arbeitszimmer, nen LWL zu legen, damit die Temps am Switch runter gehen, durch *dumme* Fehlplanung hab ich als Backbone nur CAT7 liegen und zwei von den RJ45-Transceivern machen zudem auch mächtig Wärme (=laut) im CRS328...

Weiterhin:
VLAN-Trunks sind unter Win10 (Pro) äußerst eingeschränkt möglich, bei den Aquantias (garnicht).
Ginge das bei den Mellanox-Karten analog wie bei den Intel-Karten?
Hab irgendwie keine Lust, nur fürs MGMT-VLAN einen extra Port in der Wand herzugeben...
(JAja, Win 10 Pro+ hat virtuelle Switche uswusf. Ich hab auch kein Bock auf Hyper-V.)
 
Ist ja nicht so, als dass die Datenblätter nur Marketing Blahblah enthalten...
Woohoo, sie können alle 802.1Q... -.-
Es geht mir nicht um *ein* VLAN, ich brauch mindestens *drei* auf dem Kabel.

Selbst in der Anleitung zum Mellanox-Windows-Treiber steht nix brauchbares drin, wie ich unter *non* Server Windows VLAN-Trunks einrichten kann.
Im Netz findet man nur Anleitungen für Windoof Server 20xx und den Server Manager hab ich aber nunmal in nem Client-Windows nicht.
Bei den Intel-Karten kann man das im Treiber direkt einstellen, danach hat man *flupp* ne virtuelle Netzwerkkarte mit dem entsprechenden VLAN-Tag, einfach, intuitiv.
Ich hätte auch nichts dagegen, das händisch mit mlxtool zu machen, nur findet man ja nichts dazu.

Deswegen hatte ich ja die Frage in den Raum gestellt, ob's eventuell hier schon mal jemand durch gemacht hat.
Ich würde ungern jetzt auf Teufel komm raus umrüsten, nur um dann festzustellen, dass ich trotzdem wieder den Hyper-V brauche.

So viel zum Thema informieren.
Aber egal, jetzt einen Kaffee und noch t-2 Tage bis zum Kinder hüten! :fresse:

//edith: Ich war zu blöd, IEEE-Normen korrekt wiederzugeben (wahrscheinlich Kaffeemangel).
 
Zuletzt bearbeitet:
Wenn es keinen Treibersupport gibt, brauchst eben eine andere Funktion.
Unter Windows 10 brauchst du ein vSwitch und das bekommst du durch die Installation der Hyper-V-Rolle. (man muß dann auch keine VM einrichten)
 
Ich habs befürchtet...
Wenn ich dieses drecks Win10 nicht für Spiele bräuchte... =(

Aber zum Thema:
Unter Linux geht das VLAN-Trunking sehr wohl mit Aquantia-Karten, hier eben auf händischem Weg über das Anlegen virtueller Netzwerkkarten mittels nm-connection-editor.
 
Es ist halt immer eine Frage, auf welche Ebene etwas passiert. Es ist unter Linux auch keine Treiberfunktion, sondern wird auf OS-Ebene gelöst. Analog zum Teaming. Es ist quasi in "Software" gelöst. (auch wenn der Treiber das mit Software macht)
 
So, mit O.
Habe mir jetzt mal 2 Stück X520-DA1 geschossen:

Fluppen die in einem PCIe 3.0 x16-Slot, der elektrisch nur x4 ist?
(Notfalls hau ich halt ne Melli CX3 aus dem NAS oder ESXi dafür raus und stopf sie in den Desktop, die sind x4.)
Dazu die Finisar-Transceiver von @craxity und gleich kommt noch ein 15 m OS2-Kabel dazu.
Die LC/LCs kann ich ja einfach kreuzen, dazu einfach die einzelnen LCs raus friemeln und andersrum wieder an der Halteklammer fest machen?

Hätte dann ne günstige QNAP AQC107 und ein Mikrotik S+RJ10 übrig. =)
 
Moin zusammen,

ich habe aktuell zwei 10G-BaseT-fähige Clients und möchte den Server auch entsprechend aufrüsten. Dazu zwei Fragen:

Ich habe aktuell einen vernünftigen managed POE-Switch, der allerdings leider nur SFP-Ports hat - keine SFP+. Variante 1 wäre, den Switch durch einen anderen zu ersetzen, z.B. Mikrotik CRS328 oder HP Aruba 1930. Variante 2 wäre zusätzlich zum bestehenden Switch einen Mikrotik CRS305 anzuschaffen. Hätte ich abgesehen von geringeren Investitionen darüber weitere Vor- oder Nachteile?
Kann ich beim CRS305 den Uplink zum vorhandenen Switch über den vorhandenen RJ45-Port herstellen oder muss das über einen der SFP-Ports laufen? Ist der CRS305 managed, kann ich die Ports für ein oder mehere VLANs taggen?

Aufgrund des Stromverbrauchs und Hitzentwicklung macht es vermutlich Sinn, den Server nicht per 10G-BaseT anzubinden, sondern optisch bzw. über ein DAC-Kabel. Welche Karte wäre hier grundsätzlich empfehlenswert? Hier wird häufig Mellanox empfohlen, aber nach welchem Modell(en) sollte man konkret Ausschau halten?
Der Server stehe im Keller quasi neben dem Switch - welches DAC-Kabel mit 2-3m Länge wäre zu empfehlen?

Danke vorab!
 
Sagen wir mal so, Switche haben keine Uplinkports. Das ist nur eine logische Aufteilung die dem Menschen bei irgendwas hilft was im Kopf zu sortieren.

DAC-Kabel würde ich persönlich garnicht nehmen. Lieber opt. SFPs mit einem Kabel einer Länge deiner Wahl. Könnte auch 20m sein, die Kabel tragen nicht dick auf. (so kann man das Kabel jeder Zeit beliebig erweitern)

Was der MT kann, bekommt man auch durch Recherche auf der Homepage raus. Da gibt es sicherlich ein schickes Handbuch. Dann hat man das selber rausgekommen ob managed oder nicht und auch gleich ein Erfolgserlebnis.
Beitrag automatisch zusammengeführt:

Die LC/LCs kann ich ja einfach kreuzen, dazu einfach die einzelnen LCs raus friemeln und andersrum wieder an der Halteklammer fest machen?
Du kannst die Klammer im Zweifel auch einfach weglassen.
 
Aufgrund des Stromverbrauchs und Hitzentwicklung macht es vermutlich Sinn, den Server nicht per 10G-BaseT anzubinden, sondern optisch bzw. über ein DAC-Kabel.
Bei einem einzelnen Port ist der Unterschied beim Stromverbrauch nicht so entscheidend. Aber es macht preislich schon einen Unterschied, da man eine alte Mellanox für 25€ kriegt und ein passendes DAC für nen 10er. Ich habe übrigens noch ein 5m DAC hier übrig, das ich schonmal mit einer Mellanox-Karte und dem Aruba 1930 getestet habe.

@underclocker2k4 Ich verstehe echt nicht, warum du immer wieder Transceiver und optische Kabel empfiehlst, wenn ein DAC reicht.
 
Zuletzt bearbeitet:
@negotiator:
Je, nachdem, wieviel du alle machen willst.
Der CRS328 ist ein super Ersatz für fast jeden PoE-Switch, L2 und teils L3 managed (da aber lahm).
VLANs (und VLAN-Trunks) gehen damit auch einwandfrei.

Der CRS305 kann über den RJ45 mit PoE versorgt werden und du kannst gleichzeitig den RJ45 als Uplink nutzen und hast so vier SFP+ Ports frei.
Ist halt nicht rackmountable. =)
Da der CRS305 dieselbe Lizenz für RouterOS wie der CRS328 besitzt, hat er praktisch dieselben Funktionen.

@craxity:
DACs machen halt maximal 10G, danach ist Schluss, wenn man später auf 40/100G umrüsten will, hängt man zunächst fest.
Aber wer braucht schon 100G... :fresse2:
Ich hab im Schrank auch nur DACs.

//edith: Satzbau...
 
Zuletzt bearbeitet:
Wir haben hier 200G-DAC von Dell für 800€/St, glaube ich. Evtl. netto.
Halte ich auch für völlig sinnlos und stimme underclocker24 mit Transceiver+Kabel zu. Ich bin sicherlich hier nicht der Einzige, der mehrfach im Jahr Rechner/Server anders sortiert und laufend andere Kabellängen benötigt. z.B. sind DAC faktisch auf den "Serverraum" beschränkt, die Kombo geht dagegen auch schnell mal an den PC von der Wanddose aus - der aber evtl. eben nicht 3m sondern 4m entfernt steht. Scheint hier aber mehr in Richtung Glaubensfrage zu gehen. Ich bin also der Kombo-Religion zugehörig! ;)
 
@underclocker2k4 Ich verstehe echt nicht, warum du immer wieder Transceiver und optische Kabel empfiehlst, wenn ein DAC reicht.
Weil der Preisunterschied quasi nicht existent ist.

Ich mir gerne die Optionen offen halte, jedewede Installation vorzunehmen, die ich mir vorstelle. Und da ist die die Trennung von Kabel und SFP nun mal der einfachste Weg. Soll der Rechner plötzlich 3m weiter weg, dann mache ich das und hab kein Problem, wenn die Leitungslänge bei DAC am Ende ist.

Des Weiteren ist man bei Transceivern auch in der Lage, flexibel auf die Eigenheiten der aktiven Komponenten einzugehen, was die Kodierung angeht.

Des Weiteren haben DAC auch das Problem der Potentialverschleppung. Daher ist die oberste Maßgabe bei DAC, alles muss direkt metallisch verbunden sein. Man kann natürlich AOCs nehmen...

DAC Kabel sind oftmals auch äußerst klobig und störrisch

Das einzige, was meiner Meinung nach für DAC spricht, ist die einfache Handhabung. Ich habe hier grad nen Karton mit 120 SFPs neben mit liegen, mich überfordert das also nicht im geringsten da irgendwas irgendwie zusammenzustecken.
 
Zuletzt bearbeitet:
Bei einem einzelnen Port ist der Unterschied beim Stromverbrauch nicht so entscheidend.
Bei der Installation spart man evtl. 5W. Ich würden mir eher über die thermischen Parameter Gedanken machen als über die Stromaufnahme als solche.
Beitrag automatisch zusammengeführt:

@danielmayer Danke für den Beitrag, aber das hat doch nichts mit dem konkreten Anwendungsfall hier zu tun, oder?
Klar, wir sollten uns schon mal auf 200G.

PS: Nen 400GBASE-ZR kostet bei Flexoptix 15k. Nur falls jemand bei der Dame des Hauses den Haushaltsplan fürs nächste Jahr diskutieren möchte...

EDIT:
War nicht letztens erst nen Kollege im 40G Thread, der da Faxen mit seiner IB-Verbindung und DACs hatte?!
Kann man sich alles sparen. Die Kabel gehen deutlich weiter als 10G, man muss dann nur die SFPs wechseln.
 
Zuletzt bearbeitet:
Weil der Preisunterschied quasi nicht existent ist.
Der Unterschied ist schon da.

Ich mir gerne die Optionen offen halte, jedewede Installation vorzunehmen, die ich mir vorstelle.
Das glaube ich dir gerne. Aber wenn man anderen ein Rat gibt, sollte man m.E. schon auf die konkreten Anforderungen des Fragenden eingehen. Warum soll jemand anderes unnötig mehr Geld ausgeben, weil du gerne flexibel bleibst?

Soll der Rechner plötzlich 3m weiter weg, dann mache ich das und hab kein Problem, wenn die Leitungslänge bei DAC am Ende ist.
Ein DAC kostet etwa so viel wie ein Patchkabel. Aber man spart sich die Transceiver. Falls man später wirklich eine andere Länge braucht (was ja nicht eintreten muss), dann braucht man wirklich die Transceiver und ein längeres Kabel. In beiden Fällen hat man ein kurzes DAC oder LWL-Kabel übrig. Der Unterschied istaber, dass man unnötigerweise für die Transceiver bezahlt hat, falls das kurze Kabel immer reicht. Mal abgesehen davon, dass due Auswahl etwas schwieriger ist, wenn man nicht in der Materie ist, und die Ausfallwahrscheinlichkeit bei drei statt einem Bauteil größer sein dürfte.

Des Weiteren haben DAC auch das Problem der Potentialverschleppung. Daher ist die oberste Maßgabe bei DAC, alles muss direkt metallisch verbinden sein. Man kann natürlich AOCs nehmen...
Das sollte doch bei zwei Geräten, die nebeneinander stehen, kein Problem sein. Sonst könnte man ja keine geschirmten Ethernet-Kabel nutzen.

DAC Kabel sind oftmals auch äußerst klobig und störrisch
Schon, aber wenn man nicht gerade ein komplettes Rack damit verkabelt ist es kein Nachteil. Eher würde ich zwei Geräte, die im Keller nebeneinander rumstehen, nicht mit einem filigranen LWL-Patchkabel verbinden wollen. Ich finde da ein robustes DAC sicherer.
 
Also, ich sehe es als Privatperson zweigeteilt:
Im Schrank setze ich definitiv auf DACs, wegen der Einfachheit.

Aus dem Schrank raus sehe ich LWL und / oder Kupfer auch als flexibler.
Je nachdem, ob man die Hütte aufschlitzen und Leerrohr verlegen kann, darf oder will. =)
Im Nachhinein finde ich es traurig, dass wir bis zum Einzug nur zwei Monate hatten und ich mich dann für Duplex-CAT7 ohne Leerrohr pro Raum entschieden habe...
Aber naja, für die nächsten 20 Jahre sollte es reichen und 40 / 100 GBit bleiben dann rein auf den Serverschrank beschränkt.
Eventuell dann 20 GBit im Trunk als Backbone zum 2. Serverschrank im Arbeitszimmer, aber der *muss* leise bleiben.
 
Oh je, ich wollte hier keine Glaubensfrage lostreten :-)
Für mich ist das Thema LWL absolutes Neuland und auch wenn ich sehr IT-affin bin und entsprechenden IT Hintergrund habe, bin ich schon bei der einfachen Suches bei fs.com zum Thema LWL+opt. SFP komplett lost. Single Mode / Multimode - keine Ahnung, was ich da brauche und was der passende Transceiver dazu ist.
Tendenziell - und da ich nicht vor habe, Server und Technikschrank in naher Zukunftz zu bewegen und dadurch andere Längen benötige - sieht daher die Lösung mit dem DAC-Kabel für mich einfacher aus. Mal unabhängig vom höheren Preis: Habe mich mit einem AOC Vorteile gegenüber einem DAC? Stromverbrauch?
Alternativ: Habt ihr mal ein paar Links zur Lösung LWL/SFP-Modul, damit ich verstehe, nach was ich konkret suchen muss?

Nochmal anders herum gefragt: Habe ich bei einer der vorgeschlagenen Lösungen Vorteile im Hinblick auf Stromverbrauch und Hitzeentwicklung? Also z.B. LWL/SFP < AOC < DAC?
Am Ende ist es mir ehrlich gesagt egal, ob eine Lösung €30 mehr oder weniger kostet.

Und nochmal zurück zur Netzwerkkarte: Gibt es auch hier von Euch Ideen, was sinnvoll ist? Gerne auch ältere Hardware, solange der Stromverbrauch ok ist und ESXi unterstützt wird...
 
@negotiator Eigentlich ist es keine Glaubensfrage. Es gibt verschiedene Produkte mit unterschiedlichen Vor- und Nachteilen. Je nach Situation passen alle oder manche besser oder schlechter. Und weil es nicht ganz einfach ist, ist das Forum hier ja so nützlich.

Also du kannst entweder multimode oder singlemode nehmen. Aber wenn dann für jede Verbindung das gleiche. Also singlemode Transceiver und singlemode Kabel. Die zwei Standards unterscheiden sich bei der maximal möglichen Kabellänge, aber das spielt bei dir keine Rolle.

Hier ein Beispiel für ein singlemode Patchkabel:
Wichtig ist hier der Kabelstandard "OS2" und die Stecker LC/LC.

Hier ein Beispiel für passende Transceiver:

Hier ist ein multimode Patchkabel:
Und hier die passenden transceiver:
Wichtig sind auch hier die Stecker. Ich habe jetzt OM3 ausgesucht. OM4 ist ein höherwertiger Standard für das Kabel aber auch das spielt bei dir keine Rolle.


AFAIK haben AOC den Vorteil der größeren möglichen Leitungslänge.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh