[Sammelthread] 10Gbit Homenetzwerk

Hatte ich heute auch erst bei einem 2U Server. Da bricht man sich aber nicht die Fingern, sondern eher den Fingernagel.

Nur mal so nen Denkansatz. Verkabel mal in einem Rack 200 Verbindungen oder in einem Server 16 Verbindungen durch den Kabelarm.
Glaub mir, danach machst du nie nie nie wieder DAC.

PS: Ab QSFP ist der Bügel aber auch kein Thema mehr. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal noch ne Frage in die Runde.
Ich will in Q3/Q4 eine Hausverkabelung etwas modernisieren.
Im Haus gibt es aktuell nur Netzwerkverkabelung provisorisch über Aufputz-Kabelkanäle.
Es ist auch keine Sternverkabelung vorhanden.
Ich hatte hier vor von einem Hauptverteiler zu zwei Unterverteilern zu verkabeln.
Angedacht war dies über ein 12-fasriges MTP-Kabel, angeschlossen an sowas (natürlich unter Beachtung der Polarität):
https://www.fs.com/de/products/57016.html
Aktuell wird mit 10G geplant. Sprich es werden von den 12 Fasern 4 verwendet werden.
Der Rest liegt erstmal unbenutzt. Vorteil von dem MTP wäre, dass ich es voraussichtlich leichter durch Wände bekommen würde.
Macht das Sinn um später mal weiter aufrüsten (z. B. LACP) zu können oder sollte ich eher zu den Verteilern jeweils ein Duplex-SMF und ggf. neue Transeiver und u. U. dann dafür neue Switche ordern (vermutlich dann deutlich teurer)?
Die Bandbreite wird aktuell bei weitem nicht ausgelastet und will nur aus dem 1G-Flaschenhals raus.
Aber was in Zukunft benötigt wird, weiß man jetzt ja noch nicht. Ist letztlich mehr Spielerei als es wirklich benötigt wird.
 
Muss man halt wissen. Deine Verkabelung für einen Link kostet dich halt locker 250EUR, wobei schon allein schon die Terminierung 150 kostet und ein ~30m Kabel dich 100EUR kostet.
Dem gegenüber stehen rund 15EUR für ein LC-D Kabel.
Und was ist leicher? 20mm Loch in die Wand und das Kabel geht so durch, ganz ohne Flutschi.
Dafür hast du dann beim MPO 6 Links und bei einem LC-D nur einen. Nimmst du zwei, bist du bei 30EUR. Und man muss die Kabel ja nicht gleichzeitig durchs Loch schieben. Kabel 1 rein, Kabel 2 hinterher usw. Da bekommt man auch easy 6x LC-D durch. Irgendwann wird auch das wieder schwer.
Sinn würde das bei 24Fasern machen, weil das schon spannend werden dürfte mit 12x LC-D durch so ein kleines Loch.

Und viel kleiner wird das Loch auch nicht, wenn du MPO nimmst.
 
Kannst du bestimmt so machen, kannst aber auch beim FS Military Grade LWL-Kabel vorkonfektioniert mit Einzugshilfe und 4 bzw. 8 Fasern holen.
Wenn es dann irgendwann nicht mehr ausreicht gibts mittlerweile günstige CWDM Systeme :fresse:
 
Hm, ja.
Wenn man das so hochrechnet wird das doch ein gutes Sümmchen. Muss ich mir doch nochmal tiefere Gedanken machen :LOL:
 
gibts mittlerweile günstige CWDM Systeme :fresse:
Haste @home zwischen Küche und HWR? ^^

@rowein
Man sollte das durchkalkulieren und wirklich den Sinn hinterfragen.
Auf Arbeit würde ich sowas als schnell Rack2Rack Verbindung einsetzen. Muss man nix spleißen etc. Einfach 3 Kabel werfen und fertig ist ein Rack2Rack Link mit 36x LC-D
@Home muss man dann auch wieder sehen, wo man die verbaut. Wenn man Racks hat ok, wenn nicht dann weniger OK.
Bautechnisch bekommt man das auch ohne die hin, glaube ich.
ansonsten: mehr Fasern = mehr Fasern
Man könnte sich auch überlegen, dass man dann Geräte an genau der Stelle direkt an-/verbindet, falls das Sinn macht, weil spezielles NW-Segment oder sowas.
Rein für SW2SW wäre mir das aber etwas to much.
 
Zuletzt bearbeitet:
Hat sich beim Lesen und Vorstellen halt ganz gut angehört :LOL:
Aber vermutlich reicht Duplex Smf an jeden Unterverteiler mit 10G in dem Fall auch noch Jahrelang aus.
Da kann man notfalls noch nen zweites ziehen oder falls die Preise fallen eben aufrüsten.
Ist sicher die sinnvollere Variante.
Ist in der Tat so, dass die Anschaffungskosten bei der Verkabelung mit MTP doch vergleichsweise sehr hoch ist.
 
Mit SMF bist du auch relativ schnell bei einem Upgrade bei 25G,40G,50G,100-800G. Weil jeder Speed SMF mit LC-D unterstützt, weil das in großen Strukturen der Standard ist und man bei MMF auch in Längenprobleme rennen kann.
Das führt sogar dazu, dass man SMF "short"Range anbietet.
Klar, die Transceiver kosten etwas mehr, das ist aber weniger ein Problem, wenn man in Zukunft upgrade will.
Die Wand muss man auf jeden Fall nicht mehr aufmachen.
Im Idealfall legst du jetzt wirklich gleich 2 oder gar 3 Kabel rein. LACP wäre eine Option, Gerätetrennung oder auch für den Fall, dass eine Leitung tot ist, weil der Stecker hin ist.
 
Kann man normale Patchkabel im Haus verlegen? Also im Prinzip durch Wände und in Kabelkanälen.
Oder sollte man hier eher auf stabilere Varianten zurückgreifen?
Hier schreckt mich der höhere Biegeradius etwas ab.
Konkret geht es um die Unterschiede dieser beiden Kabel:
https://www.fs.com/de/products/40206.html
https://www.fs.com/de/products/40385.html
Die "gepanzerte" Variante lässt sich vermutlich nicht mit kleinerem Durchmesser biegen, wegen der Metallummantelung.
Würde ich dennoch bevorzugen, zumindest im Eigenheim, wo man nicht mal eben schnell neue Kabel ziehen kann wie im RZ.
 
Moin,

da gerade die Aruba ion 1930 im Angebot sind wollte ich zuschlagen.

Da ich noch immer ein wenig unsicher bin was ich alles brauche wollte ich hier nochmal euch fachkundige zur 4-Augen-Kontrolle missbrauchen :)

Setup in Haus:

Keller:

Router
Ein Aruba 1930 24 4sfp+
Patchfeld mit Keystones
NAS
POEs der Unifi APs

Vom Keller aus verteile ich mit einem LC LWL Kabel auf den Dachboden, 3x CAT6 ins EG, 1x CAT6 ins EG für Unifi AP, 1x CAT6 auf den Dachgeschoss (würde als erstes gelegt und habe dann festgestellt, dass ich nicht alle CAT6 durch den Schacht bekomme. Daher das LWL um den Flaschenhals von 1Gbit zu umgehen)

Dachgeschoss:

Ein Aruba 1930 24 4sfp+
Patchfeld mit Keystones

Vom Dachboden verteile ich mit je einem CAT6 Kabel auf alle Räume im 1.OG und Dachgeschoss sowie auf ein Unifi AP im 1.OG

Verkabelung zusammen gefasst:

Hausanschluss -> Router -> Aruba Switch Keller -> LWL ins Dachgeschoss -> Aruba Switch Dachgeschoss -> Patchfeld Dachgeschoss -> Verteilung auf 1.OG Dosen + 1x Unifi AP + Dachgeschoss Dosen

Und eben Aruba Switch Keller -> Verteilung auf EG Dosen + 1x Unifi AP und Keller Dosen

Nun ein paar Fragen...

1.
Benötige ich um das LC LWL an die Aruba Switches anzuschließen einen Transreciver? Wenn ja, welchen könnt ihr für die Aruba Serie empfehlen?

2.
Bei den Unifi APs sind ja POE Adapter bei. Kann ich von diesem POE Adapter in das Keystone-Patchfeld gehen und dann im EG und OG aus der Wand direkt in den AP? Oder übersehe ich hier was?

3. Kann man wenn man an jeder Seite des LWL Kabels die Switches ansteckt einen Speedtest machen ohne das man Internet hat? Also im Switch auslesen wie die Verbindung ist?

Ich möchte mich schon einmal bedanken! Und es tut mir leid wenn ich euch mit absolut laienhaften Fragen nerve... Leider fehlt mir im Moment neben Job, Familie und Haussanierung die Zeit um mich bis ins letzte Detail der Materie einzuarbeiten. :(

Grüße
Jannis
 
Hat zufällig einer von euch gerade eine Connect X3 (Single) rumliegen und könnte mir den Lochabstand vom Kühlkörper abmessen? Meine Karte befindet sich noch auf dem Versandweg und ich würde gerne schonmal einen passenden Wasserkühler dafür raussuchen ;) Danke!!
 
@jannis1986 Zu deinen Fragen:

1.Ja, du brauchst zum Kabel passende Transceiver. LR für Single Mode und SR für Multi Mode. Die Arubas nehmen jeden Transceiver, aber zeigen an, wenn ein "fremder" Transceiver drin ist. Für Single Mode ist der J9151D oder J9151E optimal. Bei mir läuft auch der J9151A sehr gut und ohne Fehlermeldung.

2. Das sollte so gehen.

3. Du kannst auf der Web-Oberfläche der Switche sehen, welche Geschwindigkeit jeder Port hat.
 
Der J9151D ist EOL, neu also nur noch J9151E.

Grundsätzlich muss man sicher überlegen, ob man Singlemode oder Multimode will. Problem ist, dass Multimode ggf. in Zukunft Schwierigkeiten hat, mehr Speed durchzubekommen.
Aktuell bekommt man im Standard 25GBE hin. 40GBE gehen nur mit BiDi-Transceiver.
50GBE mit Duplexleitung wird wohl kommen, 100GBE auch.
Das ist aber aktuell noch nicht wirklich gegeben.
Des Weiteren gibt es da dann Längenprobleme. Sprich bei 50/100GBE ist bei 100m und Multimode Schluss. (wenn also sehr großes Haus, dann Problem ;) )
Darüber wird es noch weniger werden und auch für den ein oder anderen 100GBE Link, der da noch kommen wird, ebenfalls.

Multimode ist damit quasi tot. Und damit wird sich auch ergeben, dass in Zukunft wohl Singlemode sich eher durchsetzen wird und das wiederum wird dafür sorgen, dass man leichter an gebrauchte Ware kommen könnte.

Sprich also, wenn man jetzt Leitungen verlegt, kann man sich die Zukunft etwas einfacher gestalten.
Ob man dann jemals 400GBE haben wird, ist eine andere Frage.

Ansonsten hat man auf dem Aruba zwar eine Anzeige für den Linkspeed, das heißt aber erstmal nichts. Der Speed kann, in Ausnahmefällen, dennoch geringer sein, weil irgendwas anderes klemmt, zum Beispiel fehlerhafte Übertragungen.
Die Anzeige ist daher ein Indikator wie die LEDs bei den Kupferports (100mbit/1000mbit) und nichts weiter.

Ansonsten ggf. noch der Tipp, nicht nur eine Leitung zu legen. So kann man, ohne Upgrade, mehr Speed im Interlink erreichen. 24x 1GBE sind ja 24GBE, da könnte also, warum auch immer, ein Flaschenhals entstehen. Oder alternativ eben einfach ein Backuplink, falls mal was passieren sollte.
Kabel kostet nix, Arbeit hast du auch nur 1x.

Ansonsten nochmal die Diskussion hier die letzten Tage kurz überfliegen, da wird das schon durchgekaspert.

Und da der Aruba auch Fremdtransceiver frisst, ist das also auch nicht so der Kostenpunkt. SFPs bekommt man daher quasi hinterhergeworfen.
 
Zuletzt bearbeitet:
Super, danke!
 
Das Ding hat nen Kühlkörper, also muss es gekühlt werden :-D
 
Im Büro hab ich ja schon diverse 10Gbe DACs oder LWL SFP+ eingesteckt, so endlich daheim mal einen in Betrieb nehmen ist dann doch noch nen besseres Gefühl :sneaky:

Jetzt ärger ich mir nur, warum ich erstmal testweise nur eine Karte bestellt hab und jetzt wieder 30 Tage auf die zweit warte ... :ROFLMAO:
 
Eigentlich hatte ich die auch nur bestellt, um mal zu testen, ob ich die mit nem M.2 Adapter zum laufen bekomme. Und dann kam nen neuer Homeserver dazwischen, der auch noch platz für ne pcie Karte hat. Und zack, gab es nen use case abseits vom habenwollen.
 
Zweite Karte ist auch da, außerdem noch ein M.2 auf PCIe Adapter, damit ich die Karte noch bei mir in das NCase mit ITX Board bekomme. Funktioniert auf Anhieb, Anbindung ist soweit ich sehe nur über 1x PCIe 3.0 (also 8GT/s), aber immerhin schonmal mehr, als die 2.5Gbit onBoard:

Code:
PS C:\WINDOWS\system32> Get-NetAdapterHardwareInfo


Name                           Segment Bus Device Function Slot NumaNode PcieLinkSpeed PcieLinkWidth Version
----                           ------- --- ------ -------- ---- -------- ------------- ------------- -------
Ethernet                             0   5      0        0    1               8.0 GT/s             1 1.1
 

Anhänge

  • 20210617_145245.jpg
    20210617_145245.jpg
    1,5 MB · Aufrufe: 163
  • 20210617_145250.jpg
    20210617_145250.jpg
    967,1 KB · Aufrufe: 168
Hallo zusammen,

ich bin etwas deprimiert, ob der geringen Schreibleistung trotz 10 GB - Netzwerk. Und zwar schreibt der PC auf den "Server" nur mit SATA Geschwindigkeit ca 400 MB/s.

Folgendes Setup:

Server - W10 PRO, ASRock Z490 ITX/ac, i3 10100, 32 GB RAM, Samung 950 PRO - 500 GB, Samsung EVO 860 1 TB, 2 x Crucial MX500 1 TB.
PC - W10 PRO, Acquantia 107, 1 TB 970 EVO.

Habe die drei SATA SSDs per Stripset, Storage Space und Intel Rapid Storage als Raid 0 zusammengeschlossen - ohne Erfolg. Lesen klappt mit 1 GB/s, nur schreiben will er nicht. Auch nicht auf die 950 PRO. In die andere Richtung, also schreiben auf dem PC geht ohne Probleme.

Unter TrueNAS macht er ca 800 MB/s. Da ZFS nicht so mega schnell sein soll, und im default, Kompression aktiviert ist, sollte das passen.

In CrystalDiskmark kommen auch die zu erwatenden Werte (1.500 MB/s)

Test auf dem Server Raid0 <> 950 PRO laufen auch mit 800 MB/s lesend und schreibend.

Hängt also wohl mit dem Netzwerk zusammen.

Hat hier jemand ne Idee? Und nein anderes OS ist keine Option 😅
 
Spontan ohne die NIC(im Server)/Kabel zu kennen. Mach mal Benchmarks mit iperf.
 
Im "Server steckt eine Intel X550 (original mit Yotta Mark) iperf iM Default:

1624179974579.png


Mit Jumbo Frames habe ich auch experimentiert. Kabel passen, habe ich auch unterschiedliche getestet, habe auch schon verschiedene 10 GB Switches dazwischengehängt...
 
Zuletzt bearbeitet:
Das passt noch nichtmak mit den o.g. 400 MB/s zusammen. Wie sollen 400 MB/s transferiert werden, wenn nur 150 MB/s durchgehen.

Du bist sicher, dass die NICs genug PCIe-Anbindungen haben?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh