[Sammelthread] 10Gbit Homenetzwerk

Das Roadmaps nicht immer eingehalten wurden beweisen allein die letzten 10 Jahre schon:
OSD, HAMR, U640 SCSI bei HDDs.
PCI-X 533 und 1066Mhz
LTO 4 und 5 mit einer Verdoppelung der Datenrate (nicht nur der Datendichte).

Das Codierverfahren für 10Gbit Base-T Ethernet hast du dir schon einmal angesehen? Das basiert auf mathematischen Überlegungen (Beweisen) aus den 60er Jahren und war bis vor 10 Jahren technisch einfach noch nicht machbar.
Wirklich verstehen oder begreifen kann man es jedoch nicht wirklich ohne einen entsprechenden Studienabschluss in Mathematik oder als besserer Informatiker.

Zu 40G Base-T: Mit wie vielen Adernpaaren will der voraussichtliche Standard damit auskommen?
Bei 40G Ethernet wird bisher noch auf QSFP (+) gesetzt.
Diese Kabel sind genau so wie die "normalen" SFP+ Kabel relativ dünn und sind noch nicht so gut (Adern untereinander) geschirmt wie die bekannten Cat 7/8 Kabeln mit bis zu 1,5GHz welche als Verlegekabel dann gerne mit über einem Zentimeter im Durchmesser daher kommen.
Bei Frequenzen um die 2-4GHz hat man die schönsten Probleme bei der Übertragung und mit geeigneten Steckern. Umsonst hat es bei FDR (IB) und PCIe 3.0 nicht für eine Verdoppelung der Taktfrequenz gereicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meinst du DSQ und PAM? Und ja, die ganzen Kodierverfahren sind schon alt, weil sie mittlerweile zum Standard gehören. Und die Berechnungen waren schon immer möglich, das ist nie das Problem. Das Problem ist die Echtzeitfähigkeit. Du mußt die Berechnungen entsprechend schnell ausführen (mit der Datenrate), sonst bringt des dir ja nichts.

Und ja, Codierverfahren erfodern schon "etwas" Hirnschmalz. Aber nichts, was man nicht lernen könnte.

Da es sich bei 40GBase-T um einen -T Standard handelt, also die bekannten TP-Kabel, also 4x 2Adern. Im Moment wäre 40G die Obergrenze für Base-T, was die Grenzfrequenzen der Kategorien zulassen.

Als Stecker kommt alles in Frage, was >=CAT7 ist. Also zB GG45 oder Tera.

Und ja, ich gebe dir recht, die Stecker sind ein Problem bei solchen Frequenzen, allerdings kein unlösbares.

EDIT:
Mit 2 der TP-Kabel wäre nach aktuellen Erkenntnissen sogar 100GBE möglich. Allerdings ist sowas eher ein theoretischer Ansatz und nicht wirklich sinnvoll.
 
Zuletzt bearbeitet:
Meinte eher das: Ich habe ne Tabelle mit 10k Einträgen und mappe mir die Empfangenen Bits der Übertragungsstrecke entsprechend und versuche auch nach mehreren durchläufen die Bits irgendwie zuordnen zu können. Sender und Empfänger haben die gleiche Tabelle. Es halt "etwas" ;) aufwändiger als eine einfache 8bit/10bit Codierung. Kann dir aber leider nicht mehr sagen wo es das PDF dazu gibt. Hatte ich schon ~2008 oder früher mal angeschaut. War nicht wirklich zum "nachrechnen" für mich geeignet.
 
8b/10b ist in der Tat ein sehr einfach verfahren.

Allerdings unterscheiden sich PCIe oder SATA (zB) massiv von einer weit ausgedehnten Netzwerkverbindung. 1m Kabelweg vs 100m oder 10km sind einfach massive Unterschiede. Einher gehen extrem stochastische Effekte die man durch weitere Verfahren festigen muß.

1000Base-T setzt übrigends auch noch auf die 8b/10b Leitungskodierung. Das reichte aber bei 10G nicht mehr.

Diese ganzen Kodierungen und Modulationen sind genau der Ansatz um auf diesem Weg weiterzukommen. Das geht aber nur, wenn die DSPs mitwachsen. Mit der Datenrate steigt aber auch der Aufwand, neben den physikalischen Problemen der Übertragungsstrecke.
 
Die Unterscheidung ob auf Platine über Kupfer oder über kurze Kupferkabel oder über LWL ist bei allen Standards eigentlich fast gleich.
Bei Entfernungen über ein paar hundert Meter oder Kilometer kommt halt nur noch die Latenz durch die lange Übertragungsstrecke mit hinzu.
Die Fehlerrate mit 10^14 BER wird eigentlich für alle gleich angenommen, auch wenn laut den LWL-Herstellern die Langstreckenkabel schon eine BER von <=1 in 10^15 erreichen.
Das bei Übertragungen im GHz Bereich nach ein paar Zentimetern oder einem Stecker diese nicht mehr zustande kommen, dafür gibt es in der Funkpraxis genügend Erfahrungen. Umsonst gibt es nicht dutzende von Steckern welche alle für einen gewissen max. Übertragungsbereich ausgelegt sind und es dürfte auch nicht verwundern das es eher hin zu Coax-Kabeln geht.

Wenn wir beim Thema der verschiedenen Techniken und Anwendungen bleiben:
FC überträgt über SFP(+) Kuperkabel sowie optisch aktuell max. 16Gbit/sec und damit SAS und auch SATA als Protokolle.
IB und PCIe waren vor 10 Jahren Konkurrenten.
Mit USB 3.0 (5Gb/s), Thunderbolt (10Gb/s und 50Gb/s) und HDMI ~12/Gb/s und Displayport >10Gb/s hat man schon vier Standards im Multi Gbit/sec Bereich. Sollte es Intel gelingen mit Thunderbolt 50Gb/sec HDMI(100Mbit Ethernet)/Displayport(Ethernet und USB) und USB3.0 unter einen Hut zu bringen wird es für 40Gb Ethernet im privaten Bereich wohl keinen wirklichen Bedarf mehr geben.
Kupfer und LWL-Kabel kosten im Handel immerhin ziemlich gleich viel.
 
Ich glaube du deutest BER falsch.

BER bedeutet, dass xBits falsch sein können und die Verbindung trotzdem noch steht. Sie sagt nichts darüber aus, wie häufig Fehler aufgrund der externen Einflüsse direkt auftreten.

Die BER ist das Ziel einer Festigung von Datenströmen. Und klar ist das überall gleich.

Vereinfacht gesagt:
Wir wollen maximal x Fehler haben, was müssen wir dafür tun?

Und da ist der Aufwand bei einer 100m Kabel deutlich höher als bei einer 1m Anschlußleitung.
Vereinfacht gesagt:
Bei einer SATA Leitung muß man nichts machen (für die BER) und bei einer LAN Leitung muß man Himmel und Hölle in Bewegung setzen.
Gleiches gilt für DSL Leitungen.

Ohne den Aufwand der Festigung bei LAN Leitungen hätte wir BERs in einem Bereich, dass die Verbindung ständig abreißt, wenn sie denn überhaupt zu etablieren ist.

Deswegen muß man sich bei den Kurzstreckenverbindungen keine so großen Sorgen machen, wie bei LAN.
Denn nur durch den Verzicht ist es überhaupt möglich solche extremem Datenraten zu fahren. (PCIe oder SATA)
Würde man hier PAM und Co einsetzen, gäbe es kein PCIe 3.0, weil es keine Chips gibt, welche diese riesigen Datenmengen in Echtzeit händeln können.

LAN ist daher was völlig anderes also so ne PCIe oder SATA Verbindung. Das ist HF im Quadrat.

EDIT:
BER ist also die Konsequenz und keine Ursache.
 
Zuletzt bearbeitet:
Eine BER hast du auch auf kurzen Strecken.

BERTScope® BSA286C | Tektronix

Model Description Max Bit Rate List Price
BSA85C Bit Error Ratio Analyzer 8.5 Gb/s $132,000
BSA125C Bit Error Ratio Analyzer 12.5 Gb/s $190,000
BSA175C Bit Error Ratio Analyzer 17.5 Gb/s $214,000
BSA286C Bit Error Ratio Analyzer 28.6 Gb/s $347,000
Integrated, BER correlated eye diagram analysis with pass/fail masks for PCI Express, USB, SATA and other communications standards.
Enables testing with compliant signals for standards like PCI Express, 10GBASE-KR, SATA, 40GBASE-KR4, 100GBASE-CAUI.
The combination of generation and analysis in one instrument enables receiver BER compliance testing for today's 3rd Generation Serial and IEEE802.3ba, 32GFC Communications Standards.
Die Augendiagramme sind auch im Dokument von IBM und diese gibt es auch in normalen Zeitschriften für HDMI-Kabel.
 
Die BER ist aber nicht das Problem.

Die BER eines Kabels (wovon du hier redest) ist ein zu "vernachlässigender" (wenn entsprechend gut verarbeitet) Effekt im Bereich der Datenübertragung.
Hintergrund einer Kabel-BER ist die Wahrscheinlichkeit des "Bit-Verlusts" einer Übertragungsstrecke.

Man stelle sich einen Leiter vor, es gibt keine äußeren Effekte, keine Störungen, garnichts. In etwa so ein Modell was man für die Mechanik in der Schule angenommen hat. (keine Reibung, kein Widerstände garnichts)

Und nun könnte man annehmen, dass jedes übertragene Bit auch auf der Gegenseite ankommt. Ist aber nicht der Fall. Aufgrund der Beschaffenheit der Übertragungsstrecke sagt die Wahrscheinlichkeit, dass jedes x-te Bit eben nicht mehr ankommt. Die Übertragungsstrecke verschluckt es quasi.

Und die Hersteller sagen nun, wenn wir das Kabel so und so bauen, dann erreichen die den Wert 10^14.
Und das weist man in den Test der Zeitungen entsprechend nach. Es ist also ein Maß für die Güte. Je "geringer" der Wert, desto besser das Kabel.

Von daher hast du natürlich recht, dass sich ein LAN Kabel und ein SATA Kabel in dieser Richtung nicht unterscheiden. Was auch klar ist, da sie auf das gleiche Material setzen.

Allerdings ist die Kabel-BER, wie bereits gesagt, nicht DER Faktor um den man sich sorgen muß. Ggf. muß man ihn in die Überlegungen einbeziehen, wenn wir mit wirklich hohen Datenraten zu tun haben. (sprich im Forschungsbereich wird man sicherlich mit den Effekten zu tun haben)

Das gleiche macht man auch für Schaltungen aka Transciever etc (eigentlich alles was mit Daten zu tun hat, man kann einfach nicht (mehr) davon ausgehen, dass ein Bit auch wirklich ankommt, dazu sind die Systeme in sich zu stochastisch). Auch hier kann man nicht davon ausgehen, dass jedes reingegebene Bit drüben auch wieder rauskommt.

Die Kabel-BER ist also schon ein systembedingter Fehler, der völlig unabhängig äußerer Faktoren auftritt. Das System legt sich also selber Steine in den Weg.

Das Problem bei der Signalübertragung sind äußere(und das bezieht sich schon auf benachbarte Adern eines Kabels) Störeinflüsse (Kabel-BER ist quasi intern) und diese werden nicht von der Kabel-BER erfasst. Weil der Hersteller eines Leiters keine Aussage über diese Größen machen kann, da er den Einsatzzweck wenn man so will nicht kennt.

Und hier ist ein SATA(zB) Kabel einem LAN Kabel deutlich im Vorteil. Bei SATA treten deutlich weniger (externe) Störfaktoren auf, als es bei einem LAN Kabel der Fall ist. Bei einer Funkstrecke wiederum treten noch mehr Störungen auf.

Daher betreibt man bei SATA so gut wie keine Modulationsverfahren, wohingegen man bei LAN schon sehr massiv davon gebrauch macht. Bei Funk geht man noch weiter. Hier ist das System so zeitvariant, dass es eigentlich garnicht zu nutzen ist, dennoch macht man es.

Ich hoffe es wird verständlich was BER ist und das es in erster Linie nichts mit dem Problem der externen Störungen (weswegen man diese ganzen Kodierung und Modulationen braucht) zu tun hat.

EDIT:
Allerdings nutzt man die BER auch zur Bestimmung einer kompletten Übertragungsstrecke. Damit weist man die Wirksamkeit der Festigung durch Kodierung und Modulation nach.

Denn das Ziel aller Verfahren ist ja, dass man nach Möglichkeit sämtliche Bits auch wirklich übertragen kann. Nachdem man also bei SATA keinen Aufwand (weil minimalste Störungen) und bei LAN maximalen Aufwand (weil maximalste Störungen) getrieben hat, ist die BER doch erstaunlich gering. Das zeigt aber auch, dass man bei LAN schon einiges dafür tun muß, dass man in den Bereich von SATA kommt. Bei SATA hat man diesen Wert quasi für lau.

In Wirklichkeit muß man aber auch sagen, dass bei SATA/PCI und co auch schon etwas Aufwand dabei ist, allerdings in deutlich kleineren Dimensionen als bei einem LAN Kabel.
Nur weil beide auf Kupfer setzen bedeutet das nicht, dass sich beide Übertragungsstrecken gleich verhalten.

Das selbe gilt für GSM oder UMTS. Beide nutzen die Luftschnittstelle, allerdings ist der Aufwand bei UMTS deutlich extremer als bei GSM.

BER ist also Messgröße. Wobei man bei der Messung auch immer angeben muß, was will man messen.
Mess ich nur das Kabel als solches?
Mess ich die Übertragunsstrecke mit Störeinflüssen? (und je länger die Strecke, desto mehr hauen Störungen rein)
Mess ich Transciever?

Und all das kann man nur bedingt im Verhältnis mit verschiedenen Technologien setzen.

EDIT:
Aber bleiben wir mal dem BERT Device. Das ist ein Messgerät. Damit bestimmt man die BER eines Kabels und das macht man für gewöhnlich im Labor. Hier dürften die Unterschiede zwischen LAN und SATA Kabel eher geringer sein. Bringt man diese Kabel in ihr Einsatz gebiet, so steigt die BER an. Beim LAN Kabel deutlich mehr als beim SATA Kabel. (Weil sich die Einsatzgebiete unterscheiden.)

Würde man beide Kabel direkt neben einem Handymasten messen, so wären die Werte übertrieben gesagt bei 1:1.

Der Unterschied liegt also, wenn wir rein bei der Physik bleiben, in den Umgebungsparametern. Und diese sind bei einem LAN Kabel deutlisch schlechter. Daher ist der Aufwand hier deutlich größer um die selben Datenraten zu schaffen.

Und 10GBE hat eine deutlich höhere Datenraten gegenüber zu SATA600. Und dennoch erreicht man diese Datenrate auf 100m (gegenüber 1m). Also muß man doch schon irgendwie einen Aufwand betreiben um das zu schaffen.
 
Zuletzt bearbeitet:
Die BER ist auch hinsichtlich der neu zu übertragenden Rahmen wichtig.

Da ich gerade über IEEE-SA -IEEE Get 802 Program - 802.3: Ethernet das "aktuelle" 457 seitige IEEE 802.3ba-2010.pdf (4,7MB) gezogen habe:

Es wird sogar mit einer BER von 10^12 gerechnet. Was bei 100Gbit/sec recht häufig ein erneutes senden bedeutet.
Die von IBM schon genannten 25Gbit/sec für optische Module sind sogar für 100GBASE–LR4 und 100GBASE–ER4 vorgesehen.
Ab Seite 329 (353) 88. Physical Medium Dependent (PMD) sublayer and medium, type 100GBASE–LR4 and 100GBASE–ER4
Es sind mit 100GBASE-LR4 2 Meter bis 10km und bei 100GBASE-ER4 2 Meter bis 30 bzw. 40km über eine Singlemode Faser vorgesehen.
Es werden dazu vier Wellenlängen per WDM mit je 25,78125 Gbaud übertragen.

For 40GBASE-CR4, there are four differential paths in each
direction for a total of eight pairs, or sixteen connections. For 100GBASE-CR10, there are ten differential
paths in each direction for a total of 20 pairs, or forty connections. The signal paths are intended to operate
on twinaxial cable assemblies ranging from 0.5 m to 7 m in length, as described in 85.10.
16 Adern für 40GB-CR4 (QSFP+ bzw. SFF-8436) oder 40 Adern für 100GB-CR10 (SFF-8642 - sieht aus wie der mini SAS-HD?).
 
Und dennoch kann man Aufgrund gleicher BER nicht davon ausgehen, dass sich SATA/PCIe und CO Gleich verhalten.
Daher ist der Vergleich einfach nicht heranzuziehen.

Und wie gesagt(!!!), bei richtig hohen Datenraten, wird auch die Kabel-BER interessant. Das ist der selbe Effekt wie bei den BERs von HDDs.
Und hier kommt wieder das Grundgesetzt der Wahrscheinlichkeitsrechnung zum Tragen.

"Versuche es nur oft genug und es klappt." Und genau an der Stelle sind wir im Moment. Aber deswegen gibt es Kodier- und Modulationsverfahren. Damit kann man die BER gekonnt umschiffen, so dass deren Einfluß auch bei hohen Datenraten (wenn man entsprechend schnell rechnen kann) minimiert wird.

EDIT:
Es gibt auch LWL Systeme die setzen auf 4 Fasern in einem Stecker. (was IBM also mit 4 Wellenlängen vorschlägt, machen die über wie parallel Fasern)

Da ich ja bereits erwähnte, dass Optik auch seine Probleme hat:
Bei der Lösung von IBM treten Laufzeitverschiedungen auf. Warum? Wellenwiderstand ist unterschiedlich. Hier ist also auch nichts mit "alles easy".
 
Zuletzt bearbeitet:
Das mit den 4 Fasern bzw. 10 für 100Gbit Ethernet oder auch IB gibt es schon länger. Das tatsächlich ein Standard existiert der 25gbit/sec über vier Wellenlängen überträgt war mir neu. Laut IBM spricht ja der hohe Verbrauch dagegen. Aber bei dem Einsatzzweck für MAN mit 100Gbit/sec über ein LWL-Kabel ist es durchaus relativ egal. Interessant wird es, ob auch 40Gbit/sec über ein oder zwei Wellenlängen mal realisiert wird. Intel backt wie schon gesagt mit 4 Fasern mit je 12,5Gbit/sec für das 50Gbit/sec Thunderbolt noch kleinere Brötchen für den Massenmarkt.
 
Daher muß es Ziel sein diese Technik nutzbar zu machen. Und das geht nur, wenn man auf Base-T setzt.
Man sollte aber schon wissen von was man spricht. Twisted Pair war schon immer Murks, mit dem man billig Daten übertragen konnte. Nur ist das so, daß mit steigender Frequenz der Skin-Effekt immer stärker wird (es steigt nicht linear an). Es gibt momentan bei QDR IB nur maximal 7m Kabel, und das nur als aktive Kabel. Bei FDR IB sinkt das schon auf 5m ab, und nach unseren Erfahrungen sollte man bei QDR mit Cu Kabel besser unterhalb von 5m bleiben, für den Rest sollte man Glasfaser nehmen. Die Kabel werden wegen der notwendigen Schirmung auch immer dicker, der Mindestbiegeradius steigt an etc. Aktive Cu Kabel sind auch nicht billig, ergo auch nichts für den Heimbereich.
Wir reden hier über Frequenzbereiche in denen man eigentlich Hohlleiter einsetzen müßte, um die Signale noch sauber übertragen zu können.
Wenn 10GbE-T kommt, dann taugt das bestenfalls für die Verkabelung im Rack, mehr ist einfach nicht mehr drin. Wenn die Übertragungsfehler in die Höhe schießen, hat auch niemand etwas davon. Aus diesem Grund wir nun auch im Heimbereich auf Glasfaser gesetzt, die Zeit der Kupferkabel für Datenübertragung geht ihrem Ende entgegen.
 
Appropos Frequenz. Die Tabelle auf Seite 363 (387) am Ende legen 1,25 Ghz ( 1000BASE-KX) für Gbit Lan auf Platinen, 3,125GHz für ( 10GBASE-KX4 ) sowie 5, 15625 Ghz (10GBASE-KR und 40GBASE-KR4).

Das die Datenübertragung über SFP+ Cu Twinax Kabel nur rund die Hälfte benötigt wie SR optische Module für SFP+ lässt sich auch bei entsprechenden Switchen im Handbuch (z.B. Mellanox 64 Port (SFP+) 10Gbit Ethernet, 1HE) nachlesen.

85A.5 Channel insertion loss
This subclause provides information on channel insertion losses for intended topologies ranging from 0.5 m
to 7 m in length. The maximum channel insertion loss associated with the 7 m topology is determined using
Equation (85A–3). The channel insertion loss associated with the 0.5 m topology and a maximum host
channel is determined by Equation (85A–4). The channel insertion loss budget at 5.15625 GHz is illustrated
in Figure 85A–1.
The maximum channel insertion loss is determined using Equation (85A–3). The maximum channel
insertion loss is 24.44 dB at 5.15625 GHz.
IL Chmax ( f ) = IL Camax ( f ) + 2IL Host ( f ) – 2IL MatedTF ( f ) (dB) (85A–3)
for 50 MHz ≤ f ≤ 7500 MHz.
Das 10GbE Base-T noch kommt steht hier ja nicht zur Diskussion, hier wurden die letzten ~6-8 Jahre schon zu viel Geld investiert.
Gegen ein 40GbE Base-T mit "800Mhz" Cat7 Kabeln und GG45 hätte ich auch nichts, die sind hier schon seit 8 Jahren verlegt mit den entsprechenden Buchsen.
Es ist halt alles nur etwas fraglich. Warum sollte man Messungen über einen Frequenzbereich von 10-12 GHz machen wenn aktuell eh noch mit nur 10 bzw. 25Gbit/sec max. die Daten übertragen werden?
 
@jdl
Ich weiß wovon ich rede, die Angaben denke ich mir nicht aus. Und klar, es gibt unterschiedliche Aspekte, die bei HF auftreten, bzw zu beachten sind. Der Skin-Effekt ist nur ein Teil davon, der ist relativ simple, da er sich nur auf die Dämpfung auswirkt.
Laufzeitunterschiede innerhalb eines Mehrkanalkabels (was ja TP ist) sind auch zu beachten, genauso wie Übersprech- und Störeffekte.

Wenn 10GbE-T kommt, dann taugt das bestenfalls für die Verkabelung im Rack, mehr ist einfach nicht mehr drin.
Wie kommst du zu der Aussage? 10GBase-T ist auf 100m spezifiziert und das ist keinesfalls eine Rackausdehnung, sondern ganz klassische Länge einer Gebäudeverkabelung.

Twisted Pair war schon immer Murks, mit dem man billig Daten übertragen konnte.
Und TP ist sicherlich kein Murks. Es war die letzten 20Jahre eine sehr effektive Möglichkeit der Vernetzwerkung und wird es auch noch eine weitere Zeit bleiben. Du magst auf dem HPC Bereich anderes gewohnt sein, dennoch wird durch den persönlichen Einsatz ein anderes Einsatzgebiet nicht negiert.

Und btw, es ist keine Frage ob 10GBase-T kommt, es ist schon da! Es ist alles vorhanden was man braucht. NIC, Switche und auch Kabel, alles da. Man braucht es nur noch in den Warenkorb packen und auf bestellen drücken. Des Weiteren ist man schon an 40GBase-T dran. Das ist im Moment die Obergrenze des Machbaren(Was die Nutzfrequenzen der Kabel bei entsprechenden Werten angeht.). Das waren aber vor etlichen Jahren auch die 100Mbit und da hat man gegrübelt, wie soll das weitergehen. Und dennoch ist es weitergegangen.

Klar, jede Technik hat ihre Grenzen, Licht hat auch seine Probleme und ist kein Universalgenie. Wenn es das wäre, würden wir es heute überall einsetzen, dem ist nicht so.

EDIT:
Und wo wird denn Glasfaser im Heimbereich eingesetzt? Toslink für die Stereoanlage? Thunderbolt?
 
Zuletzt bearbeitet:
@jdl
Wie kommst du zu der Aussage? 10GBase-T ist auf 100m spezifiziert und das ist keinesfalls eine Rackausdehnung, sondern ganz klassische Länge einer Gebäudeverkabelung.
Weil wir Probleme mit einigen Cu-IB-Kabel hatten. Je länger die Kabel werden desto eher machen sie Ärger. Die kurzen Kabel hingegen funktionieren gut. Aus dieser Erfahrung heraus ist bei uns die Erfahrung gewachsen für Rack zu Rack Verkabelung Glasfaser zu nutzen. Ich habe meine Zweifel, ob man mit 10GBase-T so glücklich wird. To be fair, no one promised 10GBase-T would work on Category 6 / Hyperline oder die 100m auf Dauer zu halten sein werden.

Und TP ist sicherlich kein Murks.
TP war schon immer Murks, weil es einfach eine sehr dreckige Lösung ist HF-Signale zu übertragen. Es folgt wie so vieles dem "just good enough" Ansatz der IT. In der klassischen HF-Technik wäre damit nie Staat zu machen gewesen. Die Signalqualität ist bei TP einfach bescheiden. Solange man mit dieser Technik existierende Verkabelungen (siehe DSL) weiter nutzen kann, ist es ok. Aber genau das war bei TP-Ethernet über die Jahre ja nicht möglich. Sobald man die Kabel wirklich festverlegen muß, ist meistens der Kabelpreis sekundär. Die Verlegekosten sind dann meist der wichtigere Kostenfaktor.
Du magst auf dem HPC Bereich anderes gewohnt sein, dennoch wird durch den persönlichen Einsatz ein anderes Einsatzgebiet nicht negiert.
Stand der Dinge ist 1GbE für Desktopanwendungen, und bei der Preissensibilität in diesem Marktsegment wird sich das auch nicht so schnell ändern. 10GBase-T Switches und Adapter kostet immer noch ähnlich viel wie SFP+ Lösungen. Die Kabel sind nur dann billiger, wenn man nicht aufwendig neu verlegen muß und die Kabellängen kurz sind. Sobald man anfangen muß die Wände aufzureißen, lohnt sich der Spaß nicht mehr, da wäre man mit Glasfaser über die Jahre billiger dran gewesen.
Und btw, es ist keine Frage ob 10GBase-T kommt, es ist schon da!
Es geht ganz wesentlich um die Preise für die Hardware. Solange 10GBase-T keinen nennenswerten Preisvorteil bietet, wird es sich weiterhin schleppend verkaufen.
EDIT:
Und wo wird denn Glasfaser im Heimbereich eingesetzt? Toslink für die Stereoanlage? Thunderbolt?
Thunderbolt ist momentan nur Cu und es mangelt an langen Kabel, weil diese mit Cu nicht mehr möglich sind. Toslink ist eine der wenigen optischen Verbindungen im SoHo-Bereich.
 
Klar ist die Kabelqualität ein wesentliches Problem. Es ist einfach nicht so robust wie die Leitung einer Stehlampe. Diesem Problem muß man sich bewußt sein.
Das betrifft aber auch die LWLs. Hier spielen Einfügedämpfung und auch sehr stark Verunreinigungen rein. Desweiteren muß sie etwas sanfter anfassen. Das Problem bei IB und Co ist einfach (auch 10G CX4), dass es auf relativ kurze Strecken entwickelt wurde.

Dein Link zu Hyperline hat nichts mit 10G in der aktuellen Fassung zu tun. Es geht darum, dass man damals sagte, ja mit CAT6 könnt ihr auch 10G machen. Darauf hat man sich verlassen. Und auch nicht weiter geschaut, zB CAT7.
Allerdings setzt 10GBase-T für die volle Länge einen CAT6a Link vorraus. Wer also CAT6 hat, der hat ein Problem. Hier ist die Länge des Links entsprechend gering (~55m), dass man noch innerhalb der Class Ea SPECs drin ist. Und das ist das, was in diesem Beitrag angesprochen wird.
Allerdings ist das auch etwas anderes im Busch. Die Amis haben, wie auch ein beachtlicher Teil der Welt, nich gelernt sich mit Schirmungen zu beschäftigen. Das war bisher kein Problem. Sie haben es wirklich geschafft CAT6 zu erfüllen und dabei völlig auf die Schirmung zu verzichten. Davor muß man auch den Hut ziehen. Allerdings ist damit dann auch irgendwann mal Schluß. Wenn man allerdings weiter Kabel verkaufen will, dann muß man dem Kunden auch begreiflich machen, dass er die nächste Generation damit bedienen kann. Das hat man gemacht, ohne zu wissen, wo man letztendlich enden wird.
Und es ist anders gekommen, als die Kabelhersteller es geplant hatten. Es ist eine Schirmung notwendig und nun sitzen die alle auf einem (im wahrsten Sinne des Wortes) riesigen Haufen Kabelschrott.
In Deutschland setzt man seit eh und je auf die Schirmung. Daher hat man diese Probleme nicht.

Wie gesagt, CAT6a ist Minimum für volle Länge. Man installiert aber seit 10Jahren (also zur Zeit von gibt) bereits CAT7, ergo kein Problem. Wie gesagt, 10G ist kein Thema.

Sicherlich mag es aus technischer Sicht keinen Sinn machen, HF über solche "rückständigen" Leitungen zu schieben. Dieser Leitungstyp ist ja so alt wie die Telefonie von Herrn Bell selbst. Allerdings darf man eins nicht vergessen, die Einfachheit des Kabeltyps ist das, worum es geht. Der Kabelpreis für eine Verlegekabel im Bereich Kupfer oder LWL ist nicht nur sekundär, sondern faktisch egal. Beide Kabel kosten das gleiche. Hausnummer 50ct pro Meter. Es ist also Buggi, was man da nimmt.
Also ja, die Verlegekosten sind das, worauf es ankommt, zusätzlich zur technischen Machbarkeit. Um ein TP Kabel anzuschließen, brauche ich genau 2 Werkzeuge. Das ist ein Schraubendreher und ein Auflegewerkzeug. (wenn letzteres überhaupt notwendig ist) Für ein Breakoutkabel hingegen brauche ich einen ganzen Koffer an Zeug. Zusätzlich kommt hinzu, dass der Verarbeitungsprozess relativ aufwendig ist.
Ich habe nun schon das ein oder andere Projekt im Bereich Netzwerkverkabelung betreut und die Verarbeitung von TP-Kupfer ist quasi kinderleicht und läßt sich, aufgrund des Werkzeugs, relativ einfach skalieren. Bei LWL (Breakout) hingegen ist das nicht möglich. Und durch den Zeitdruck der Projekte spielt das eine größere Rolle. Hinzukommt, dass man bisher bei Kupfer etwas sorgloser beim Verlegen selbst vorgehen konnte. Breakoutkabel sind da nicht so genügsam, aber auch nicht unbedingt zerbrechlich.

Bisher ist der Prozess bei TP dem LWL Prozess im Vorteil. Was aber auch etwas daran liegt, dass man es gewohnt ist. Wäre man zB vor 15Jahren gezwungen gewesen auf LWL zu setzen, hätte sich dieser Prozess auch weiterentwickelt. POF war so ein Versuch. Allerdings ist dieser kläglich gescheitert.

Und sicherlich ist 1GBE Stand der Dinge. Das war 100mbit vor 10Jahren aber auch. Da sind sie auch nicht alle schreihend auf die Straßen gerannt als 1GBE draußen war. Dennoch ist 1GBE heute quasi flächendeckend im Einsatz.
Und bezüglich des Preises. Meinst du, als 1GBE rauskam, haben sie das für nen 5er an der Ecke verkauft? Ich habe ja schon gesagt, ich habe damals ein heiden Geld für meine Komponenten damals bezahlt. Bekannte/Freunde haben mich komisch angeschaut. Und komischer Weise will heute keiner mehr 1GBE missen. Ich sehe daher kein Problem. Und klar, steht und fällt jede Technik mit dem Preis. Letztendlich kommt es nur auf diesen an. Und das hast du aber bei LWL oder SFP genauso. Und wir sind aktuell an dem Punkt, wo 10GBase-T in niedrige Preisregionen geht. Das haben wir bereits mehrfach diskutiert. Allerdings ist es nicht so, dass einer den Schalter umlegt und plätzlich kostet die NIC nur nen 10er. Das ist ein Prozess.

Wieso wäre LWL über die Jahre billiger gewesen? Was kostet ein 24Port Kupfer Switch? 100EUR? 500EUR? Was kostet ein 24Port LWL Switch? Faktor 10? Faktor 20?
Ich sehe da ehrlich keinen Preisvorteil. Sicherlich, wäre LWL ein Massenartikel, sähe das anders aus. Du kannst aber nicht die Welt von heute auf morgen umkrempeln. Das ist das gleiche Thema wie mit AKWs und E-Autos. Das ist ein Prozess, der viele Jahre/Jahrzehnte erfordert.

Und wenn ich in ein Bürogebäude kommt und sage, ich mache jetzt LWL, dann liefert man mich ein. Es ist einfach alles auf Kupfer getrimmt. Das sind Investitionsvolumen, damit kannst du ganze Volkswirtschaften bedienen. Das ist nicht machbar.
Daher ist TP im Bereich des Flächeneinsatzes noch eine ganze Weile das Maß der Dinge.

In Bereichen wo der Preis nicht ganz oben steht, sieht das anders aus. Da setzt man LWL, eben wegen seiner Prozesseigenschaften, ein, das ist aber mehr oder minder ein "Nieschendasein".

EDIT:
Thunderbolt gibt es auch mit LWL.
 
Zuletzt bearbeitet:
Ich habe mir die Switche nicht neu gekauft, ist klar. Aber der Nortel Switch (5530-24TFD) mit 24xGbit Lan, davon 12x über SFP geteilt (also 12x fixed Base-T, 12x shared Base-T oder 12x SFP) und der Dell Force10 S25P mit 24x SFP (davon 4x mit Base-T geshared) haben nun wirklich keine zweistelligen Faktoren mehr gekostet als reine Kupferswitche. Bei beiden sind 2x10Gbit Ethernet über XFP neben einem Stacking-Anschluss vorhanden.
Und ich stehe jetzt auch davor meine Backboneverkabelung aus verlegtem Kerpen MegaLine Cat7a mit GG45 (welche kaum drauf gepasst haben) durch LWL-Kabel auszutauschen. Für 10 und 100Gbit reicht die LWL-Verkabelung ja nun schon einmal aus. Für 40Gbit sind halt noch vier Fasern nötig. Einen entsprechenden Adapter für vier einzelne LC-Duplex Stecker wird es dann auch geben, falls nicht kann man die Kabel ja einfach durch ein anderes austauschen. Dies ist deutlich einfacher als wenn man versucht ein QSFP+ Kabel durch die Wand zu legen. Von mehreren Cat7 Kabeln erst gar nicht zu reden.
Es ist auf jeden Fall platzsparender als die Kupferverkabelung, man muss keine Buchsen anschließen (gibt so Dosenblenden mit Bürstenleisten) und selbst für eine "saubere" Verlegung bieten Firmen wie Telegärtner einem an, fertig konfektionierte Strecken zu kaufen. Wenn man da etwas mehr Geld in die Planung der Infrastruktur von Gebäuden steckt braucht man also auch keinen der vor Ort spleißen muss.
 
Zuletzt bearbeitet:
Bei den 4 parallel Fasern mußt du darauf achten, dass diese exakt gleich sind. Und damit meine ich nicht exakt, sondern EXAKT.

Und bezüglich der vorkonfektionierten Kabel. Das kannst du vergessen. Das mag @home evtl gehen. Ist aber im professionellen Einsatz(Verlegung im Gebäude) nicht machbar. Die Stecker überleben keine 10m Kabelzug, glaubs mir. Das kann man mal für ein Kabel machen, allerdings ist hier der Aufwand, wegen der Sorgfallt, deutlich höher. Für 100e oder 1000e Kabel ist das nicht machbar.

EDIT:
Bezüglich der Switche:
Das Nortel kostet 5k, das Dell wird auch nicht günstiger sein. Dazu darf man noch die Transciever bezahlen, was dann auch nochmal locker 1k macht. Da sind wir bei einem Faktor von 10.
(klar man muß dann schauen, was man an Features braucht, wenn ich aber mit einer minimalconfig auskomme und das tun viele, dann ist ein LWL Switch nicht mal im Ansatz eine Alternative)
 
Zuletzt bearbeitet:
Was kostet ein 24Port Kupfer Switch? 100EUR? 500EUR?
Üblicherweise haben wir 48 Port 1000BaseT-Switches im Einsatz, managed (mit dediziertem IPMI Port), stackable, Layer3 und die sind nicht unter 1kEUR zu bekommen. Realistisch sind einige kEUR. Da ist der Abstand zu einem reinem SFP Switch nicht so groß.

Daher ist TP im Bereich des Flächeneinsatzes noch eine ganze Weile das Maß der Dinge.
Bleiben wir mal realistisch. Für 10GbE im Desktop braucht man einen entsprechenden NIC. Dafür braucht man ausreichend PCIe Lanes, und die hast Du bei einem Desktop System einfach nicht. Alibi NICs onboard liefern keine 10GBit/s, weil sie an den PCIe Lanes des PCHs verhungern würden. Das heißt momentan ist 10GBase-T nur für Workstations und Server eine Option. Will man sich da wirklich TP antun?
 
Was die PCIe Lanes angeht seh ich zumindest mal bei einer Sockel 2011 Plattform gar kein Problem, sowohl bei den PCIe 3.0 Lanes von der CPU als auch bei den PCIe 2.0 Lanes vom Chipsatz. Und das ist der Stand heute, das wird sich in Zukunft ja auch weiterentwickeln.
 
@JDL
(klar man muß dann schauen, was man an Features braucht, wenn ich aber mit einer minimalconfig auskomme und das tun viele, dann ist ein LWL Switch nicht mal im Ansatz eine Alternative)

Das sollte man nich vergessen. Es gibt im Bereich der Gebäudeverkabelung nicht so die Anforderung, dass man alles mit L3 abdecken muß. Keine Frage, es gibt, insbesondere wenn man nah ans RZ geht, die L3 Anwendung. Daher muß man das alles relativieren. Und hier ist die Technik im Switch entsprechend teuer, damit ist der relative Anteil der Physik fast verschwindend gering. Daher ist es dort "egal" ob man CU oder LWL nimmt. Man nimmt dann das, was besser ins Konzept passt.
Wie gesagt, aus deiner Sicht(Anwendungsbereich) mag TP wenig Sinn machen. Auch ich kenne Anwendungen, da geht es um Sicherheitsaspekte, da stellt sich die Frage nach CU garnicht erst. (und das gilt für Arbeitsplätze)
Dennoch skaliere ich das nicht auf den kompletten Erdball.

Und natürlich hat 10G im Moment noch nicht den Fokus auf Desktop. Das liegt zum einen an der relativ teuren Hardware, aber auch der Sinnfrage. Allerdings, was heute nicht ist, wird morgen sein.
Die ersten 1GBE NIC für den Desktop waren PCI. (Server haben da schon lange auf PCI-64bit bzw PCI-X gesetzt) Und dennoch haben es die Hersteller eingesetzt. Wohlgemerkt, und da werde ich ja wohl nix neues erzählen, 1GBE macht den PCI Bus schon selber voll, da bleibt kein Platz für den Rest. Daher konnte man im Desktop 1GBE nicht voll nutzen, dennoch war es min. Faktor 5 schneller als 100mbit und das ist schon ein Vorteil.

Allerdings ist die Technik ja nicht stehen geblieben. PCIe wurde entwickelt und die NICs entsprechend angebunden. Und heute ist das kein Thema. Und bis 10GBE beim 0815 User wirklich ankommt, vergehen nochmal ein paar Jahre. Und die Entwicklung bleibt nicht stehen. So dass dann die Consumer CPUs (Nachfolger der S1155 und FM2) auch entsprechende Lanes bieten werden.

Und ja, 10GBE ist im Moment nur für Server und WS eine Option. Wie kann es anders sein, wenn man sich die Preise anschaut? Eine NIC kostet soviel wie ein 0815 DesktopPC. Da stellt sich allein die Sinnfrage, ob man das rein preislich beim Consumer plaziert. Das war aber auch vor 10Jahren der Fall. Da hat 1GBE auch ein heiden Geld gekostet und komischer Weise kommt heute jeder Server von der Stange mit mehreren dieser Schnittstelle.
PCIe 3.0 wird sich bald flächendeckend(jeder Slot) durchsetzen. Da würde eine x1 Verbindung schon völlig ausreichen und es einiger maßen gut anzubinden. x4 ist ideal. Und das hat heute jedes 50EUR Board in PCIe 2.0 ausgeführt.

Um das nochmal klarzustellen. 10GBase-T(genau wie alles andere in dem Bereich) ist im Moment eher etwas für User wie uns. Etwas zu viel Kohle und immer das "Neuste" haben wollen. Und da kann man 10GBase-T von der Technik her einsetzen, weil das im Regelfall keine 50EUR Rechner sind. Ich sehe daher kein Problem der Einsetzbarkeit. (Das selbe Problem hätte man auch bei IB oder 10G LWL Lösungen, egal welches Interface, der Bandbreiten bedarf wird ja nicht weniger als es bei 10GBase-T ist)
 
Zuletzt bearbeitet:
@jdl:

Und? Macht das die Aussage, dass man da mit einer 10G NIC, PCIe oder Onboard, keine Probleme hätte, weniger wahr?
Oder ist das jetzt nur Herumreiterei auf der Klassifizierung einer i7 + X79 Plattform und der Abgrenzung zu E5 + C600?

Für mich:
Single 2011 i7 + X79: Desktop/Consumer
Single 2011 E5 + C600: Workstation/Entry Level Server
Dual 2011 E5 + C600: Server

Wenn du jetzt i7 + X79 mit zu Workstation zählen willst soll mir das Recht sein.
Und ansich ist das auch völlig unerheblich, bei allen wäre es überhaupt kein Problem eine 10G NIC unterzubringen.
 
Also der Preis für eine neue Dual Port Intel 1Gbit PCI-X Karte welche mit 32bit/64bit und 33, 66 und 133 MHz sowie 5 und 3,3Volt klar kommt ist seit annähernd 9 Jahren konstant bei ~150 Euro im normalen Fachhandel (damals für 189 Euro gekauft). Apple war der erste Hersteller der für den Heimnutzer schon ~2000 herum 1Gbit Ethernet anbot. Wohlgemerkt zu Zeiten wo HDDs gerade mal 20-40Mbyte/sec schafften.

PCIe 3.0 reicht leider nur für 2x40Gbit/sec als x8 Slot aus. Von daher kann ich es noch abwarten bis PCIe 4.0 oder was auch immer heraus kommt um auch 100Gbit/sec nutzen zu können. Wenn bis dahin dann nicht schon 1-10Gbit/sec in der CPU integriert sind.
 
Naja, wenn man die Neupreise zu Grunde legt, dann hast du Recht. Man muss dabei aber bedenken, dass sowas schon lange niemand mehr neu kauft.

ITSCO verkauft Singleport 1 Gbit Intel PCI-X Karten für 1,95 Euro und das Dualport Äquivalent für 8,95 Euro.
 
Der NC7170 ist der 1000MT. Und dieser ist bei weitem keine 150EUR Wert. Das ist einfach nur, wie das eben so ist, der Preis einer Ware, die keiner haben will. Daher aufwendige Lagerung usw.

Der Wert der Karte liegt bei runden 50EUR. Von den von Rabe genannen Gebrauchtpreisen ist da noch keine Rede.

Das ist aber letztendlich auch egal, weil man sowas nur noch selten einsetzt, oder einsetzen kann. 1GBE ist nen alter Hut. 10G ist das, was uns wirklich interessiert.
 
Und? Macht das die Aussage, dass man da mit einer 10G NIC, PCIe oder Onboard, keine Probleme hätte, weniger wahr?
Ja, weil die Masse an Desktop Systemen in Firmen nun einmal keine S2011 Systeme sind, und in Kontext der Verkabelungsproblematik ist nur das von Interesse.
 
Im Moment sind wir aber auch noch nicht in dem Bereich, wo man 10G am Arbeitsplatz braucht. Wenn der Bandbreitenbedarf da ist, dann ist die Bandbreite im Rechner auch entsprechend da und somit stellt die Problematik (highendRechner) einfach nicht mehr.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh