[Sammelthread] 10Gbit Homenetzwerk

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin,

hat jemand von euch auch Erfahrungen mit den Karten unter Linux? Und sind auch längere Kabellängen als 10m möglich?

So 30-50 Meter brauche ich in den Keller. Tendenziell eher um 30. Geht da was?

Grüße
 
Linux ist für alle hier benannten Karten kein Problem.

Deine Kabellängen deuten in richtung 10Gbit Ethernet
Mit einem Infiniband Switch in der mitte könntest du aber 30Mtr mit infiniband Schaffen (2x15Mtr Kabel).
 
Das sind spezielle Systeme sogenannten Shared Mem Server. Diese werden über proprietäre Technik miteinander verlinkt, und die Windows Version müßte ihren eigenen HAL mit bringen. Das ist notwendig, weil es hier im Server zwei Hierachien von NUMA-Knoten gibt, lokale NUMA-Knoten und entfernte. Das OS muß den Kopieraufwand minimieren, sonst wird das ganze sehr langsam.

Üblicherweise verclustert man "normale" Server für HPC, das ist billiger. Dazu fährt man meist über IB exklusiv MPI, manchmal auch ein spezielles ClusterFS (Lustre, FhGFS, ...). Diese Protokolle laufen direkt über IB und brauchen kein IP. Der normale Traffic wird dann über GbE abgewickelt.

Wenn man Rechenaufgaben über Knoten hinweg parallelisieren will, dann kann man direkt MPI nutzen oder man nutzt spezielle Libraries wie etwa PBLAS oder SCALAPACK, welche dann als Verbindung auch wieder auf MPI zurückgreifen. Selbst parallelisieren über MPI ist meistens sehr viel sinnvoller und schneller, aber mit mehr Aufwand verbunden.

Wenn nur 32 virtuelle CPUs gebraucht werden, dann reicht mittlerweile dafür eine ESXi Installation mit passender Lizenz auf nem Dual-Socket Sytem. Da kann man dann die vCPUs auf einen Socket zusammenmappen und so sogar unter Win7 nutzbar machen.
Das wird aber soviel ich weiß nicht von der Windows7 Lizenz abgedeckt, aber zum testen für nen netten Taskmanager Screenshot hats gereicht. :)
 
Hi

Moin,

hat jemand von euch auch Erfahrungen mit den Karten unter Linux? Und sind auch längere Kabellängen als 10m möglich?

So 30-50 Meter brauche ich in den Keller. Tendenziell eher um 30. Geht da was?

Grüße
Mit optischen Infiniband Kabeln sind Strecken von weit mehr als 30m kein Problem. Nur bezahlen willst das nicht ;)

http://h30094.www3.hp.com/product.asp?sku=3790621&mfg_part=448057-B29&pagemode=ca

So als Beispiel, deutlich billiger wirds wohl nix.

Gruss
 
für den preis dann doch lieber gleich gescheite fc karten ohne infiniband bekommst auch für 500$
ich verkauf übrigens grad mein 10gbe bundle falls jemand intresse hat siehe marktplatz
 
Du meinst 10 GbE Karten mit optischen Transceivern bzw. CNAs, aber keine FC Karten ;)
 
Wenn nur 32 virtuelle CPUs gebraucht werden,
Die Sache wird doch dann interessant, wenn man eben keine virtuelle CPUs braucht sondern echte.

---------- Beitrag hinzugefügt um 20:45 ---------- Vorheriger Beitrag war um 20:32 ----------

Moin,

hat jemand von euch auch Erfahrungen mit den Karten unter Linux? Und sind auch längere Kabellängen als 10m möglich?
Die Karten werden hauptsächlich unter Linux genutzt, das ist also kein Problem. Die maximalen Kabellängen sinken bei den schnelleren IB Varianten auf 7m (QDR) bzw. 5m (FDR) ab. Längere Kabel sind nur noch als Glasfaserkabel erhältlich, aber diese sind teuer.
 
Ich hab den Threat jetzt komplette durchgelesen (und hoffe nichts überlesen zu haben) > Hat jemand von euch die günstigen Voltaire HCA 410-4EX 10GE Infiniband-Karten mit ESXi (5) zum Laufen bekommen? Das wäre ja eine extrem günstige und praktische Lösung um zwei Hosts miteinander zu verbinden.

Wenn ihr mehr als zwei Rechner verbinden wollt - geht ihr dann über einen Infiniband-Switch oder den Alternativweg mit meheren Infiniband-Karten pro Host?
 
Hast du dir wirklich den ganzen Thread durchgelesen?

Wenn nicht, dann fang mal so bei Post 140 nochmal an, da gibt es ausreichend Infos, da es ab da eigentlich ausschließlich um IB geht.

Und ja, du kannst mehrere IB HBAs in einem Host installieren, aber auch dazu findest du entsprechende Infos in dem Thread, da ich zB genau das gemacht habe und auch auf einige Probleme gestoßen bin.
 
Hallo underclocker24,

die Beiträge hatte ich gelesen. Allerdings habe ich kein Fazit finden können, ob es nun wirklich funktioniert mit den Mellanox Treibern in Kombination mit den Voltaire HBAs... :/

Auf der Seite Mellanox Products: InfiniBand OFED Driver for VMware® ESX Server findet man auch nur Treiber für ESX 4 und nicht für 5... Auf VMware-Seite habe ich aber auch nur wenig Informationen zu IB finden können.
 
Zuletzt bearbeitet:
Es werden eigentlich nur OFED Driver eingesetzt. Das sind quasi generic driver.

Das wird noch etwas dauern, bis die OFED Driver für den 5.0er raus sind.
4.1 ist aber nicht das Thema.

Warum willst du denn 2 Hosts mit einander SO verbinden? (Welche Anwendung?)
 
Fault Tolerance, Migration von VMs zwischen den Datastores, etc. Wenn es funktionieren würde, dann könnte man ja günstiger fast keine 10GE-Strecke erstellen. Sicherlich ist aber auch einfach einiges technisches Interesse dabei (wahrscheinlich deutlich mehr als die technische Notwendigkeit vorhanden wäre).
 
Ich hätte da mal ne Noob-Frage... ich hab hier ein 1Gbit Netzwerk mit Workstation, Server und diversen weiteren Netzwerkrechnern.
Wäre es möglich die Workstation zusätzlich mit 10Gbit direkt mit dem Server zu verbinden?

edit: meinte natürlich Workstation direkt mit Server nicht Server mit Server... ;)
 
Zuletzt bearbeitet:
Das sollte problemlos möglich sein. Du solltest dann nur ein anderes Subnetz nutzen, und die Kisten sollten sich nur über die IPs aus diesem Subnetz ansprechen (damit die nicht über die vorhandene 1Gbit Leitung kommunizieren)
 
(Sorry, meinte natürlich Workstation mit Server, aber ist ja eigentlich klar...)

Das hört sich ja schon mal gut an... Und wenn ich ein Subnetz für Workstation und Server mit den 10Gbit-Karten einrichte kann ich aber noch normal mit den anderen über den Switch kommunizieren? Auch parallel, ich meine von einer Anwendung aus? oder ist das dann nicht möglich?
Also konkret geht's darum, dass es eben einen Fileserver gibt, zu dem ich gerne eine schnellere Verbindung für das direkte Arbeiten hätte.
Von der Workstation aus starte ich dann Netzwerkrenderings. Alle Rechner holen sich dabei die Daten vom Server, der Manager ist aber die Workstation.
 
Zuletzt bearbeitet:
Klar, das geht. Es ist ja alleine davon abhängig unter welche IP du den Server ansprichst.
 
ok... so ganz klar ist mir das jetzt noch nicht. Wie ich das definiere und so... aber mal grundsätzlich gefragt, welche (günstige) Karte wäre denn zu empfehlen?
Und ist es möglich, die Kabel selbst zu konfektionieren, bzw. den Stecker zwischenzeitlich zu entfernen? Das Kabel nämlich durch eine Bohrung in der Decke durchgesteckt werden und das passt nur ohne Stecker...
 
Schau dich mal im ersten Post um, da findest du viele Infos zu den möglichen Technologien und den damit verbundenen Karten und Kabeln.
Die günstigste Lösung ist wohl IP over InfiniBand (IPoIB). Kabel konfektionieren kannst du da aber direkt vergessen, ist nicht möglich. Außerdem sind die Stecker echt groß. Wenn du damit durch ein Loch willst kannst du das eigentlich direkt knicken oder du machst ein Loch von ca. 4x2 cm ;)
Bei allen aktuellen, optischen Lösungen mittels LWL kommen ja LC Stecker zum Einsatz. Die sind nur geringfügig dicker als der LWL selbst und stellen da schon kein größeres Problem mehr dar.
Am Ende ist es auch eine Frage der Verfügbarkeit, es sei denn du willst neue Hardware kaufen.
 
Sind heute angekommen, noch keine Gelegenheit gehabt zum testen. Hab vor knapp zwei Stunden erst Feierabend gemacht und jetzt grad keine Lust.
Werd ich morgen machen wenn ich dazu komme!

edit:
So, das schaut hervorragend aus! Sobald Saft drauf ist flackern die LEDs auf und die Karten kriegen einen Link mit 10 GBit. Ich habe jetzt nicht getestet, wie viel Bandbreite ich drüberkriege, weil beide Karten aus logistischen Gründen gerade sinnvoller Weise im selben System stecken und ich in dem Hobel keine ausreichend schnellen Laufwerke drin habe. Ich gehe aber davon aus, dass die jetzt normal funktionieren und da einiges drüber gehen wird!

Demnächst kriege ich noch zwei HP NC552SFP Karten zum testen, da werde ich die SFP+ CU Kabel nochmal testen.
 
Zuletzt bearbeitet:
Das ist doch super!
An tests mit den NC552SFP währe ich natürlich Interissiert. (Auch wenn es der selbe Controller Chip ist)
Die Emulex Chips scheinen wohl momentan das Beste zu sein was billig zu kriegen ist.
Wie geschrieben deren TCP Offload Engine reduziert die CPU Last auf so ziemlich 0.

Treiberinstallation geht unter Desktop Windosen nicht mit dem Offiziellen Installer.
Ich hab ihn auf einer Serverversion installiert und dann die Treiberfiles rauskopiert.
Bei Installation über den Geräte Manager funktionieren sie Problemlos unter Desktop Versionen.
 
Hier mal ein paar Impressionen der HP NC552SFP:

http://dl.dropbox.com/u/20763195/NC552SFP#1.jpg
http://dl.dropbox.com/u/20763195/NC552SFP#2.jpg
http://dl.dropbox.com/u/20763195/SFPs.jpg

Die Seriennummern hab ich mal geschwärzt, weil das nicht meine Hardware ist und ich nicht weiß ob man damit irgendwas anstellen könnte :d
Wenn du willst kannst du die Bilder für den ersten Post benutzen, falls du die Karte aufnehmen willst. Auf den Bildern sind auch alle HP Teilenummern erkenntlich.
Die HP Bestellnummer für die Karte ist 614203-B21, für die Transceiver ist es 455883-B21.
Unter diesen Bestellnummern erhält man die Karte ohne Transceiver mit Low Profile und Full Height Slotblende, respektive einen Transceiver. Falls man beide Ports bestücken will braucht man die 455883-B21 also zweimal pro Karte.
Die Komponenten findet man auch bei Geizhals, aber nur in den unsortierten Angeboten. Daher gibt es jedes Teil mehrfach, da andere Händler evtl. andere Namen vergeben haben.

Die hauptsächlichen Listungen hab ich mal rausgesucht:
Karte: Geizhals.at Deutschland und Geizhals.at Deutschland
Transceiver: Geizhals.at Deutschland und Geizhals.at Deutschland und Geizhals.at Deutschland

Da ist übrigens auch noch ein Fehler im Startpost, denke ich.
Unter der Erklärung zur OCe11102 kommt ein Bild der OCe11102, aber eigentlich alle Details zur OCe10102. Unsere IBM Karten mit der FRU 49Y4202 basieren auf der OCe10102.

Die HP NC552SFP basieren auf der OCe11102. Optisch unterscheidbar sind beide wohl auf den ersten Blick an dem zusätzlichen Anschluss für irgendwas im hinteren Bereich oben an der Karte.
 
Zuletzt bearbeitet:
Kleine Anmerkungen für den ersten Post

Ziel und Thema dieses Threads:
Wir wollen also die Grenze von klassischem Gigabit Ethernet (1 Gbit/s bzw. 1000 Mbit/s) durchbrechen. Dafür kann man sich verschiedener Technologien bedienen.
Dieser Thread beschäftigt sich hauptsächlich mit Infiniband (IB) und 10 Gbit Ethernet (10 GbE).
Es handelt sich dabei um konkurrierende Standards, die für verschiedene Anwendungen gedacht sind.
IB und Ethernet konkurrieren nicht direkt miteinander, da wie du schon angibst, beide Standards für verschiedene Anwendungen entworfen wurden.
Im Falle von Ethernet für eine billige Netzwerkverbindung, welche selbst Haushaltsgeräte unterstützen und einige Geräte der Unterhaltungsindustrie.

Infiniband ist für eine schnelle Cluster Verbindung entworfen worden auch unter Umgehung der CPU. Es können Daten direkt in den Ram bzw. auch Cache einer anderen CPU geschrieben werden. Sowas ist Sicherheitstechnisch nicht für eine normale Vernetzung von ungesicherten Geräten vertretbar. Das die aktuelleren IB HCAs auch Ethernet als Protokoll unterstützen ist dem Umstand geschuldet, dass die Infrastruktur für IB sehr teuer ist. Und man sich ein weiteres Netzwerk für Cluster-Internen Datenaustausch aus Kostengründen sparen will. Die einzelnen Rechner haben zumeist eh 2-4 Gbit Eth Anschlüsse.

Die sonstigen Alternativen für Highspeed Netze:

1. Myrinet - Der Exot:
Gibts in 2 Gbit/s und 10 Gbit/s versionen, die 10 Gbit/s Karten machen auch gleichzeitig 10 GbE.
Die 2 Gbit/s Karten gibts nur im PCI-X Format und sind damit eher uninteressant.
Ich habe die 2 Gbit/s Variante mal getestet und festgestellt, dass im TCP/IP Betrieb die Systemlast sehr hoch ist, da keinerlei Offloading vorhanden ist.
Durchsatz lag bei etwa 190 Mbyte/s (bei 100% CPU Last).
Um natives Myrinet zu nutzen muss man sich seinen eigenen Code basteln.
Die API ist gut dokumentiert, aber ich denke das möchte sich niemand fürs Heimnetz antun.


2. FibreChannel - Das geht nicht!
FibreChannel Adapter sind ebenfalls günstig zu erwerben.
Datenraten: 1, 2, 4, 8 Gbit/s.

Es ist aber nicht ohne weiteres möglich diese für Ethernet einzusetzen.

Es gab mal einen Ethernet over FC Standard, dieser hat eine sehr geringe Verbreitung bzw. ist inzwischen tot.
Heutzutage geht man den umgekehrten Weg: FibreChannel over Ethernet, kurz FCOE.
Netzwerkkarten, die das beherrschen, bezeichnet man als CNA. Dazu später mehr.
Myrinet war Anfang des letzten Jahrzehnts recht weit verbreitet. Es war eher ein Konkurrent zu IB. Die PCI-X Karten hatten allerdings nur einen Anschluss und passten wegen der Kodierung nur in 3,3V PCI Steckplätze.

FC gab es auch mit 100Mbit/sec und der aktuelle Standard ist 16Gbit/sec seit über einem Jahr. Die 1Gbit/sec Variante kann man streichen, da diese oft noch größere GBIC Module benötigten und keinen LC-Anschluss für den LWL hatten. Die Übertragungsraten von 2 bis hin zu 16Gbit/sec sind untereinander Kompatibel. FC verwendete für die 10GBit/sec Module XFP (gab es schon bevor 8Gbit spezifiert wurden). Für 2 und 4Gbit/sec SFP - so wie auch Gbit Ethernet. Und für 8 und 16Gbit/sec SFP+ Module so wie auch 10Gbit Ethernet.

Fibre-Channel wird innerhalb eines Racks auch über Kupferkabel übertragen. Hier konkurriert es auch mit 4x SAS mit 6Gbit/sec und wird von diesem wohl aus Kostengründen durch SAS-Expander verdrängt für den direkten Anschluss von Speicher. Als zuverlässiger und schneller Standard wird FC jedoch weiterhin in einem SAN für längere Strecken verwendet werden. Die Latenzzeit für einen FC-Switch liegt im einstelligen µ Sekunden Bereich. Und sofern eingestellt wird auch eine sichere Ende zu Ende Datenübertragung garantiert.

Standard #1: Infiniband

Infiniband ist der De-Facto Forenstandard weil die Hardware für günstiges Geld in der Bucht erhältlich ist.

Ein SDR Infiniband Kanal erreicht 2,5 Gbit/s Signalrate. Wie viele andere aktuellen Interfaces (z.B. SATA) wird ein 8B/10B Code verwendet. Das heisst, dass von zehn übertragenen Bits acht Bits Nutzdaten sind. Mit anderen Worten, der konzeptionell bedingte Overhead beträgt 20%.
Diese Rechnung beinhaltet noch nicht den zusätzlichen Overhead durch andere Protokolle, die man über IB nutzt. In unserem Fall zumindest TCP/IP, zusätzlich vielleicht noch FTP usw.

Darüber hinaus ist noch FDR und EDR spezifiziert, die mit einem 64B/66B Code den Overhead massiv verkleinern, auf die wird hier jedoch erstmal nicht weiter eingegangen auf Grund mangelnder Verfügbarkeit.

Das ergeben sich folgende, effektive Signalraten:

SDR: 10 GBit/s
DDR: 20 GBit/s
QDR: 40 Gbit/s

Bedenkt, dass davon mindestens 20% für Overhead draufgehen werden!
s/Das ergeben sich folgende, effektive Signalraten/Es ergeben sich folgende Kanal Übertragungsraten/*

CX4 wurde auch für die ersten 10Gbit Eth Netzwerkkarten sowie bei den 4x3Gbit/sec SAS Verbindungen. Inzwischen gibt es QSFP, SFP+ und bei SAS mit 6Gbit/sec noch einen anderen Anschluss.


Daten können _nicht_ einfach 1:1 gespeichert oder übertragen werden. Man nennt die dafür notwendige Kodierung Leitungskodierung
http://de.wikipedia.org/wiki/Leitungscode

Eine Leitungskodierung von 8bit/10bit wie bei SAS/SATA, 1Gbit Eth und IB mit 10-40Gbit/sec ist wie bei allen anderen Datenübertragungen zwingend notwendig und wird in der Regel nicht als Overhead bezeichnet. Bei aktuellem SAS/SATA mit 6Gbit/sec gibt man meistens halt nur gleich die Nutzdatenrate mit ca. 600MByte/sec an.
Wenn bei IB die reale Anzahl der Übertragenen nullen und einsen angegeben wird, dann ist das halt nunmal so. Ist wie der Streit bei der Speicherkapazität von Festplatten mit MByte und MiByte. Bei _richtigen_ Datenblättern von HDDs wird in der Regel auch die reine Schreib- bzw. Lesedatenrate von den Magnetscheiben angegeben incl. der RLL und ECC Daten nebst Sektorinformationen usw.

http://de.wikipedia.org/wiki/Run_Length_Limited
Bei HDDs werden aktuellere angepasste Codierungsverfahren verwendet.

Software:
IP over Infiniband (IPoIB) ist das Stichwort, wenn man normale Netzwerkanwendungen darüber laufen lassen möchte.
Dabei ist darauf zu achten, dass die Karten IP Offloading unterstützen, denn sonst ist mit hoher CPU last zu rechnen.

Für iSCSI gibt es RDMA, welches die Daten direkt zwischen den Hauptspeichern der beteiligten PCs ohne CPU Beteiligung transferiert.
Das funktioniert, soweit ich weiß, nur unter Linux/Solaris vernünftig.

Standard #2: 10 Gbit Ethernet

Planung und Aufbau:
Da die Retailpreise sich einfach nicht bewegen wollen kommt nur ein Gebrauchtkauf in Frage.
Switche mit 10 Gbit sind unverhältnismässig teuer.

Daher wird der Heimanwender auf eine Punkt zu Punkt Verkabelung setzen.
Günstigerweise sind die meisten Karten, die verkauft werden, Dualport Karten.
Das vereinfacht die Sache! Man baut einfach eine Netzwerkbrücke über diese beiden Ports. Damit lassen sich Theoretisch unbegrenzt viele PCs vernetzen, leider teilen sich diese auch die Bandbreite.
Das normale Heimnetz für Internet usw. bleibt natürlich physikalisch getrennt!

Die Verschiedenen Anschlüssen und Standards:


Glasfaser:

Lichtwellenleiter (LWL):

Oft auch Glasfaserkabel genannt, häufig findet man auch die falsche Bezeichnung FibreChannel-Kabel! Sehr billig gebraucht zu haben, auch neu noch problemlos erschwinglich. Preise werden weiter unten noch genau behandelt.

Üblicherweise sind Multimode-LWL orange, Singlemode-LWL sind gelb. Wir befassen und hauptsächlich mit Multimode-LWL, die für kurze und mittlere Übertragungslängen gedacht sind. Das sind immer noch mehrere 100 Meter, für den üblichen Heimgebrauch also ausreichend.

Außerdem unterscheidet mal die Faserkategorie, bei Multimode-LWL sind das die Kategorien OM1, OM2, OM3 und OM4. OM1 und 2 sind dabei hauptsächlich zur Anwendung mit LEDs als Lichtquelle gedacht, was früher häufig der Fall war. Damit war 10 Gbit/s technisch unmöglich, weswegen nun hauptsächlich Laser eingesetzt werden, wofür man OM3 oder 4 benötigt. Daher beim Kauf darauf achten, dass die LWL mindestens der Kategorie OM3 entsprechen!
Falsch! OM1 ist der veraltete Standard mit 62,5µm Kerndurchmesser für Multimode LWL. Ab OM2 beträgt dieser nur noch 50µm. Sowohl OM1 als auch ein paar Kabel mit OM2 gibt es mit den veralteten ST Steckern (Bajonett Verschluss wie frühers ein BNC Netzwerk) den großen SC-Steckern welche doppelt soviel Platz brauchen wie der aktuelle LC-Stecker. Wenn man längere Strecken als 30-60 Metern überbrücken muss sollte man auf OM3 Kabel achten. Falls noch länger bis hin zu 300 Metern bei 10Gbit Eth. oder 550 Metern bei 1Gbit Eth. eher doppelt so teure OM4. Wobei man in der Praxis ca. 10% von den max. Längen als Sicherheit abzieht.

Für 10/40/80/120km werden OS1 bzw. OS2 Single-Mode Fasern verwendet. Und hier werden Laser eingesetzt! Die optischen Module sind in der Regel deutlich teurer, im Gegenzug sind Single-Mode LWL-Kabel günstiger pro Meter.

Kupfer:

10Gbase-T:
SEHR selten zu finden, ist der standard der über CAT6 und CAT7 Kabel mit RJ45 Steckern läuft.
Soll aber viel Strom brauchen und weniger zuverlässig sein als die optischen Alternativen.
Distanz: 100 Meter



---------- Post added at 20:35 ---------- Previous post was at 20:18 ----------

Zeichnet sich im Moment eigentlich eine Kupfer basierende Lösung (Cat6, Cat7) für 10GBE ab, die sich in ähnlichem Maße einsetzen lässt wie 1GBE Ethernet heute? Also 100m Länge, "problemlose Verlegung im Sinne von praxistauglichen Anforderungen an die Leitungsführung" usw, wozu ja hier geschrieben wird
Ist es abzusehen dass der 10GBase- T Standard sich "durchsetzt" oder wird das aus physikalischen Gründen vermutlich bei 10GBE eher im LWL Bereich, also 10GBase-SR usw. bleiben?

Also LWL für lange Strecken zwischen Serverräumen und Racks, Kurzstreckenlösungen innerhalb des Rack auf Kupfer und für die Anbindung der Clients bzw. im Bürobereich weiterhin kupferbasierendes 1GBE.

Hintergrund: es wird ja stets auf die Zukunfssicherkeit bei Cat6/ Cat7 Leitungsinstallationen hingewiesen.
Aus meiner Sicht zu allem was man im Netz dazu liest wird sich 10GBase- T aber kaum zur Arbeitsplatz/ Bürovernetzung auf Kupferbasis durchsetzen. (Somit auch entsprechende Hardware nicht bzw. teuer?)

Um die Brücke zurück zum Home- Einsatz zu schlagen: ich setze bei mir bei bestimmten Strecken mittlerweile LC-LC Kabel ein, und überlege ob es bei zukünftigen (Neubau Fest-) Installationen vielleicht nicht sogar klüger ist für das High- End Home Netzwerk LC Einbaubuchsen neben Cat6 Leitungen vorzusehen?

Cat 6A wurde schon vor einiger Zeit spezifiziert und es gibt auch genug Kabel und Dosen dafür. Bei einigen Händlern sind entsprechende Produkte halt noch falsch unter Cat7 aufgeführt. Falsch deswegen, weil es für Cat7 noch keine Spezifikationen/Standard gibt.
10Gbit Eth. kommt dieses Jahr auf den ersten Server/Workstation Mainboards. Der Grund warum es so lange gedauert hat, ist mitunter der hohe Stromverbrauch. Warum 10Gbit Eth. für Consumer Geräte weiterhin auf lange Sicht nicht kommen wird: 10Gbit ist im Gegensatz zu 100 und 1000Mbit Eth nicht abwärtskompatibel. Sprich, sofern man keinen Switch hat der das für einen übernehmen würde, können nur zwei Geräte mit 10Gbit Eth direkt untereinander Verbunden werden. 10 zu 1Gbit Eth. ist nicht vorgesehen.

LWL bis zum Arbeitsplatz ist für ein Haus wohl etwas übertrieben. Da wo man sich es vorstellen kann ist eher die Verkabelung von Stockwerk zu Stockwerk. Wenn man irgendwann mal einen Switch mit 10/40Gbit Modulen kauft. Der minimale Biegeradius von 30-50mm ist halt doch etwas anderes als man bei den günstigen Patchkabeln aus Kupfer gewohnt ist.

Sofern es dich trotzdem interessiert, bei telegärtner.de kann man sich auch konfektionierte Kabel zusammenstellen mit Einziehielfe usw.
Interessant ist sowas aber preislich rein zum Spass eher nicht.
 
Zuletzt bearbeitet:
@bluesunset:
Die Lesbarkeit deines Posts ist dank der großzügigen Zitate des Startposts ziemlich unoptimal. Wenn du zu einigen Punkten was zu sagen hast oder etwas hinzufügen willst, dann solltest du das etwas übersichtlicher strukturieren.

Kurz etwas zu einigen deiner Punkte:

16 Gbit FC ist de facto noch nicht der aktuelle Standard. Im Moment ist 8 Gbit noch aktuell. 16 GBit ist verabschiedet, aber zur Marktverfügbarkeit hat es noch kein Produkt geschafft. Geplant war das schon für letztes Jahr, da wurde aber nichts draus. QLogic spricht im Moment von Mid-2012. Emulex baut gerade ihre Website um, dürfte da aber ähnlich liegen. Ob das auch einer direkten Verfügbarkeit bei den großen Systemherstellern gleichkommt weiß ich nicht, müsste ich mal bei HP in Erfahrung bringen. Denn erst das sorgt meistens für "richtige" Verbreitung.

Bei der OM1/OM2 Geschichte hast du Recht, der Markt gibt allerdings auch 62,5/125 Kabel mit OM2 Spezifizierung her. Inwiefern das nur Fehlinformationen sind lässt sich nur schwerlich beurteilen, denn dann wäre das ein sehr verbreiteter Fehler.
Allerdings wurde ja darauf hingewiesen OM3 zu kaufen, die auch nicht teurer sind als andere Kabel. Daher sollte man da eigentlich nicht auf irgendwelche Probleme treffen.

Overhead ist der Überbegriff für die Menge an notwendigen Informationen einer Datenübertragung um eben diese zu ermöglichen. Wenn ein 8B/10B Code verwendet wird, dann sind die zwei Bits, die nicht Nutzdaten beinhalten, der Overhead. Der Begriff ist völlig richtig gewählt.
 
Der Post wurde optimiert :)

Zu 16Gbit FC, einfach mal beim Hersteller Brocade ins Angebot schauen:
Brocade DCX 8510 Backbones
"14U Brocade DCX 8510-8 has eight vertical blade slots to provide up to 384 16 Gbps Fibre Channel ports.
8U Brocade DCX 8510-4 has four horizontal blade slots to provide up to 192 16 Gbps Fibre Channel ports.

The Brocade DCX 8510 family supports 2, 4, 8, 10, and 16 Gbps Fibre Channel, FICON, and 1/10 Gbps Fibre Channel over IP (FCIP)."

Passender 16Gbit FC-HBA der auch 10Gig Eth kann:
Brocade 1860 Fabric Adapter

Interessant dürfte es werden, wenn irgendwann mal 32Gbit FC auf den Markt kommen sollte und die Karten dann auch 40Gbit Eth unterstützen. So wie die eine Mellanox Karte mit 56Gbit IB und 40Gbit Eth.

Kennst du Bezugsquellen für neue "richtige" OM3 Kabel für den angegeben günstigen Preis im Startpost?
 
Ah ok, Brocade hat also schon was. Hab dazu auch ein paar Listungen gefunden, für eine Verfügbarkeit ab Q2/2011 ist das aber schon etwas dürftig.
Bei HP ist davon auch noch nichts zu sehen, die haben immer Brocade Adapter im Portfolio. Vielleicht tut sich da was mit G8.
Ein weiteres Problem ist die Verfügbarkeit von 16 Gbit Endgeräten, die man ja auch noch braucht.
Für den Privatbereich können wir es ignorieren, denke ich. Die Preise sind zu hoch, die Verfügbarkeit zu schlecht, und wir wollen ja Ethernet machen, was dann nur mit CNAs geht. Einen Vorteil gegenüber reinen Ethernetkarten hat man da dann nicht mehr. Eine Erwähnung zwecks Vollständigkeit ist es vielleicht wert, schadet ja nicht.

Die Daten im Startpost stammen von mir, daher: Ja, hab ne Bezugsquelle dafür! :)
Ich habe meine LWL Kabel zuletzt immer hier gekauft: LWL Patchkabel LC/LC OM3 | Online Shop für Netzwerkkabel, Patchkabel, Druckerkabel, Computerkabel und Zubehör
Preislich einwandfrei, Lieferung schnell und Kundenservice sehr gut. Bis jetzt haben die immer Kabel von Synergy 21 geliefert: Synergy 21 -LWL Patchkabel
Daher sind meine Kabel im Moment alle "hellblau", bzw. ich würde es eher türkis nennen.
 
Die Karten gibt es neu schon zu kaufen. Nach SFP+ Modulen hab ich bei Finnisar noch noch geschaut was die so kosten sollen. Das Türkis ist die normale Farbe für OM3 Kabel. Ist bei telegärnter auch so, damit man die besser erkennt. 8Gbit/FC hatte da mit älteren Kabeln wohl einige Probleme.
 
Ich kenn OM3 Kabel bisher auch nur orange, zumindest sinds alle die in der Firma. Ist aber im Endeffekt auch völlig egal, die Farbe stört mich nicht :d

@barnacle:
Hab die NC552SFP grad mal in Betrieb gehabt, die funktionieren mit dem selben unified Treibern wie die älteren OCe10102 und melden sich im Gerätemanager dann aber auch auch als NC552SFP. Laufen, wie zu erwarten, auf den meisten Boards mit x8 oder x16 Slot. Abgesehen vom Preis seh ich da im Moment keinen Haken dran, kann man wohl als empfehlenswert in den Startpost aufnehmen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh