[Sammelthread] 10Gbit Homenetzwerk

HP baut ja keine eigene Hardware in dem Sinne was das Zubehör usw. angeht, daher gehe ich auch davon aus, dass es sich um diese oder eine ähnliche Karte handelt.
Bei den Netzwerkkarten von HP hab ich jedoch die Erfahrung gemacht, dass die originalen Herstellertreiber (Intel) für das Basismodell nicht immer für HPs OEM Karten funktionieren. Inwiefern das für die IB Karten gilt kann ich nicht sagen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Falls es jemanden interessiert, die Intel E10G42BT (10 GB für cat6 max 55m) soll bald im Preis fallen (ovp soll dann 799 USD sein)...
 
Diese ganze 10GBit Geschichte verfolge ich schon ne weile ... aber für nen echtes 10GBit Netzwerk sind die Switches einfach noch zu teuer ...

Hat hier überhaupt jemand ein richtiges "Netzwerk" mit 10GBit Switch? Oder nutzt ihr alle nur die 10GBit zwischen zwei PCs?
 
10m sind keine Strecke die man Gebäuden verlegt, außer evtl in Barbihäusern.

Für richtig lange Strecken gibt es LWL.

Zeichnet sich im Moment eigentlich eine Kupfer basierende Lösung (Cat6, Cat7) für 10GBE ab, die sich in ähnlichem Maße einsetzen lässt wie 1GBE Ethernet heute? Also 100m Länge, "problemlose Verlegung im Sinne von praxistauglichen Anforderungen an die Leitungsführung" usw, wozu ja hier geschrieben wird
Bei diesem Aufwand erkennt man schnell, dass 10GBase-T nicht für die Arbeitsplatz-Vernetzung taugt.
Ist es abzusehen dass der 10GBase- T Standard sich "durchsetzt" oder wird das aus physikalischen Gründen vermutlich bei 10GBE eher im LWL Bereich, also 10GBase-SR usw. bleiben?

Also LWL für lange Strecken zwischen Serverräumen und Racks, Kurzstreckenlösungen innerhalb des Rack auf Kupfer und für die Anbindung der Clients bzw. im Bürobereich weiterhin kupferbasierendes 1GBE.

Hintergrund: es wird ja stets auf die Zukunfssicherkeit bei Cat6/ Cat7 Leitungsinstallationen hingewiesen.
Aus meiner Sicht zu allem was man im Netz dazu liest wird sich 10GBase- T aber kaum zur Arbeitsplatz/ Bürovernetzung auf Kupferbasis durchsetzen. (Somit auch entsprechende Hardware nicht bzw. teuer?)

Um die Brücke zurück zum Home- Einsatz zu schlagen: ich setze bei mir bei bestimmten Strecken mittlerweile LC-LC Kabel ein, und überlege ob es bei zukünftigen (Neubau Fest-) Installationen vielleicht nicht sogar klüger ist für das High- End Home Netzwerk LC Einbaubuchsen neben Cat6 Leitungen vorzusehen?
 
Ich sehe bei 10G base-t kein Problem.

Die angesprochenen Probleme rühren von Unkenntnis her, das gab es schon bei gigabit.

Der Wald- und Wieseelektriker kennt nunmal nicht die Gegebenheiten in der Fernmeldetechnik, entsprechend geht er unbedarft an die Sache ran und verlegt halt einfach mal so Leitungen. Dass das einem dann auf die Füße fällt dürfte klar sein.

Die aktuellen Probleme mit der 10G base-t Technik sind bekannte Sachen, wenn man neue Techniken einführt. Da gibt es eben Standards, die so eng bemessen sind, dass man hier extremst genau arbeiten muß.
Mittlerweile sind wir aber bei Bandbreiten auf TP-Leitungen die die GHz-Grenze weit überschreiten, damit einher geht eine entsprechende Güte der Leitungen die den einen oder anderen kleinen Fehler verzeiht.

Gepaart mit der Entwicklungen im DSP Bereich, die noch lange nicht am Ende ist, sehe ich den Einsatz von 10G base-t auch im Heimbereich unproblematisch.

Man darf auch nicht vergessen, bis wir 10G base-t in der Heimanwendung sehen, vergeht noch viel Zeit, da bleibt den Entwicklern noch einiges an Entwicklungen zu entdecken.
 
Hat jemand schon Erfahrungen mit der Voltaire HCA 410-4EX und einem ESXi gemacht ?
Wird die Karte vom ESXi ohne Probleme erkannt ?

Würde gern meine Platten aus dem ESXi in einen seperaten Storage-Server ( basierend auf Windows Server 2008 R2 ) umziehen und da käme eine Anbindung über InfiniBand gerade richtig.

Eine iSCSI- oder NFS-Freigabe sollte doch möglich sein, oder ?
 
Zuletzt bearbeitet:

laut label schon auch wenn das auch wohl ursprünglich welche von mellanox sind. mir ging es da eher um den treiber. cisco gibt extra an, das die openfabrcis für windows zu verwenden sind. so eine aussage hab ich bei denen von HP nicht gefunden (laut layout aber ebenfalls die selben karten).

ich warte noch aufs kabel... die erste version war wohl für SAS gedacht. IB nicht gleich IB. selbst wenn man die schrauben ignoriert: es passt nicht. nen wenig metall blockiert das einrasten. deshalb hab ich mir nun noch nen passendes kabel mit laschen organisiert. das ist noch auf dem weg und sollte montag ankommen. derzeitiger status: karten sind verbaut und der openfabrics funktioniert so wie es aussieht:



hier die karten (1/2):



2x Cisco SFS-HCA-E2T7-A1 (aka Mellanox MHEA28-1TC??)
 
Zuletzt bearbeitet:
ist der Treiber unter openfabrics.org/ frei erhältlich ?
 
Sorry für das Off-Topic, aber ich wollt für diese Frage nicht wirklich ein neuen Thread eröffnen.

Ich habe die Möglichkeit an eine 2Gbit Fibre-Channel Karte zu kommen.
Die Karte besitzt dass PCI-X Interface.
Meine Workstation besitzt aber leider nur den normalen PCI-Steckplatz.

Macht es Sinn so eine Karte mit einem normalen PCI-Interface zu betreiben ?
Kann mir nicht vorstellen dass ich die Karte damit ausreize ...
 
2 GBit sind unter, theoretischen und vereinfachten Annahmen, 200 MB/s.
Die maximale PCI Bandbreite beträgt 133 MB/s und wird auch noch für alle PCI Devices geteilt.
Möglich - ja. Sinnvoll - bedingt.

Diese Karten kriegt man übrigens nachgeschmissen, d.h. wenn du dich dafür entscheidest sieh zu das du nicht zu viel dafür hinlegst ;)
 
2 GBit sind unter, theoretischen und vereinfachten Annahmen, 200 MB/s.
Die maximale PCI Bandbreite beträgt 133 MB/s und wird auch noch für alle PCI Devices geteilt.
Möglich - ja. Sinnvoll - bedingt.

Diese Karten kriegt man übrigens nachgeschmissen, d.h. wenn du dich dafür entscheidest sieh zu das du nicht zu viel dafür hinlegst ;)

Ja grad weil man sie nachgeschmissen bekommt - kommt so etwas in Frage ;)

Die Bandbreite bei PCI wird geteilt ?
Das heißt so viel wie dass nicht jedes PCI-Interface einzeln angesprochen wird ?
Wenn ich ein Mainboard mit fünf PCI-Slots habe und in jedem Slot steckt eine FC-Karte, dann müsste doch die Übertragungsrate bzw. Bandbreite total einbrechen ...


Aber theoretisch müsst ich mit einer 2GBit FC-Karte ( PCI angebunden ) besser fahren als mit einer normalen 1GBit-Karte ( PCIe angebunden ), oder ?!

Hab bei Wikipedia mal was rausgesucht:
unbenanntqjvi.png
 
Zuletzt bearbeitet:
Die Bandbreite bei PCI wird geteilt ?
Das heißt so viel wie dass nicht jedes PCI-Interface einzeln angesprochen wird ?

Ja genau, PCI ist ein Bus. PCIe eine Punkt-zu-Punkt Verbindung.
Das ist vergleichbar mit dem Verhältnis von Hub zu Switch im Netzwerkbereich.

Wenn ich ein Mainboard mit fünf PCI-Slots habe und in jedem Slot steckt eine FC-Karte, dann müsste doch die Übertragungsrate bzw. Bandbreite total einbrechen ...

Genau das wird passieren!

Aber theoretisch müsst ich mit einer 2GBit FC-Karte ( PCI angebunden ) besser fahren als mit einer normalen 1GBit-Karte ( PCIe angebunden ), oder ?!

"Theoretisch" magst du Recht haben, aber in der Praxis lässt sich das pauschal nicht beantworten. Tendenziell würde ich zur PCIe Karte greifen, wo du die 100 MB/s sicher kriegen wirst.

Wenn du da wirklich was mit FC aufbauen willst, dann kannst du dich auch nach aktuelleren PCIe Karten umsehen. 2 GBit Singleport Karten sind auch nicht wirklich teuer. 4 Gbit Dualport gehen für ~120 Euro gebraucht übern Tisch.
 
Danke für die Antworten ! :wink:

Dann werd ich wohl mein Plan umwerfen ...

Wenn du da wirklich was mit FC aufbauen willst, dann kannst du dich auch nach aktuelleren PCIe Karten umsehen. 2 GBit Singleport Karten sind auch nicht wirklich teuer. 4 Gbit Dualport gehen für ~120 Euro gebraucht übern Tisch.


Kennst du zufällig eine Website wo ich die FC-Karten mit PCIe-Interface erwerben kann ?
 
Die gibts in jedem gut sortierten Händlerregal, allerdings zu entsprechenden Preisen, und es tauchen immer mal wieder gebrauchte in der Bucht auf.
 
Gut - werd mich ma umsehen.

Danke !
 
Viel interessanter ist die Frage, was hast du damit vor?

FC hat NIX mit Netzwerk zu tun.
Es gab zwar vereinzelt Karten wo man TCP tunneln konnte, die kannst du aber an einer 1/2 Hand abzählen.

Wenn du das also für Netzwerk nutzen willst, vergiss es!
 
Joa, FC ist nunmal primär zur Anbindung von Platten ausgelegt. Wenn du unbedingt dein LAN beschleunigen willst, dann schieß dir meinetwegen inner Buch zwei günstige Karten + Kabel (wobei letztere das Teure an den Dingern sind) Ansonsten wurden hier im Thread schon einige brauchbare Links gepostet ;)
 
LC-LC Kabel sind günstig, im Vergleich zu IB sogar fast kostenlos. 15m 20EUR oder sowas.

Und wie schon gesagt, man kann damit KEIN LAN aufbauen.

FC ist nicht nur primär als Storageanbindung gedacht, sondern fast ausschließlich.
Es gab mal den Ansatz TCP zu tunneln, der hat sich aber nicht durchgesetzt, da es IB gab und somit keine Bewandnis.
(wie gesagt, nichtmal eine Hand voll FC HBAs können das)

FC bitte nicht mit optischen Netzwerkkarten verwechseln, die sehen zwar ähnlich aus, sind aber völlig verschieden.

HBA vs NIC.
 
Zuletzt bearbeitet:
Fibrechannel? Da hatte ich doch schon im Startpost was zu geschrieben..
(ja ich weiss ich muss den mal wieder Pflegen)

Selfquote: ;)
3. Das geht nicht:
Fibrechannel Adapter sind ebenfalls günstig zu erwerben.
Datenraten: 1, 2, 4, 8 Gbit/sec.
Es ist aber NICHT OHNE WEITERES MÖGLICH DIESE FÜR ETHERNET EINZUSETZEN.
Es Gab mal einen Ethernet over FC standard dieser hat sehr geringe verbreitung bzw. ist inzwischen TOT.
Heutzutage geht man den umgekehrten weg: Fibre Channel over Ethernet kurz FCOE.
Netzwerkkarten die das Beherrschen bezeichnet man als CNA. - Dazu später mehr.

Ergänzen könnte man das es Target mode Treiber für Linux / Solaris FÜR BESTIMMTE KARTENHERSTELLER gibt.
Damit kann man dann Volumes als Festplatten / Optische Laufwerke exportieren und am anderen ende wie eine Lokale Platte nutzen.

Fazit: Machs nicht...

Und ja die glasfaserkabel sind schön billig gehen auch gut für 10GB-SR.
 
Zuletzt bearbeitet:
Derzeitiger Status: Lüppt wenn auch die Einrichtung auch nicht sooo einfach war. Installieren und go gilt nicht. Man sollte noch nen paar Kleinigkeiten beachten. Ich schreib später noch ne kurze Installationsanleitung.

Hier mal auf die Schnelle nen erster Test (Quelle: Raid5 mit 5x1TB am H700 - Ziel: Raptoren-Raid0 im anderen Rechner; und ja das ist nur temporär :fresse:)



Des Weiteren Ziel erreicht: CPU-Auslastung dank IOP auf Raid-Controller und 128MB auf dem Cisco HCA bei maximalen 8% beim Kopieren (Auch am Anfang! Extra eben nochmal probiert - nen ausführlicher Test kommt mit schnellem Ziel für die Daten demnächst)

Benches mach ich ggf. gleich auch noch.
 
Sehr geil :drool:

Eine Anleitung wäre sehr sinnvoll - vorallem interessierts mich wie du die CPU-Last so niedrig halten kannst.

Die Cisco-Karte hat ein PCIe 8x Interface oder ?
Darf man fragen woher du diese hast und was die gekostet hat ?
 
Mit meinen Voltaire HCA 410-4EX (30 Euro bei ITSCO) ohne Cache usw. liegt die CPU Last auch im vernachlässigbaren Bereich, während 380 MB/s durchfliessen, was die Grenze des einen Raid 5 ist (großartige 5400er Eco Platten, die muss ich mal austauschen...)!
Bisher konnte ich also die angekündigte, hohe CPU Last, die dabei entstehen soll, nicht nachvollziehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh