[Sammelthread] 10Gbit Homenetzwerk

Hi

Na das ist nicht meine Preisklasse, da rüst ich lieber den Server auf.
Obwohl ich eigendlich schon recht zufrieden bin.
Schon klar, dass sowas für Privat zu teuer ist, aber du hast gefragt ;)
Wobei: Wenn ich mir den 8-Port Switch betrachte (der für Privat ja längstens genügen würde) und mir dann ansehe, was 10G Ethernet Switche mit mehr als ein paar Uplink-Ports kosten... Nur die Kabel sind halt ein Fluch.

Was mich wundert: Hat schon mal jemand versucht, IB mit iSER zu nutzen? Wenn ich das richtig verstehe, kommt man so ohne IP/Ethernet Kapslung aus. Durfte Overhead und CPU Last reduzieren. Oder können die 10GBit Karten noch kein RDMA?

Gruss
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Nur die Kabel sind halt ein Fluch.

Guck einfach bei EBay USA. Ich brauchte schnell ein 15m Kabel, in deutschland wenn überhaupt zu bekommen mehr als nur teuer. Hat mich in den USA als Gebrauchtware genau 24,39$ gekostet.

zuzüglich Versand, ich brauchte es flott, dann hab ich die Luftfracht (und damit eben auch noch den Zoll) draufgelegt. Dann waren es noch immer unter 50 Euro. Wohlgemerkt für 15m Infiniband Kabel! Da war es 4 Tage nach dem Ebay Kauf.
 
thread gelesen, 2x die karte für 29€ gekauft, kabel 10m in usa für 50€ gekauft, 400mb/sec zum backupserver - hab lange nicht mehr ins luxx geschaut, aber hier gibts immer was tolles neues! danke leute. :)
 
Ja gut, wenns' dann zwischen zwei PCs reicht isses ja auch okay ;)

Aber wenns daran geht mehrere PCs zu vernetzen dann ist 10Gbe einfach zu teuer ...

Da sollte man dann lieber, falls es reicht, 2er oder 4er 1Gbe trunks machen, die Hardware is einfach günstiger :)
 
Das 10 GbE zu teuer zur Vernetzung mehrerer Systeme ist würde ich so nicht unterschreiben. Mittels Switch ist es für Heimanwender zu teuer, das auf jeden Fall!
Aber da fast alle Karten sowieso zwei Ports haben kann man sich eigentlich damit ganz gut behelfen und einen Ring bauen oder was für eine Topologie auch immer gefordert ist.

Trunks aus 1 Gbit NICs helfen einem performancetechnisch fast garnicht, außerdem ist auch da der Preis nicht zu unterschätzen. Und switchen kann man das auch nicht ohne weiteres, da muss man auch genug Geld für einen Switch in die Hand nehmen.

edit:

So, ich schieb grad das erste Backup im "Livebetrieb" über IPoIB und bin ziemlich angefressen. Während meiner Tests kam ich auf 380 MB/s und glaubte, das sei die Grenze des einen Raids. Das glaub ich auch immer noch, allerdings ist es plötzlich nicht mehr relevant. Denn OHNE ÄNDERUNGEN an den beteiligten Systemen komme ich auf einmal nicht mehr über 30 bis 80 MB/s hinaus beim schreiben auf gewöhnliche Windows Netzlaufwerke. Ich habs bisher auch nicht geschafft die ursprüngliche Performance wiederherzustellen.
Das Lustige daran: Beim sichern eines Laufwerks per Acronis auf das selbe Netzlaufwerk kriege ich immerhin 150 MB/s mit der selben Konfiguration.
Ich habe QoS abgeschaltet, das hat aber nichts geändert. Jetzt habe ich allerdings auch die hohe CPU Last, ca. 80% auf allen vier Kernen des Phenom II X4 955.

Ich bin grad echt gefrustet und kurz davor, das alles auf 10 GbE umzubauen.
Das Backup lass ich nun erstmal über Nacht laufen (genau das wollte ich eigentlich nicht!), da die Performance im Moment nichts anderes ermöglicht.
 
Zuletzt bearbeitet:
Ich hab jetzt mal den Startpost an die Infiniband d00minanz angepasst.
Währe jemand von den IB'lern bereit nen kurzez How2 für den Startpost zu verfassen?
Dann als PM an mich dann wirds eingefügt.

Werde auch versuchen wie bei der 10GBE sektion infos zu den gängigen Karten zu sammeln und zusammenzufassen.
 
Zuletzt bearbeitet:
ist gefixt.
nen how2 währe sicherlich für Einsteiger hilfreich die nicht gleich den ganzen thread durchlesen wollen.
 
So,

nur kurz.
Bei mir läuft jetzt alles ohne Probleme.
Allerdings erst, seit dem ich den Subnet Manager auf den Client gepackt hab. Das wäre auch meine Empfehlung.
Der SM schaltet sich auf dem Server nach ner Weile nichtbenutzen (Client aus) irgendwie ab. Seit dem der SM auf dem Client läuft funktioniert alles bestens.
Infiniband ist auf jeden Fall das Geld wert!

Grüße
Jürgen
 
So,

nur kurz.
Bei mir läuft jetzt alles ohne Probleme.
Allerdings erst, seit dem ich den Subnet Manager auf den Client gepackt hab. Das wäre auch meine Empfehlung.
Der SM schaltet sich auf dem Server nach ner Weile nichtbenutzen (Client aus) irgendwie ab. Seit dem der SM auf dem Client läuft funktioniert alles bestens.
Infiniband ist auf jeden Fall das Geld wert!

Grüße
Jürgen

Dazu würde ich ebenfalls raten. Das Ausschlaten des SM-Clients führt dazu, dass beim späteren Neustart die IB-Verbindung auf dem status "Init" hängenbleibt. Da hilft dann nur das Löschen der Datei im OpenSM-Verzeichnis + Neustart des SM-Servers. So jedenfalls meine Erkenntnis bisher ;)
 
So hier ein kleines HowTo für alle, die sich eine Infiniband 10Gbit (oder) Verbindung einrichten möchten. Der Treiber sollte mit alle Mellanox, IBM/Cisco und ggf. auch HP Karten laufen. Jeder der sich passende Hardware kaufen möchte sollte aber vielleicht nochmal genau nachschauen ob der Openfabrics Treiber funktioniert. Danach kommt das Einbauen der Karten und die Installation des IB-Kabels (CX4 Steckersystem). Wenn dann beide Rechner laufen sind folgende Schritte auszuführen um die Verbindung einzurichten. Ich hab dies am Bsp. von Windows 7 x64 aufgezeichnet. 2K8 R2 lüppt aber auf die gleiche Weise:


img_3681rzdg.jpg


1. Usersicherheitseinstellungen anpassen - Stichwort "UAC"

Zunächst sollte man die UAC-Einstellungen auf die niedrigste Stufe setzen. Macht man dies nicht kann des dazu führen, dass später der OpenSM-Dienst nicht gestartet wird und man sich (wenn man es nicht erkennt) nen Wolf sucht. "Ausführen" -> "UAC" tippen und danach das Programm starten. Alternativ findet sich dies auch in der Systemsteuerung im Untermenü "Sicherheit". Um diese Fenster geht es:


Danach bitte einmal den/die Rechner neustarten!

2. Treibersoftware installieren

Nun geht es an die eigentliche Installation. Der IB-Adapter findet unter Windows keinen Treiber und wird im Gerätemanager so angezeigt:


An dieser Stelle sollte man sich den Openfabrics-Treiber im Netz besorgen (Google hilft). Nach dem Enpacken wird die Installation durch einen Doppelklick gestartet:


Nach ein paar weiteren Klicks gelangt man nun endlich zum Auswahl der zu installierenden Dinge. An dieser Stelle sollte man sich Gedanken machen, auf welchem System der OpenSM-Dienst laufen soll. Bei einer Punkt-zu-Punkt-Verbindung stellt sich da für die meisten hier die Frage: "Server oder Client". Ich würde dringend dazu raten den Dienst auf dem Klienten zu installieren. Damit ist das System gemeint, welches weniger/nicht dauerhaft läuft! Warum diese Empfehlung? Da komm ich später am Ende zu. Also aktiviere man nun zusätzlich auf dem Klienten bei der Installation den OpenSM aus (hier nicht als ausgewählt markiert, da der Dienst schon auf dem anderen System bei mir lief):


klickt man nun weiter wird die eigentliche Installation gestartet. Die "Fehlermeldungen" (ja es sind einige) sollte mit "Trotzdem installieren" beantwortet werden:



3. IB-Status überprüfen

Nach der Installation sollte man meine ich einmal neu starten. Falls dem nicht so ist, würde ich das trotzdem anraten. Ganz nebenbei kann man das Level der UAC wieder anpassen. Zunächst starte man den Server neu (System OHNE OpenSM-Dienst). Im Startmenü findet man nun den Openfabrics-Ordner und die passende Konsole. Nach dem Öffnen dieser lässt sich durch Eingabe von "ibstat" der Status der Karte bzw. der Verbindung abfragen:



Man sieht hier das der verbundene Port (hier Port 2) als physikalischen Status "Linkup" und eigentlichen Verbindungsstatus "Initializing" auswirft. Wenn man nun soweit ist sollte man auch den Client neu starten. Das führt dazu, dass sich nach kurzer Zeit der Status ändert. Sollt dies nicht passieren hat man nen UAC-Problem oder man sollte die Installation der Software auf dem Client entfernen und dann als "Administrator" (also nicht als User mit Admin-Rechten) nochmals durchführen. Ob das nötig ist, kann ich derzeit nicht nochmals überprüfen. Keine Lust alles nochmal durchzutesten :fresse: Gehen wir also davon aus, dass alles ordnungsgemäß funktioniert. Durch erneute Abfrage mittels "ibstat" ergibt sich dann folgende Anzeige:


Der Status "Active" ist jener, der angezeigt werden sollte, damit man nun an die Konfiguration der Netzwerkverbindung gehen kann.


4. Netzwerkverbindung und Adapteroptionen

Die IB-Verbindung sollte nun auch im entsprechenden Fenster als Verbunden angezeigt werden. In den Eigenschaften ist bereits alles vorhanden. Einige User berichten über bessere Übertragungsraten durch Deaktivieren des Paketplaners. Ich habs hier jetzt nicht gemacht. Am besten ein wenig damit rumspielen wenn die Verbindung i.O. ist.


Man kann hier schonmal die IP vergeben. Als nächstes sollte noch der Connected Mode auf beiden Systemen aktiviert werden. Dadurch wird automatisch die MTU-Größe deutlich erhöht:




Wenn man die IPs festgelegt hat ist die Verbindung im Grunde für die Nutzung bereit. EInzig und alleine eine Kleinigkeit gibt es noch. Windows stuft sie als "Öffentliches Netzwerk" ein. Wer die Dateifreigabe nutzen möchte sollte diese für öffentliche Netze und Netzwerkkennung aktivieren. Macht man dies nicht, lässt sich kein Ping ausführen, obwohl alles funktioniert (Tatsache! Wollte ich eben selber erst nicht glauben bis mir die Lösung einfiel. Ggf. gibts aber noch andere Wege (FW-Einstellungen etc.).

Ein Blick in den Taskmanager listet nun die IB-Verbindung mit 10Gbit (ggf. je nach Karten auch 20Gbit oder mehr):


Danach kann man dann lustig Daten transferieren. Ich hab dies mal eben kurz mit ner Corsair Force und nem Raid5 aus 6 HDDs im anderen System getestet:


Dank Windows Kopiercache ist die Geschwindigkeit beim Kopieren vom Raid5 auf die SSD zu beginn ganz nett. Später jedoch limitiert die Corsair Force mit 102MB/s (7,xx%). Beim Zurückopieren der Testdatei sieht man dann erstmals, was IB kann. Anfangs gibts ca. 450MB/s (Wahrscheinlich durch die SSD limitiert, da diese "nur" am Marvell SATA 6G Controller meines Maximus III Extreme hängt). Danach landet man irgendwann bei 330MB/s durch das Volllaufen des Raid5-Controllercaches. Fazit: Mein Storage kann die Verbindung nicht auslasten. Nen mögliches CPU-Limit sieht man hier noch nicht. Aus früheren Test ergaben sich ca. 680MB/s. danach macht die CPU dicht, bedingt durch zu hohe Verwaltungslast.


Anhang:

Was noch erwähnenswert ist:

Der OpenSM mag es überhaupt nicht wenn das Kabel im Betrieb abgesteckt wird oder der Rechner auf der anderen Seite runter gefahren wird. Beim späteren Neustart oder Anstecken des Kabels "hängt" die Verbindung (Ich meine es war der Status "Initializing"!?). Es geht nix mehr. Kein Transfer von Daten möglich. Dank der Suche im Netz wurde ich zum Glück vor dem Einrichten der Karten auf die Lösung aufmerksam. Das Problem: Die Config-Datei des OpenSM bleibt erhalten und findet sich im Verzeichnis "OpenSM" des Programmordners (BTW: Dieser Ordner ist direkt nach der Installation noch leer). Die Lösung ist ganz einfach: Die Datei löschen und den Rechner (Client ;)) neu starten.


Da nen Client normalerweise nicht 24/7 läuft, der Server jedoch schon, lässt sich dieses Problem durch eine Installation des OpenSM auf dem Clienten im Falle einer Direktverbindung beider Systeme auf diese Weise umgehen.


Daten der Systeme:

Server:
AMD X4 B55@3,2Ghz
MSI 890FXA-GD70
8GB DDR3-1333
WD 640GB Black@Windows 2k8 R2 x64
Dell PERC H700 mit 6x WD 1TB Black@R5 (Writeback)
Dell PERC 6E unbelegt/externes Backup
Cisco (IBM Topspin) 10Gbit HCA 128MB PCIe x8@x4

Client:
Intel i7-860@2,8Ghz stock
ASUS Maximus III Extreme
16GB DDR3-1333 Adata
Corsair Force GT 6G 60GB@6G Marvell onboard
Cisco (IBM Topspin) 10Gbit HCA 128MB PCIe x8@x8


Soweit dazu. Anregungen sind willkommen.








Miniaturansichten:


@€dit: UPDATE:

Die neue Version 3.9 des OFED bringt keine Fehlermeldungen bei der Installation. Ich hab die UAC jedenfalls noch ausgestellt. Die Verbindung funktionierte auf Anhieb nach der Paketinstallation. Sprich Server Ver 2.3 mit OpenSM und Client 3.0 funktioniert :)
 
Zuletzt bearbeitet:
verdammt gute arbeit!
Schön das du dir die Zeit dafür genommen hast.
Denn so Trivial wie bei 10GbE ist es ja bei Infiniband nicht.
Das werde ich GROSS im Startpost verlinken!
 
Danke, Schlingel_INV ! :wink:
 
Schönes HowTo! Eigentlich ist es garnicht so kompliziert, trotzdem gut sowas zu haben!

Ich werde jetzt bei Gelegenheit mal ein 10 GbE Test mit Emulex OCe10102-N Karten und SFP+ CU Kabeln machen, da ich einfach keine konstant schnelle IB Verbindung hinbekomme.

edit:
Beide Systeme laufen und der aktuellste Treiber ist installiert, Betriebssystem Windows Server 2008 R2. Beide Karten sind auch "operational" und an Port 1 mit einem SFP+ CU Kabel verbunden. Ein Link kommt aber nicht zu Stande, "Netzwerkkabel wurde entfernt".
Hat da jemand eine Idee zu? Kann es sein, dass man so nur Verbindungen zu einem Switch erstellen kann und keine 1:1 Verbindungen? Bzw. gibts verschiedene SFP+ CU Kabel?
 
Zuletzt bearbeitet:
@Rabe:
Das deckt sich iwie mit meinen Erfahrungen mit meiner One Connect.
Einfach kein Linkup, ich habe allerdings nur Optisch versucht und nicht mit SFP+ CU Kabeln.
Ich könnte dir ansonsten auch 2 SFP+ Module ausleihen mit denen du nochmal testen könntest.
Evtl müssen die s*****dinger Freigeschaltet werden oder so.
Vlt werde ich mal die EEproms und den Flash auf der Karte dumpen und mal
nach solchen lockbits suchen.
 
Ich habe extra vorab bei Emulex nachgesehen, die Karten sind SFP+ CU kompatibel und daher sollte das eigentlich funktionieren.
Evtl. ist dafür auch die aktuellste Firmware notwendig, aber bisher hab ich es nicht geschafft, jene zu updaten. Ich wollte das über den OneConnect Manager machen, der findet beim Discovery aber keine Hosts mit entsprechenden Karten. Habs aber auch noch nicht ausführlich probiert.

Eine optische Verbindung wäre meine nächste Idee gewesen, ich war schon auf der Suche nach 10GBase-SR Transceivern. Emulex spricht in den FAQs hauptsächlich von Cisco Transceivern. Die fand ich zwischen 100 und 1000 Euro pro Stück, manche von denen auch nur "Cisco kompatibel", was auch immer das genau bedeuten mag.
Weisst du, ob auch andere Transceiver funktionieren oder wo der Unterschied zwischen den Transceivern ist? Eine Preisspanne von 900 Euro ist schon sehr merkwürdig.
Welche hast du denn mit den Emulex Karten probiert?
Wenn die beiden, die du noch hast, noch nicht mit Emulex Karten getestet wurden und da die Chance besteht, dass das funktioniert, würde ich auf dein Angebot gerne zurückkommen.
 
Zuletzt bearbeitet:
tja ich habe Brocade und "Arista SFP10G-SRL" Module.
Beide haben bei MIR nicht funktioniert.

Das Verleih Angebot gilt übrigens für alle im Tread die "mal eben" ein
oder zwei SFP+ Module brauchen um ihre Karte zu testen.

Wenn man in den TX Laser schaut während die Karte eingebaut und in Betrieb ist bleiben sie dunkel.
Bei anderen Karten leuchten sie, auch wenn kein Kabel angeschlossen ist.
Ergo - der Port auf der Karte ist deaktiviert!
(Die Laser haben beim SR Standard so wenig Leistung das das nichts macht, ist eher wie eine recht dunkle LED)

Was die Firmware angeht die habe ich meine Karte updaten können,
das habe ich unter Linux per Shell tool von denen gemacht.

Ich vermute das diese Karten Server optionen waren die per Software key freigeschaltet werden müssen.
Wie gesagt ich denke inzwischen darüber nach auf der Karte zumzusniffen um die betreffenden Speicherbereiche in den eproms/Flashbausteinen zu isolieren.
Ist nur die frage ob deren SPI/I2C zu schnell für mich ist und ob ich schlau aus dem werde was ich da sehe.
 
Zuletzt bearbeitet:
Meine Karten stammen wohl aus einem IBM Server, steht eine IBM FRU drauf: 49Y4202.
Das man Hardware als Option per Key freischaltet habe ich so aber noch nie erlebt, allerdings befasse ich mich auch meistens mit HP Servern.
Ich werde auch mal schauen, ob ich an HP Karten rankomme.
 
Dann brauchen wir das mit den Transceivern glaube ich garnicht probieren.

Die äquivalente HP Karte müsste übrigens die NC550SFP sein.
Die NC552SFP entspricht dann der OCe11102-N mit BladeEngine3.

Nur mal für Dokuzwecke. falls mal jemand danach sucht.
Vielleicht sollte man das auch im ersten Post erwähnen, dass zumindest mit den IBM Karten zur Zeit Probleme existieren, die bisher nicht gelöst sind.
 
Zuletzt bearbeitet:
Ich habe einen:
"Emulex 10GbE Integrated Virtual Fabric Adapter for IBM System x (49Y4201)"
FRU: 49Y4202
Die Emulex Karten haben Softwaremässig freischaltbare features wie z.B. die ISCSI und FCOE beschleunigung.
Ob man sie auch komplett deaktivieren kann - kA.

Ich hatte das bis jetzt nicht im Startpost drin weil ich dachte meine Karte ist ein einzelfall.

Aus einem Emulex PDF:
•The OCe10102-NX-XI Integrated VFA is pre-installed in a custom connector on your system.
•The OCe10102-NX-XI Integrated VFA will not function properly in any other PCI slot of this, or any other, system.
•If more 10 GbE ports are required, purchase the Emulex OneConnect OCe10102-NX-X 10 GbE Virtual Fabric Adapter (VFA) for IBM System x.
•The OCe10102-NX-XI Integrated VFA can be distinguished from the optional adapter by its blue versus green board color.
•The OCe10102-NX-XI Integrated VFA uses a lengthened PCIe x8 connector, compared to the standard PCIe x8 connector, and will not fit into a standard PCIe x8 s

Vlt sollten wir mal versuchen den hinteren teil des PCI-E Slots Abzukleben.
Und diesen Magischen slot nachzubilden sollte einfacher sein als den Config Rom zu Ändern.

Ab Hier nur noch Technik Kauderwelsch:
Zum besseren verständnis von was ich meine
habe ich die verdächtigen mal Markiert:

emulexoneconnect.jpg


In der Linken oberen ecke in ROT: Konfigurations EEPROM (Warscheinlichster Kandidat)
Handelt sich um einen Atmel AT24C256B 256Kbyte Two Wire EEPROM
Macht bis zu 1Mhz Datenrate.

Rechts Oben in GRÜN: Firmware Flash Speicher
Es handelt sich um einen ST M25P64 64MBIT 50MHZ SPI Flashbaustein MLP8 Gehäuse.

Diese Bausteine könnte ich mal eben per Heißluft runternehmen und auslesen.
Nach dem Wiedereinbau dann laufenden Betrieb Tracen welche
bereiche angesprochen werden wenn ich in der Commandline die Abfrage der Freischaltungsoptionen mache.
Dann die entsprechenden Speicherstellen verändern und schauen was passiert.
Wenn ich den Config ROM von einer Original Onc Connect hätte wär das natürlich noch besser.
 
Zuletzt bearbeitet:
Das sind genau die Karten, die ich auch hab.
Von diesem ROM Gedöns verstehe ich leider nicht viel. Ich versteh zwar, was du da schreibst und was potenziell das Problem ist, aber habe nicht die Fähigkeit was dagegen zu tun. Das überlass ich also gerne dir :)

Ich hab die Karte mal mit einer richtigen x8 Karte verglichen, es sind die letzten vier Kontakte, die überstehen. Die werde ich gleich mal abkleben und testen, ob das was bringt.

edit:
Die Karten funktionieren mit den abgeklebten Kontakten nach wie vor, aber an dem ursprünglichen Problem ändert sich dadurch leider nichts.

edit2:
SMBus abklemmen ändert auch nichts.
 

Anhänge

  • P1110013.jpg
    P1110013.jpg
    211,7 KB · Aufrufe: 270
  • P1110011.jpg
    P1110011.jpg
    169,4 KB · Aufrufe: 250
  • P1110012.jpg
    P1110012.jpg
    128 KB · Aufrufe: 233
Zuletzt bearbeitet:
Hallo alle zusammen,

ich würde gerne in den Club einsteigen und habe Folgendes vor: Es geht um die Direktverbindung zweier PCs mit Win 7 x64. Zusätzlich sollen beide Systeme parallel in einem vorhandenen 1 GBit-Netzwerk mit Switch für Samba-Freigaben, Drucker und sonstigen 08/15-Firlefanz erreichbar sein.

Hätte mir zwei Intel X520-TA2 Server Adapter mit je zwei RJ45-Anschlüssen und 30 m Cat7-Kabel rausgesucht. Kann ich einen der Anschlüsse für die 10 Gb-, den anderen für die 1 Gb-Verbindung zum Standard-Netzwerk nutzen?
Danke für die Tipps!
 
Zuletzt bearbeitet:
Also grundsätzlich geht das natürlich, aber mit einem 10 GbE Interface an ein 1 GbE Netz ranzugehen ist ja echt der reinste Frevel :)
 
Wie sehen die Unterschiede der Karten denn chipsatzseitig aus (Intel 82599 vs. 82598EB)? Die Karten sind ja, wenn ich das richtig sehe, etwa 18 Monate auseinander. Beide gleich leistungsfähig?
 
Vom reinen Paketdurchsatz etwa gleich leistungsfähig.
Der neuere verbraucht weniger Strom.
Ausserdem kann er FCOE und ISCSI checksums so wie ich das Datenblatt verstehe.
 
Hmmm, interessant. Gibt es mit dem 2er-Adapter vielleicht die Möglichkeit, die Systeme mit 2 10 Gb/s-Verbindungen zu koppeln und 20 Gb/s rauszuholen oder kann man sowas nur mit vielen Clienten und nicht einer einzelnen Verbindung rausholen?

PS: Benötigt man für eine Direktverbindung zweier PCs noch Crossover-Kabel oder "checken" das moderne Adapter automatisch? Habe das letzte Mal '99 so Systeme verbunden.
 
Zuletzt bearbeitet:
Das Trunking bzw Teaming macht dabei keinen Sinn. Du hast weder das Storage mit der nötigen Geschwindigkeit, noch entsprechtnd viele Clients die gleichzeitig an dem Trunk Daten nuckeln, geschweige denn nen Switch, der Trunking bei 10GBits/s kann.

Bei 1GBit/s brauchen moderne Karten keine Crossover Kabel mehr. Bei 10Gbit/s über RJ-45 sollte sich das genauso verhalten. Aber an sich ist RJ-45 eigentlich garnicht für 10Gbit/s geeignet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh