[Sammelthread] 10Gbit Homenetzwerk

Für einen HTPC kann ich mir das gut vorstellen :d Wenn man keine lauten lüfter braucht, weil das bild aus dem nebenraum gestreamt wird, wäre das schon nice :)
Gerade wenn in den nächsten Monaten 4k TVs einzug halten hat die streaming-geschichte schon einen gewissen nutzen. Ich würde mir jedenfalls kein GTX 780 Ti SLI ins wohnzimmer stellen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja aber wenns nur um den Nebenraum geht, dann kannste auch gleich HDMI und Alternativen legen, dann brauchst du den Netzwerkumweg nicht. Weil für das reine (also unkomprimierte) Videosignal reichen auch 10 GBit nicht
 
Bei vollen 4K mit 60 Bildern pro Sekunde wären das ja auch knappe 1900MB/sec, da reicht 10G ganz offensichtlich nicht mehr aus :d

Was ich gestern gemerkt habe, bei 1G zeigte Steam was von 300MBit bis 800MBit an Datenrate an, über den Switchport gingen aber nur knappe 60.

Naja, heute 10G...

Gesendet von meinem D5503 mit der Hardwareluxx App
 
InHomeStreaming läuft zumindest bei mit mit 1G Ethernet ruckelfrei. Was an Daten durchgeht habe ich allerdings nicht nachgesehen. Über W-Lan war es dann etwas am stocken bei 150er Variante mit altem Laptop.
 
Hallo Zusammen,

ich bin gerade im Begriff ein 10 GBit Netz zu bauen. Derzeit haben wir nur einen Server mit einer Emulex 10102 als 20 GBit Team in zwei mit jeweils 2 * 10 GBit als Team stacked NetGear GS7552TXS Switches.

Beim Lesen dieses Threads bin ich schon auf allerlei nützliche Infos gestoßen, vielen Dank an alle soweit, sehr hilfreich (Der Titel spricht Bände)!

Jetzt treiben mich noch ein paar Fragen um, die vielleicht der eine oder andere hier beantworten kann:

Als Netzwerkkarten tendiere ich entweder zu den Emulex 10102 oder 11102 Karten (die läuft bei mir im Server "wie Lack") oder den sehr preiswerten Brocade 1020 CNAs.
Emulex hat folgendes Dokument veröffentlicht, was mich etwas irritiert:
https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CCwQFjAA&url=http%3A%2F%2Fwww.emulex.com%2Fartifacts%2F221978fc-b907-4d7b-b635-1fcaac38f133%2Felx_cb_br1020_brocade.pdf&ei=hyGXU6evAoLR7AaK8oDgDA&usg=AFQjCNHnMBP-r99-3VVWDG92-9Kth64OXg&sig2=r9B4nkFyEF-SoF6dCHxr5Q&bvm=bv.68445247,d.ZWU
und auch
https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CCwQFjAA&url=http%3A%2F%2Fwww.emulex.com%2Fartifacts%2F1d1679c7-ab8f-40e9-a766-999a1b7452b2%2Felx_cb_all_hba_brocade-fact-vs-fiction.pdf&ei=GiGXU7qaIvSu7AbU94GQAQ&usg=AFQjCNEYimqYn3XDS1H4D0Bkd0ZinHmvPg&sig2=bqfozbDD9YViGYd4Qu2ZFg&bvm=bv.68445247,d.ZWU

TOE/TCP Chimney Offload
TOE is a proven technology that is supported
by Windows Server 2003 and Windows Server
2008 as TCP Chimney Offload. TCP Chimney
Offload is particularly well-suited for long-
lived connections and large packet payloads,
which is closely aligned with applications like
streaming media that are driving demand for
10GbE bandwidth.


Hier wird zum einen die dramatisch größere Erfahrung von Emulex (als Mutterfirma von QLogic) mit der 10. Generation Softwarestack für die Emulex-Karten und Brocade mit quasi 1. Generation herausgestellt. Brocade hat dafür scheinbar auch eine lange Fehlerliste bekanntgegeben... (laut diesem Text). Punkt für Emulex, auch wenn ich selbst noch nicht gehört habe, das die Brocade 1020 irgendwelchen Ärger machen würden.

Weiterhin schreiben sie aber, das die Brocade 1020 CNAs keinen Support for TOE/TCP Chimney Offload hätten, nur für FCoE und stateless TCP. Was bedeutet das genau in der Anwendung?

TCP Offloading bedeutet doch eigentlich, das die Karte das ganze Hashing etc. der Daten übernimmt und somit die CPU massiv entlastet. Wenn das nun für die Brocade CNAs im Einsatz als reine 10 GBit Ethernet Karte (ich will damit SMB machen) bedeutet, die CPU Last schießt durch die Decke, dann ist die Karte ggf. die falsche für diese Anwendung?

Ziel ist es, ein wirklich schnelles 10 GBit Ethernet statt einem 4 GBit SAN wie bisher zu bauen. Es hat sich bei uns gezeigt, das die eigentlichen Vorteile des SANs, nämlich multi-User Zugriff auf verschiedene Laufwerke parallel kaum etwas gebracht hat, da Job-bedingt die meisten User gleichzeitig auf demselben Laufwerk zugange sind, somit die ganze Peer-to-Peer Denke hinter dem SAN ins Leere läuft. Ein beschleunigendes Caching in den SAN einzubauen ist praktisch unbezahlbar. (z.B. QLogic FabriCache oder FalconStor).

Stattdessen verfolge ich nun folgenden Ansatz:
Sehr schneller Server mit lokal oder über Switch angeschlossenen FC RAIDs (vorhanden), ggf. gestriped als RAID60 o.ä. Dazu ein sehr schnelles internes SSD RAID aus z.B. 6 oder 8 SSDs als Block Lever Cache für FC RAIDs (PrimoCache ist da sehr zu empfehlen) mit deutlich über 2 GByte/s lesen und schreiben. Das ganze Ding speist dann mit 2 * 10 GBit (oder auch mehr) in einen echten 10 GBit Switch ein (vermutlich IBM Blade G8124E). An den Switch kommen die Clients mit jeweils 10 GBit. Und natürlich Jumbo-Frames. Fürs Internet wird dann noch das "alte" 1 GBit Ethernet parallel existieren, damit es keine Probleme durch die Jumbo-Frames gibt.

Die Frage ist nun, ob die Brocade 1020 CNAs dafür tauglich sind oder nicht, und ob sie dabei die CPUs merklich stärker belasten als zum Beispiel ein Emulex 10102 oder 11102. Die Mehrkosten für die Emulex sind da, aber ich kann es bislang nicht wirklich entscheiden. Eure Meinung, besser noch Eure Erfahrung und ggf. Benchmarks sind hier sehr gefragt.

Sind die Emulex wirklich schneller als die Brocades?
Dieser Test hier scheint das zu suggerieren, jedoch nur für FCoE:
https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CCkQFjAA&url=http%3A%2F%2Fwww.emulex.com%2Fartifacts%2F5f6bb910-70a2-4787-8704-d59b63dbd75e%2Fitbp_wp_all_fcoe_report.pdf&ei=0iGXU4iDHaqr7Ab0u4DACA&usg=AFQjCNHQc5qnZcLs3-druZGS8K99TcvbhA&sig2=0-0AtR7cC0eDfQ5v7S9WFw&bvm=bv.68445247,d.ZWU

Das liest sich alles wie ein harter Krieg zwischen Brocade und Emulex, in dem Emulex deutlich mit vergleichender Werbung arbeitet (kann ja richtig sein). Allein, ich finde außer von Emulex keine anderen Quellen bislang...

Mich würde vor allem die CPU Last interessieren. Wenn eine Karte 400-600 MB/s schafft und dabei den Rechner komplett zum stocken bringt, wäre das schlecht. Wenns nur 1 Kern (von 8-12 physischen) ist, und der Rest dadurch nicht sehr leidet, wäre das OK. Wenns kaum was belastet, wäre es natürlich noch besser.

Ich will, das vor allem der Server sehr reaktiv bleibt und nicht irgendwelche TCP Sachen die CPUs und das System bremsen. Daher im Server auf jeden Fall Emulex. Aber in den Clients?

Wie hoch ist die maximal mögliche Transferleistung in MB/s bei z.B. Streaming Daten oder großen Einzelbildsequenzen (wir reden hier von 50..75 MByte/Bild)?

Ich weiß, als Einstand viele Fragen. Ich habe aber auch schon viel gelesen... ;-)

Danke im Voraus für Eure Unterstützung!

Gruß,
Axel
 
Zuletzt bearbeitet:
Zu aller Verwirrung bin ich jetzt auf folgendes Dokument gestossen, das die Brocade 1020 CNAs in den Himmel lobt (für FCoE und iSCSI - aber am Ende ist das doch alles TCP...):

http://itbrandpulse.com/Documents/Test2010004%20-%20Brocade%20CNA%20Test%20Report%20-%20Realworld%20Apps.pdf

Interessanterweise vom selben Portal...?!?!
Wer gut zahlt ist gerade "en vouge"?
Mmmh....

Da hängt der Brocade den Emulex schnell mal um 30-100% ab, je nach Anwendungsfall.

Keiner hier, der aus seiner Erfahrung was dazu sagen kann?

Gruß,
Axel
 
Zuletzt bearbeitet:
Ich glaube, für einen Heimnetzwerk-Thread ist "FCoE" ein eher seltener Anwendungsfall - darüber ist das letzte von Dir gelinkte Dokument.
Wenn ich nächstes Jahr Zeit habe (...), werde ich mich da mal ran setzen, da ich einen HP MSA2000FC besitze, der zur Zeit an eine dedizierte 4GB-FC-Karte angeschlossen ist. Wenn ich die mir einsparen und das MSA an die Brocade 1020 (Port 2) einklinken kann würde das Strom sparen. Ansonsten gab es hier keine negativen Anmerkungen zur Brocade.
Ich habe die allerdings selbst noch nicht im produktiven Umfeld, da sie recht zickig in Bezug auf die optischen Transceiver ist. non-Brocade werden nicht gerne genommen, jedenfalls definitiv keine Finisar.
 
da ich einen HP MSA2000FC besitze, der zur Zeit an eine dedizierte 4GB-FC-Karte angeschlossen ist. Wenn ich die mir einsparen und das MSA an die Brocade 1020 (Port 2) einklinken kann würde das Strom sparen.
Wenn du ein FC SAN an eine 10GB Ethernetkarte anschließen willst musst du aber einen Converged Network Switch dazwischenschalten.
 
Hmmm. Genau das habe ich alles noch nicht nachgelesen/getestet. Ich bin noch der unqualifizierten Meinung, an den zweiten Port des Brocade die SAN direkt anschließen zu können. Der Brocade behauptet ja, ein CNA zu sein - also direkt das FCoE-Protokoll zu beherrschen. Mit dem HP MSA bin ich mir nicht sicher. Wird sich aber nicht lohnen, wenn ich dafür nen Switch brauche. Die Kosten will ich mir sparen, lieber zwei/drei dual-Brocades in den Server stecken und nen OpenVSwitch unter Linux laufen lassen. So der Plan. Aber Zeit ist dafür erst ab Herbst ;)
 
Hallo Community,

folgende Aufgabenstellung:

Ich ziehe bald in eine 4 Zimmer Wohnung um und möchte vom Hauswirtschaftsraum, in dem mein Serverschrank stehen wird, entsprechend mit LWL meine Wohnung versorgen.
Mit meinem HP ML310e möchte ich in einen passenden Switch und von dort aus mindestens 3-4 Clients verbinden.

Mag mir einer von euch unter die Arme greifen und mir etwas helfen, was ich beachten muss und womit ich rechnen muss?
Mit LWL habe ich bisher keine Erfahrung gesammelt.
 
FCoE-Protokoll zu beherrschen. Mit dem HP MSA bin ich mir nicht sicher. Der Brocade behauptet ja, ein CNA zu sein - also direkt das FCoE-Protokoll zu beherrschen.
FCoE ist kein FC. Der Brocade erscheint gegenüber dem Betriebssystem als FC Adapter, auf der Interfaceseite packt er aber die FC Pakete in Ethernetpakete. Deshalb muss zwischen Server und Storage der Switch die FC Pakete in FCoE Pakete umsetzen. Das Szenario ist übrigens in dem von dir verlinkten PDF auf Seite 3 dargestellt.
Die MSA mit 10GB Ethernet sprechen übrigens auch nur iSCSI und kein FCoE.
 
Zuletzt bearbeitet:
Falls jemand wieder Enzotech SLF-1 Northbridge Kühler sucht, Aquatunig hat wieder welche auf Lager, ich habe direkt 5 bestellt (Reserve). Aquatuning - Der Wasserkühlung Vollsortimenter - Enzotech SLF-1 Northbridge Kühler Enzotech SLF-1 Northbridge Kühler 14305

Die passen perfekt auf die Intel 10 Gigabit AT Server Adapter oder auch die Dell 10 GBE Adapter. Problem ist nicht der Kühler an sich sondern die passenden Lüfter zufinden. Ich hatte locker 10+ Lüfter probiert, die Karten gingen mit keinem auf grün. Nur mit dem Enzotech klappt das perfekt.

Ich hoffe jemand damit geholfen zu haben.
 
@butcher1de: Danke für den Tipp, für ne Dell Karte bin ich auch schon lange auf Lüftersuche. Kannst Du da auch etwas zu Lautstärke sagen?
 
Sehr leise.eigentlich kaum wahrnehmbar.
 
Super. Gerade mal noch aufs Bild geschaut, der Stecker muss aber nicht umgelötet werden? Es sind ja die kleinen 3-Pin, beispielsweise für die Dell XR997 Karte?
 
Doch du musst den stecker von der dell abschneiden und auf das andere kabel anlöten.
 
Ich weiß nicht inwiefern dieser Thread und insbesondere die erste Seite noch gepflegt wird aber Netgear hat einen unmanaged 10GE-Switch mit 8x 10GE im Angebot: der XS708E kommt um die 650-700 Euro - ist aber Kupfer. Soll aber recht laut sein.

Edit: Der wurde schon gefunden.

Dazu dann eine gute Intel-10GE-Karte und das Ganze sollte doch wunderbar funktionieren… hat jemand damit Erfahrungen?

Derzeit würde eine Crossoververbundung zwischen NAS und Workstation reichen... aber perspektivisch sollen noch 1-2 Rechner (ESX) dazu kommen... daher wäre nen Switch ganz gut...
 
Zuletzt bearbeitet:
Den Switch gibts schon länger, Netgear hat damit Preisbrecher gespielt, weil es der erste 10G Switch mit wenigen Ports ist, was den Preis klein hält. Ich hab den seit einiger Zeit zu Hause liegen und demnächst werd ich ihn auch in produktiven Betrieb nehmen. Lautstärke hält sich in Grenzen, aber er hat nunmal aktive Lüfter und es ist eher RZ-Equipment als für Home User.
 
Den Switch gibts schon länger, Netgear hat damit Preisbrecher gespielt, weil es der erste 10G Switch mit wenigen Ports ist, was den Preis klein hält. Ich hab den seit einiger Zeit zu Hause liegen und demnächst werd ich ihn auch in produktiven Betrieb nehmen. Lautstärke hält sich in Grenzen, aber er hat nunmal aktive Lüfter und es ist eher RZ-Equipment als für Home User.

OK. Gibt es irgendwo einen 10GE Switch, der nicht so laut ist?

Alternativ erstmal eine 10GE-Kupfer-Karte mit Dual-Port und eine Single-Port für erschwingliches Geld? Ziel ist hier mein NAS mit meiner Workstation zu verbinden....
 
So wie du dir das vorstellst: Nein, gibt es vermutlich nicht. Sowas wie einen 10 Gbit Desktop Switch, der komplett passiv und lautlos arbeitet, gibt es noch nicht und wird es auch auf absehbare Zeit vermutlich nicht geben. Der Markt dafür ist einfach noch viel zu überschaubar, weil die meisten Home User kein 10G Netz betreiben wollen. Man muss sich also mit SoHo bzw. Enterprise Equipment abgeben und das ist halt meistens etwas lauter, weil es nicht für eine Arbeitsumgebung, z.B. im Büro, gedacht ist.

10G Kupfer Karten für erschwingliches Geld? Kommt auf deine Definition an. Die günstigste Möglichkeit wäre sicherlich ein Supermicro Board mit einer Intel X540 onboard. Wenn man das mal auseinander dividiert, dann kriegt man da den 10G Chip für deutlich unter 100 Euro.
Die nächste, günstige Möglichkeit wären gebrauchte 10GBase-SR Karten für eine Direktverbindung per LWL.
 
Wobei man dann auch Asrock in Betracht ziehen kann, die eine ebenfalls sehr interessante Server-Mainboard-Palette führt, auch inkl. 10G Kupfer - und ggf. 10G LWL zusätzlich onboard..
 
Edit: hat sich erledigt. Schlecht recherchierte Frage.
 
Zuletzt bearbeitet:
Moin,

weiß jemand, wie ich auf OmniOS Infiniband SRP installiert/konfiguriert kriege?

Code:
root@san-03:~# cfgadm -al |grep ib
ib                             IB-Fabric    connected    configured   ok
ib::1A4BFFFF0C629D,0,ipib      IB-PORT      connected    configured   ok
ib::1A4BFFFF0C629E,0,ipib      IB-PORT      connected    configured   ok
ib::daplt,0                                 connected    configured   ok
ib::eibnx,0                                 connected    configured   ok
ib::iser,0                                  connected    configured   ok
ib::rdsib,0                                 connected    configured   ok
ib::rdsv3,0                                 connected    configured   ok
ib::rpcib,0                                 connected    configured   ok
ib::sdpib,0                                 connected    configured   ok
ib::sol_umad,0                              connected    configured   ok
ib::sol_uverbs,0                            connected    configured   ok
Code:
root@san-03:~# prtconf
System Configuration:  Oracle Corporation  i86pc
Memory size: 24575 Megabytes
System Peripherals (Software Nodes):

i86pc
    scsi_vhci, instance #0
    ib, instance #0
        rpcib, instance #0
        eibnx, instance #0
        rdsib, instance #0
        daplt, instance #0
        iser, instance #0
        sdpib, instance #0
        rdsv3, instance #0
        sol_uverbs, instance #0
        sol_umad, instance #0
Code:
root@san-03:~# cfgadm -c configure ib::srpt,0
cfgadm: Attachment point not found
Code:
root@san-03:~# cfgadm -yc configure ib::srpt,0
cfgadm: Attachment point not found
Code:
root@san-03:~# cfgadm -x list_services ib
PORT communication services:
                ipib

Dank schonmal

und Grüße
effemmess
 
Moin,

weiß jemand, wie ich auf OmniOS Infiniband SRP installiert/konfiguriert kriege?

Okay, dann antworte ich mir eben selber!:p
Hat bestimmt keiner geantwortet, weil ich vergessen hatte zu schreiben, dass es sich um eine HP 452372-001 mit Original-FW 2.6 handelt...

1. update auf aktuelle Version
Code:
root@san-03:~# pkg update
root@san-03:~# uname -a
SunOS san-03 5.11 omnios-8e364a8 i86pc i386 i86pc
2. srpt-Paket installieren
Code:
root@san-03:~# pkg install srpt
3. Kontrolle
Code:
root@san-03:~# srptadm list-target
Target HCA 1A4BFFFF0C629C:
    Enabled             : true
    SRP Target Name     : [B]eui.001A4BFFFF0C629C[/B]
    Operational Status  : -
4. Kontrolle und evtl. Start Service
Code:
root@san-03:~# svcs *ib*
root@san-03:~# svcadm enable  svc:/system/ibsrp/target:default
5. srpt als COMSTAR-Port-Service hinzufügen
Code:
root@san-03:~# cfgadm -x list_services ib
PORT communication services:
                ipib

root@san-03:~# cfgadm -al |grep ib
ib                             IB-Fabric    connected    configured   ok
ib::1A4BFFFF0C629D,0,ipib      IB-PORT      connected    configured   ok
ib::1A4BFFFF0C629E,0,ipib      IB-PORT      connected    configured   ok
ib::daplt,0                                 connected    configured   ok
ib::eibnx,0                                 connected    configured   ok
ib::iser,0                                  connected    configured   ok
ib::rdsib,0                                 connected    configured   ok
ib::rdsv3,0                                 connected    configured   ok
ib::rpcib,0                                 connected    configured   ok
ib::sdpib,0                                 connected    configured   ok
ib::sol_umad,0                              connected    configured   ok
ib::sol_uverbs,0                            connected    configured   ok
ib::srpt,0                                  connected    configured   ok


cfgadm -o comm=port,service=srp -x add_service ib

root@san-03:~# cfgadm -x list_services ib
PORT communication services:
                srp
                ipib

root@san-03:~# cfgadm -al |grep ib
ib                             IB-Fabric    connected    configured   ok
ib::1A4BFFFF0C629D,0,ipib      IB-PORT      connected    configured   ok
ib::1A4BFFFF0C629D,0,srp       IB-PORT      connected    configured   ok
ib::1A4BFFFF0C629E,0,ipib      IB-PORT      connected    configured   ok
ib::1A4BFFFF0C629E,0,srp       IB-PORT      connected    configured   ok
ib::daplt,0                                 connected    configured   ok
ib::eibnx,0                                 connected    configured   ok
ib::iser,0                                  connected    configured   ok
ib::rdsib,0                                 connected    configured   ok
ib::rdsv3,0                                 connected    configured   ok
ib::rpcib,0                                 connected    configured   ok
ib::sdpib,0                                 connected    configured   ok
ib::sol_umad,0                              connected    configured   ok
ib::sol_uverbs,0                            connected    configured   ok
ib::srpt,0                                  connected    configured   ok

6. Volume erstellen
Code:
root@san-03:~# zfs create -V 50G  pool/fs-vol/infiniband

7. Logical Unit erstellen
Code:
root@san-03:~# sbdadm create-lu /dev/zvol/rdsk/pool/fs-vol/infiniband
Created the following LU:

              GUID                    DATA SIZE           SOURCE
--------------------------------  -------------------  ----------------
[B]600144f02ab9ca00000053e236ff0001[/B]  107374182400         /dev/zvol/rdsk/pool/fs-vol/infiniband

8. Target-Group erstellen
Code:
root@san-03:~# stmfadm create-tg tg-ib

9. SRPT-Target (GUID s.o.) als Member der Target-Group hinzufügen
Code:
root@san-03:~# stmfadm add-tg-member -g tg-ib eui.001A4BFFFF0C629C

10. View erstellen
Code:
root@san-03:~# stmfadm add-view 600144f02ab9ca00000053e236ff0001

Nun sollte auf Initiatorseite - bei mir ESX 5.5 - das Volume zu sehen sein. :banana:

Leider ist bei mir die Geschwindigkeit nicht wirklich berauschend :motz: - lt. ESX-Leistungsanzeige im besten Fall 164000KB/s.
Übrigens auch die Geschwindigkeit über NFS-IPoIB ist bei mir ähnlich bescheiden.
Im Gegensatz dazu bringt mir iperf ordentliche Werte: :confused:
Code:
root@san-03:~# /var/web-gui/data/tools/iperf/iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size:  125 KByte (default)
------------------------------------------------------------
[  5] local 192.168.23.81 port 5001 connected with 192.168.23.21 port 38397
[  4] local 192.168.23.81 port 5001 connected with 192.168.23.21 port 63355
[  6] local 192.168.23.81 port 5001 connected with 192.168.23.21 port 43791
[  7] local 192.168.23.81 port 5001 connected with 192.168.23.21 port 44098
[ ID] Interval       Transfer     Bandwidth
[  5]  0.0-30.0 sec  9.05 GBytes  2.59 Gbits/sec
[  4]  0.0-30.0 sec  8.90 GBytes  2.55 Gbits/sec
[  6]  0.0-30.0 sec  8.92 GBytes  2.55 Gbits/sec
[  7]  0.0-30.0 sec  9.09 GBytes  2.60 Gbits/sec
[SUM]  0.0-30.0 sec  36.0 GBytes  10.3 Gbits/sec
und von der anderen Seite:
Code:
~ # /opt/iperf/bin/iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 64.0 KByte (default)
------------------------------------------------------------
[  4] local 192.168.23.21 port 5001 connected with 192.168.23.81 port 44947
[  5] local 192.168.23.21 port 5001 connected with 192.168.23.81 port 55457
[  6] local 192.168.23.21 port 5001 connected with 192.168.23.81 port 62890
[  7] local 192.168.23.21 port 5001 connected with 192.168.23.81 port 36022
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-30.5 sec  7.14 GBytes  2.01 Gbits/sec
[  5]  0.0-30.5 sec  7.06 GBytes  1.99 Gbits/sec
[  6]  0.0-30.5 sec  7.11 GBytes  2.00 Gbits/sec
[  7]  0.0-30.5 sec  7.11 GBytes  2.00 Gbits/sec
[SUM]  0.0-30.5 sec  28.4 GBytes  8.00 Gbits/sec

Falls mir jemand noch Tipps geben kann, wäre ich sehr dankbar... :hail:
 
Leider ist bei mir die Geschwindigkeit nicht wirklich berauschend :motz: - lt. ESX-Leistungsanzeige im besten Fall 164000KB/s.
Übrigens auch die Geschwindigkeit über NFS-IPoIB ist bei mir ähnlich bescheiden.

Kurze Wasserstandsmeldung:
Die Bremse ist wohl ein beteiligter Pool.
Die IB-SRP-Verbindung scheint stabil zu stehen.
 
Hallo zusammen,

hat jemand Erfahrungen mit folgenden Infiniband Karten?
HP Infiniband HCA - 2 Stück - Set mit SFF-8470 Kabel - 10 Gigabit Heimnetzwerk | eBay
Also entweder habe ich es übersehen, oder es ist wirklich keine genaue Modellbezeichnung bei Ebay zu finden?
Hat da jemand mehr Ahnung wie ich, grad was Kompatibilität mit ESXi angeht..
Habe vor, eine Direktverbindung zwischen ESXi und Windows Server 2008 R2 zu realisieren.

Danke im Voraus
timiner2mc
 
So wie du dir das vorstellst: Nein, gibt es vermutlich nicht. Sowas wie einen 10 Gbit Desktop Switch, der komplett passiv und lautlos arbeitet, gibt es noch nicht und wird es auch auf absehbare Zeit vermutlich nicht geben. Der Markt dafür ist einfach noch viel zu überschaubar, weil die meisten Home User kein 10G Netz betreiben wollen. Man muss sich also mit SoHo bzw. Enterprise Equipment abgeben und das ist halt meistens etwas lauter, weil es nicht für eine Arbeitsumgebung, z.B. im Büro, gedacht ist.

10G Kupfer Karten für erschwingliches Geld? Kommt auf deine Definition an. Die günstigste Möglichkeit wäre sicherlich ein Supermicro Board mit einer Intel X540 onboard. Wenn man das mal auseinander dividiert, dann kriegt man da den 10G Chip für deutlich unter 100 Euro.
Die nächste, günstige Möglichkeit wären gebrauchte 10GBase-SR Karten für eine Direktverbindung per LWL.

Oder eine gebrauchte HP SFP+ 10GB Karte und SFP+ Kabel,
da bist du mit ca. 250€ dabei.
 
Hallo zusammen,

hat jemand Erfahrungen mit folgenden Infiniband Karten?
HP Infiniband HCA - 2 Stück - Set mit SFF-8470 Kabel - 10 Gigabit Heimnetzwerk | eBay
Also entweder habe ich es übersehen, oder es ist wirklich keine genaue Modellbezeichnung bei Ebay zu finden?
Hat da jemand mehr Ahnung wie ich, grad was Kompatibilität mit ESXi angeht..
Habe vor, eine Direktverbindung zwischen ESXi und Windows Server 2008 R2 zu realisieren.

Danke im Voraus
timiner2mc

Laut Bild sind das HP 391917-001 Karten, also 10 Gigabit-SDR. Ich denke, dass sie funktionieren könnten, meine HP 452372-001 DDR funktionieren jedenfalls.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh