[Sammelthread] 10Gbit Homenetzwerk

Meiner dürfte dann der MG-108 sein und der QWS-1100.

Ich erwähnte die QNAP weil ich mich dafür intressiert hatte aber mir für meine Anwendung zu teuer.

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, ich hab diese Thesen jetzt nicht gleich breit propagiert oder wehement verteidigt...

@eratte
Na dann hätten dir meine Vorschläge gut helfen können (früher), wenn sie leider nicht nur theoretisch wären :rolleyes2:
 
Zuletzt bearbeitet:
Nichts für Ungut, aber das ist Unsinn unter Trump-Niveau. Die Amerikaner behaupten solche Gefahren schon seit Jahren ohne auch nur einen einzigen Beweis geliefert zu haben.
Jajan man muss sich auf jeden Fall sicher sein das es bei einem weiteren Handelskonflikt halt keinen Support geben wird.

Ich vermeide gewisse China teile auch. Maximal wenn eine Taiwanische Firma der Inhaber ist z. B DLink.
z. B zuhause habe ich auch TP-Link unmanaged im Einsatz. Da befürchte ich auch nicht das die irgendwie ausgeknipst werden können etc.

Made in China ist eh 90% oder so, geht eher um Software und Treiber, da hab ich lieber keine China Corp dahinter.

P.S du weißt auch nie ob in Windows, Apple oder Android Sicherheitslücken zufällig oder gewollt sind.
 
Zuletzt bearbeitet:
Tendaswitch ist gerade gekommen, macht einen guten Eindruck bis auf das keine "Gummifüßchen" beiliegen. Aber immerhin hat der Schutzkappen auf den SFP+ Ports dabei.

Gleich geht es an das austesten.

So kurz ausprobiert:

10m Gtekkabel > Tendaswitch Port 9 > ASUS Karte - ok
10m Digituskabel > Tendaswitch Port 9 > ASUS Karte - nicht ok
0,5m Gtekkabel > Tendaswitch Port 10 > Trendnet Port 9 - ok

Kommt noch ein 3m Gtekkabel, das soll dann die beiden Switche im Büro verbinden wie jetzt auch die vorhanden.
Ist zwar Luxus aber so haben die Rechner am 2. Switch eine höhre Bandbreite die sie sich teilen müssen.

Das Digituskabel war also ein Fehlkauf, blöd halt das sonst nix in der Richtung vorhanden war.

PS.: von den Ausmaßen wirklich sehr kompakt.
 
Zuletzt bearbeitet:
3m Gtek10 Kabel funktioniert auch tadellos als Verbindung zwischen den beiden Switchen - da kann ich dann mal den Umbau in das Auge fassen. Vermutlich am Wochenende weil dann kein Home Office laufen muss.
 
Zuletzt bearbeitet:
Switche getauscht, Tenda und Trendnet sind mit dem 3m Gtek10 Kabel verbunden, fehlt nocht das verlegen das Kabels zum Server und der Einbau und Inbetriebname der LAN Karte im Serverrechner.

Dabei noch die Anmerkung das die Postion der LINK LEDs am Tendaswitch für die SFP+ Ports sehr ungünstig ist unterhalb der Ports. Da sieht man nichts von mit gestecken Kabeln.
 
Ich dachte ja ich wäre durch mit dem Thema aber die ASUS Karte funktioniert nicht im Serverrechner - wird erkannt aber Treiber kann die Hardware nicht initialisieren. OS ist Server 2019.

Im Testrechner funktioniert sie einwandfrei.

Board ist bei beiden Rechner das TUF Gaming B550M-Plus Wifi, Karte steckt im 2. PEG 16 Slot der mit 4 Lanes an dem Chipsatz hängt und sich nur Lanes mit dem PCIE x1 Slot teilt der
frei ist.

Habe den Testrechner ähnlich ausgestattet:

GPU: NV GT 1030, beide M.2 mit NVME belegt. Unterschied ist R5 5600 und 64 GB ECC DDR4 im Serverrechner und R5 3600 mit 32 GB DDR4 im Testrechner.

Und halt Server 2019 vs Windows 11.

Noch offen wo hier der Haken liegt - muss ich noch austesten wenn ich die Zeit dazu habe.
 
UEFI mal gecheckt, wegen der Einstellungen? Nicht das da was blöd konfiguriert ist...
Sprich M2 vs PCiE und so
 
Ja, vergessen zu schreiben. UEFI ist identisch - 3607 - und Einstellungen in der Richtung identisch. Ändert auch nichts wenn ich den Slot von Auto auf PCIe 3.0 einstelle und im statt Auto auf x4 stelle.
Beim Testrechner funktioniert es ja mit auf AUTO und beiden M.2 und Plus PEG1 mit Grafikkarte belegt.

Der PEG2 Slot teilt sich auch laut Handbuch keine Lanes mit M.2 oder SATA nur mit dem PCIe x1 Slot der ist aber frei. Wie gesagt am Testrechner geht es bei identischer Belegung.

Mache gerade mal eine Testinstallation von Server 2019 auf dem Testrechner. Am Server kann ich noch mal die Karte einbauen und Linux Mint vom USB Stick ausprobieren weil das geht auch
am Testrechner einwandfrei.

Im Schlimmsten Fall hat der Slot eine weg, das teste ich dann auch noch mit einer Adapterkarte auf M.2 und einer NVME.
Beitrag automatisch zusammengeführt:

Ok, liegt wohl an Server 2019 und dem Treiber - hatte nicht gedacht das es da Probleme wegen dem Server OS gibt.

Mal schauen ob es dann was funktionierendes an Treiber zu finden ist - gut das ich das austesten konnte.

Für den Notfall kennt einer eine X4 10G Karte die unter Windows Server läuft?
Beitrag automatisch zusammengeführt:

Habe den aktuellen Treiber von Marvell deinstalliert und das von ASUS installiert - mit Treiber von 2018. Damit funktioniert die Karte mit Server 2019. Update auf den Treiber von Marvell setzt sie auf Fehler.
 
Zuletzt bearbeitet:
So Karte ist im Server verbaut, genutzt wird ein neuer Treiber von Stations Driver (2020) und nicht der von ASUS. Jetzt muss ich noch das Kabel verlegen und dann umstellen von der Realtek 2,5 GB vom Board auf die 10G Karte. Hätte ich auch eher drauf kommen können aber nach den ersten erfolglosen Versuchen erst mal aus Zeitgründen abgebrochen.
 
Zuletzt bearbeitet:
Funktion nun zu meiner Zufriedenheit - die Fallen waren das 1. DAC Kabel und die Treibersache bei Windows Server 2019

Ein erster Test mit NASTester von 2 Rechner per 2,5 Gbit/S auf die NVME SSD im dem Server mit gleichzeitig Lesen und Schreiben zeigt
das es ganz gut funktioniert. Beide Rechner erreichen dabei ca 296 MB/Sec - CPU Last Server bei durchschnittlich 6%.

1. Switch: Tenda TEM2010 Desktop 2.5G Switch, 8x RJ-45, 2x SFP+ 10 Gbit/S
2. Switch: TRENDnet TEG-S5091 Switch, 8 x RJ-45, 2,5 Gbit/S, 1 x SFP+ 10 Gbit/S

SFP+ Port 10 vom Tenda ist per 10Gtek 3m DAC Kabel mit TRENDnet SFP+Port 9 verbunden
Server SFP+ mit 10Gtek 10m AOC Kabel mit Tenda SFP+ Port 9

Tenda sind alle Ports belegt - am TRENDnet sind 4 Ports noch frei. Der steht auch auf dem Tisch so das man mal fix was anstecken kann.

Allerdings werde ich den Tenda noch gegen einen Zyxel XMG1915-10E austauschen. Tenda geht als Ersatz in die Schublade oder an einen Kollegen.
 
THX. Was bringt der 10Gb Port real netto?
 
Auf dem Sever ausgeführt:

iperf3 -c xxx.xxx.xxx.xxx -p xxxx --bidir
Connecting to host xxx.xxx.xxx.xxx, port xxxx
[ 5] local xxx.xxx.xxx.xxx port 53303 connected to xxx.xxx.xxx.xxx port xxxx
[ 7] local xxx.xxx.xxx.xxx port 53304 connected to xxx.xxx.xxx.xxx port xxxx
[ ID][Role] Interval Transfer Bitrate
[ 5][TX-C] 0.00-1.01 sec 1.95 GBytes 16.6 Gbits/sec
[ 7][RX-C] 0.00-1.01 sec 2.00 GBytes 17.0 Gbits/sec
[ 5][TX-C] 1.01-2.01 sec 1.54 GBytes 13.3 Gbits/sec
[ 7][RX-C] 1.01-2.01 sec 1.62 GBytes 13.9 Gbits/sec
[ 5][TX-C] 2.01-3.01 sec 1.81 GBytes 15.5 Gbits/sec
[ 7][RX-C] 2.01-3.01 sec 1.85 GBytes 15.9 Gbits/sec
[ 5][TX-C] 3.01-4.01 sec 1.78 GBytes 15.3 Gbits/sec
[ 7][RX-C] 3.01-4.01 sec 1.82 GBytes 15.6 Gbits/sec
[ 5][TX-C] 4.01-5.01 sec 1.80 GBytes 15.4 Gbits/sec
[ 7][RX-C] 4.01-5.01 sec 1.83 GBytes 15.7 Gbits/sec
[ 5][TX-C] 5.01-6.01 sec 1.81 GBytes 15.5 Gbits/sec
[ 7][RX-C] 5.01-6.01 sec 1.86 GBytes 16.0 Gbits/sec
[ 5][TX-C] 6.01-7.01 sec 2.10 GBytes 18.0 Gbits/sec
[ 7][RX-C] 6.01-7.01 sec 2.19 GBytes 18.8 Gbits/sec
[ 5][TX-C] 7.01-8.00 sec 2.26 GBytes 19.6 Gbits/sec
[ 7][RX-C] 7.01-8.00 sec 2.31 GBytes 20.1 Gbits/sec
[ 5][TX-C] 8.00-9.00 sec 1.63 GBytes 14.0 Gbits/sec
[ 7][RX-C] 8.00-9.00 sec 1.64 GBytes 14.1 Gbits/sec
[ 5][TX-C] 9.00-10.00 sec 1.66 GBytes 14.3 Gbits/sec
[ 7][RX-C] 9.00-10.00 sec 1.64 GBytes 14.1 Gbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID][Role] Interval Transfer Bitrate
[ 5][TX-C] 0.00-10.00 sec 18.3 GBytes 15.7 Gbits/sec sender
[ 5][TX-C] 0.00-10.01 sec 18.3 GBytes 15.7 Gbits/sec receiver
[ 7][RX-C] 0.00-10.00 sec 18.8 GBytes 16.1 Gbits/sec sender
[ 7][RX-C] 0.00-10.01 sec 18.8 GBytes 16.1 Gbits/sec receiver

iperf Done.
 
hat jemand von euch Erfahrungen mit Marvell Ql41134 ?

 
Wir befeuern auf der Arbeit damit ein paar Server, allerdings mit der SFP+ Variante in Kombination mit Proxmox. Völlig unauffällig, so wie ich das erwarte. 👍🏻 War mal ein Versuch, nachdem ich mit der Intel 700er Serie kein Glück hatte, Proxmox eine Zeit lang Schwierigkeiten mit Broadcom hatte, musste etwas anderes her. Vor allem sind die erstaunlich günstig zu bekommen. Würde ich jederzeit wieder kaufen.
 
Hat irgendwer eine Ahnung wo man einen Switch mit MaxLinear MxL86282 kaufen kann? Irgendwie gibt es 2x SFP+ mit 8x 2,5 unmanaged überall, aber gemanaged hat das keiner außer man gibt gleich 300+€ aus und das ding idled dann mit 10+w rum was ich gerne vermeiden würde.
 
und das ding idled dann mit 10+w rum was ich gerne vermeiden würde.
Vielleicht ist ja genau das "Managed" das Problem für den Verbrauch. Dazu wird ne CPU benötigt und alles (auch der Traffic) drüber geprügelt -> höherer Verbrauch.
 
Villeicht nicht die Hauptursache aber sicher ein Grund mit.
Von STH
8x 2.5GbE and 2x SFP+ 10GbE Capable Fanless 2.5GbE Switches
Our Choice: Gigaplus 8x 2.5GbE and 2x SFP+


Mit Fan?

Btw wieso ausgerechnet mit MxL68282 Controller?


Btw die China Dinger sind auch bei 200$ Rum für 8x2.5 und 4x SFP

Oder 260$ für 12x 2.5 und 2x SFP+ 2x RJ45

Will nicht wissen wie viel Strom son Ding wirklich braucht ^^
 
Zuletzt bearbeitet:
Btw wieso ausgerechnet mit MxL68282 Controller?
Stromverbrauch und kosten, deswegen will ich auch nichts anderes, außer es performt ähnlich was aber keine andere mir bekannte Plattform tut.
The maxlinear Seeker is connected to my bench PSU and its reading 6.72W (0.56A @ 12V, spikes to 0.61A when link initialized) with 2 SFP+ AOC attached and all 8 2.5GbE plugged in to another switch

Ich habe schon einen anderen China Switch hier und der Verbraucht ohne was an gestöpselt seine 8 watt und mit einem 2,5 gbit/s port und einem SFP+ port verbunden liegt der schon über 11 watt. Da ich da wohl 4 Stück im 24/7 Betrieb haben werde macht das dann doch schon einen merklichen Unterschied was der Verbraucht.
 
Vielleicht ist ja genau das "Managed" das Problem für den Verbrauch. Dazu wird ne CPU benötigt und alles (auch der Traffic) drüber geprügelt -> höherer Verbrauch.
Pauschal: Jein.
Das haben die Leute mit der PS5 damals mal an dem einen SmartManaged Netgear rausgefunden... WENN flow control an war.
Wenn nicht, hat das überhaupt nichts ausgemacht. Der Netgear war soagr einer mit dem wenigstens Verbrauch, übrigens. Flow Control hat sich auch sehr stark auf die Leistung ausgewirkt.
Die beiden Zyxel GS1200, SmartManaged, sind mit Abstand die sparsamsten die man aktuell bekommen kann und feuern immer voll auf allen Ports gleichzeitig. Das ist die ausentwicklete Lastgen der 1Gbit HW.

Ok. Ist jetzt halt 1Gbit HW. Es geht halt um unmanaged/managed Vergleich. Warum sollte das bei 2.5+10 anders sein...(?) Sind diese "CPU"s noch nicht soweit mit Designs um Nodes, um das gleiche an 2.5Gbit Switches zu leisten und man fährt da am Anschlag? (was ihre TDPs angeht). Sieht ggf. so aus oder?
 
Zuletzt bearbeitet:
Moin, ich brauche zum ersten Mal seit langem eine neue 10Gbit Karte. Habe bisher Mellanox ConnectX-3 Singleport und Intel X520-DA Dualport Karten im Einsatz.
Brauche 2 Karten, jeweils für ein Gigabyte MJ11-EC1 mittels Adapter. Beide Kartentypen laufen in Tests absolut vergleichbar, aber iperf ist halt net alles. Gibt es etwas das ich beachten muss? Betriebssystem wird TrueNAS Scale sein. Egal? Kauf was billiger ist?
 
Die CX3 schaffen wahrscheinlich nicht den niedrigsten Power State, die Intel KÖNNTEN gelockt sein, dass nur Intel-GBICs funktionieren. Dagegen kann man ggf was tun. Wenn Energieaufnahme keine Rolle spielt, dann lieber die CX3, rein vom Gefühl her.
 
Sind nicht die meisten x520 Karten die man findet fakes aus China?
Und die ConnectX3 würde ICH heute nimmer kaufen.

Die AQC113 Karten sollen recht brauchbar sein. Auch neu nicht so teuer. Aber meistens 10gbase-T mit rj45
 
Püh, würde nehmen was da ist. Broadcom/emulex, Intel, Mellanox… who cares. Sollte unter Linux alles laufen.
 
X520 nur aus seriöser Quelle kaufen. Davon gibt es einige in .de
Intel Karten haben mit die höchsten Möglichkeiten was Kompatibilität angeht.
Mag jetzt für TrueNAS nicht so spannend sein. Nur der Vollständigkeit halber erwähnt.
Genauso sei erwähnt, wenn man sich in der aktuellen Lage mit ESX beschäftigen will, kommt man mit den Dingern nicht mehr weit. (schon nicht mehr im Support)
Püh, würde nehmen was da ist. Broadcom/emulex, Intel, Mellanox… who cares.
Genau das würde ich nicht machen. Man kann sich da schnell mal vertun und hat ne NIC die 25W verbraucht.
Das sind Werte von den ersten 10GBE NICs. Da muss man also schon etwas aufpassen.
X520 oder CX3 sind auf jeden Fall schon im akzeptablen Rahmen.
Ansonsten gibt es bei den anderen Herstellern ebenfalls aktuelle Varianten, mit ähnlichen Werten.
 
X520 nur aus seriöser Quelle kaufen. Davon gibt es einige in .de
Intel Karten haben mit die höchsten Möglichkeiten was Kompatibilität angeht.
x520 zicken gern mal mit den optischen Modulen, bei den CX-3 hatte ich das noch nicht

aktuell gibts auch cx-4 und x710 recht günstig
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh