[Sammelthread] 10Gbit Homenetzwerk

Kannst du was zur Lautstärke sagen?


Gesendet von meinem SM-N9005 mit der Hardwareluxx App

Mit dem "original" Lüfter ist er hörbar, ich habe den gegen 2x Noctua NF-A 4x10 FLX ausgetauscht und ist somit nicht hörbar (ausser beim Boot-Lüftertest). Der "linke" Lüfter wurde mit doppelseitigem Klebeband befestigt, der "rechte" mit den original Befestigungsmaterial...
DGS-1510-20-Luefterumbau.jpg
DGS-1510-20-Luefterumbau-Kabel.jpg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke dir. Bei mir steht das Rack im HWR. Mal sehen ob man dann draussen was hört.

Gesendet von meinem SM-N9005 mit der Hardwareluxx App
 
Aber nicht in jede CPU und erst Recht nicht im Mainstream, sondern, in dem Fall, in die Server SoCs :)
 
Ja, und?
Wenn das LUXX Forum für Luxus steht, dann sind die Leute im 10Gbit Thread jawohl die Albino Tiger unter den Luxxern :d .
Und wenn Intel das sogar schon in die SOC's haut (welche mir voll und ganz für ein NAS reichen würden) dann kann ich mir sehr gut vorstellen dass da auch günstige LAN Chips bei raus springen werden.
 
Ich wollte es nur mal erwähnt haben, quasi als Ergänzung :)
Schauen wir mal was da im nächsten Jahr für Produkte für uns rausfallen. An günstige 10G Chips als Nebenprodukt glaube ich erstmal nicht, da arbeitet Intel sowieso separat dran.
 
Außerdem haben ja alle aktuellen CPUs "zwei LAN PHC" integriert - und brauchen trotzdem einen getrennten NIC, der je 1xPCIe "schluckt"... was daran "integriert" sein soll, habe ich noch nicht verstanden. Einen 10G-Einbau in SoC sehe ich daher nicht. Eher eine direkte Anbindung eines (teuren) Zusatz-Chips, evtl. nicht über sparsam vorhandene PCIe-Lanes.
 
Technisch gesehen wandert der PCH weg von einem separatem Chip im selben Package und in die CPU. Man reduziert das MCP also auf ein Single Chip Design. Die exakte Formulierung für 10G lautet nun "Mit im Chip steckt neben dem PCH ein 10-GBit-Ethernet". Ist jetzt die Frage wie genau man das interpretiert und wie gut diese Formulierung durchdacht ist. Da der PCH in die CPU wandert könnte das bedeuten, dass die 10G Funktionalität ebenfalls mit in der CPU steckt, was dem SoC Charakter auch eher entspricht. Oder man kehrt auf dem Weg zum MCP zurück, indem man einen 10G Chip mit ins Package setzt. An einen extern angebundenen 10G Chip glaube ich eigentlich hier nicht.

Die genaue Formulierung bei Intel lautet "The first generation will also showcase high levels of I/O integrations, including 10GbE". Für den Moment darf sich jeder selbst überlegen, was high levels of I/O integration genau sind ;)
 
Ich hätte da mal ein paar Fragen bzgl. 10G.
Aktuell habe ich 13 Rechner an einem GBit-Switch hängen (Netgear Prosafe GS716T) und überlege nun, den Server und meine Workstation per 10Gbit anzubinden. Erst dachte ich an eine Direktverbindung, aber aktuell scheint der Switch auch auf rund 90MB/s zu limitieren (Kann das sein? oder sind das dann eher die Karten). Ich hatte daher überlegt, ihn gegen einen neuen Switch mit zwei integrierten SFP+ Ports auszutauschen (http://geizhals.at/de/d-link-dgs-1510-28-a1085371.html). Ist der ok?

Mir ist jetzt nicht so wirklich klar, was ich da dann noch benötige für die Verbindung über Kupfer (benötigte Kabellängen sind 4 m und 1 m). Ist sowas hier ausreichend? http://geizhals.at/de/302032220
Und wie sieht es mit den Karten aus? Intel X540? Oder gibt es was günstigeres/besseres?
Ist da überhaupt so möglich, oder hab ich da was grundsätzlich falsch verstanden??? Funktioniert die Kombination aus 1Gbit und 10Gbit auf diese Weise? :confused:

Alternativ wäre da ja noch die Variante Direktverbindung Workstation - Server. Wie funktioniert denn das dann im Zusammenspiel mit dem Gbit-Netzwerk? Wird dann automatisch die schnellere 10Gbit-Verbindung zum Server genommen und parallel dazu die 1Gbit zum Switch?

Als grundsätzliche Frage hätte ich dann auch noch, ob sich das Ganze jetzt überhaupt noch lohnt, wo demnächst 25G kommen soll. Gibt es da schon Termine und Preise? Bzw. ist bekannt, ob dann auch eine neue, günstige 10G-Lösung kommt? Irgendwie hört man seit der Ankündigung vor nem halben Jahr jetzt überhaupt nichts mehr davon.
 
Rollen wir das doch mal von der anderen Seite auf. WARUM willst du denn 10G implementieren, was möchtest du damit erreichen? Wenn das klar ist, dann kann man sich mal überlegen welche Möglichkeiten in Frage kommen und sinnvoll sind.
 
Anwendungsbereich ist 3D-Visualisierung und Grafikbearbeitung. Beim Starten und Beenden von Netzwerkrenderings auf momentan 11 Rechnern (inkl. Workstation) kommt es zum gleichzeitigen Zugriff auf den Server.
Wie gesagt, da momentan die jetzigen 90MB/s und auch die vielleicht möglichen 110-115MB/s limitieren, dachte ich, zumindest die Workstationanbindung, aber besser auch den Flaschenhals Server-Switch (gleichzeitiger Zugriff von bis zu 11 Rechnern) auf 10G aufzubohren. Der Server hat momentan ein RAID1 mit SSD-Cache. Da dies aber scheinbar Probleme bei mehreren gleichzeitigen Zugriffen bringt - zumindest bricht dann die Leistung irgendwie massiv ein - werde ich wohl komplett auf SSD umsteigen für die aktuellen Projekt- und Bibliotheksdaten (Sprich 2x 512GB oder 1TB SSDs im RAID1 + das jetzige Platten-RAID1 für ältere Daten).
 
Ok, dann kann man das ja so machen:

10G Switch: http://geizhals.de/netgear-prosafe-plus-xs708e-a895032.html
1G Switch: http://geizhals.de/netgear-prosafe-gsm7328s-200-a675811.html

Wenn es nicht mehr als 12 Systeme sind, dann kriegt man das auch billiger mit einem Switch hin: http://geizhals.de/netgear-prosafe-xs712t-xs712t-100nes-a933884.html

Und dann kriegst du, wenn der Storage im Server schnell genug ist (was vermutlich dein nächster Flaschenhals wird, an dem du schrauben musst), von jedem Rechner 1G zum Server und von deiner Workstation 10G, wenn nicht alle Clients gemeinsam unterwegs sind. Die 10G Verbindungen kannst dann mit RJ45 Kabeln und Intel X540 machen. Im Setup mit zwei Switchen brauchst du nur eine SFP Verbindung als Uplink. Ob DAC Kabel funktionieren weiß ich nicht, sollte aber, sodass das auch günstig zu machen ist.

Direktverbindung nur von der Workstation zum Server geht natürlich auch. Beide Systeme haben dann eben zwei Adressen und du kriegst 10G nur dann, wenn du das jeweils andere System über seine 10G IP ansprichst. Automatisch passiert das nicht.
 
Wenn du die 1Gb Leitung schon nicht ausnutzen kannst wenn 11 Client zugreifen würde ich erst mal das Storage aufbohren macht mehr Sinn.
Bei RAID1 hast du ja nur 2 Platten also wenig IOPS.Da nützt dir der SSD Cache auch nicht viel.Raid Controller RAM Cache ?
Solltest du genug Ports haben am Switch und Clients könntest du auch mit bonding mehr Leistung erreichen.
 
@DunklerRabe
Wie jetzt? Also 10G auf 1G intern geht nicht, versteh ich das richtig? Ich dachte ja, ich könnte den Server und die Workstation mit 10G an den Switch anbinden in dann auf die anderen Clients mit 1G verteilen. Aber das lässt sich so nicht kombinieren?

Dann kann ich die 10G-Switch Geschichte denke ich vergessen - alle Rechner mit 10G-Karten bestücken ist nicht drin, geschweige denn die Kosten für den 10er 10G-Switch.

Dann bliebe wohl nur die Direktverbindung Workstation - Server und vielleicht noch 1-2 weitere 1G-Karten für die Verbindung Server - Switch. Wie geht denn das dann mit Freigaben, bei Parallelbetrieb von 10G und 1G? Muss ich dann die Rechner per IP ansprechen statt Netzwerkname?
Ist dann überhaupt ein kombinierter Einsatz beim Netzwerkrendering möglich? Der Ablauf ist da folgender:
Auf der Workstation läuft der Rendermanager. Dieser verschickt die Jobs an alle Nodes (inkl. Workstation). Die Daten laden alle vom Server und rendern dann unabhängig voneinander. Beim Beenden werden alle Renderdateien an den Manager (Workstation) geschickt, der diese zusammenfügt und auf dem Server speichert.
Wäre bei diesem Ablauf dann wenigstens die 10G-Verbindung zwischen Workstation und Server aktiv? Die Kommunikation mit den Rendernodes erfolgt ja dann per 1G.

@bigghost
Was meinst Du mit RAID Controller RAM Cache?
Wie gesagt, ich werde wohl komplett auf SSD wechseln. Der SSD-Cache scheint wie gesagt auch Schwierigkeiten zu haben, sobald mehr als ein Client zugreift.
Und ja, weitere 1G-Leitungen wären dann wohl die Alternative, allerdings nur für den Server. Aktuell sind noch zwei Ports frei am Switch. Kann ich denn nen onboard Intel (I218V) mit Intel-Karten trunken oder geht das nur mit gleichen Karten?

Kann ich denn irgendwie überprüfen, ob der Switch oder die Karten auf 90MB/s limitieren?
 
Zuletzt bearbeitet:
Benutzt du einen Hardware Raid Controller mit eigenem RAM oder Software RAID1 mit SSD Cache ?????

Wenn dein Server + Storage per 10G am Uplink Ports des Switches hängen können auch alle anderen Clients per 1G über den Switch darauf zugreifen.
 
@DunklerRabe
Wie jetzt? Also 10G auf 1G intern geht nicht, versteh ich das richtig? Ich dachte ja, ich könnte den Server und die Workstation mit 10G an den Switch anbinden in dann auf die anderen Clients mit 1G verteilen. Aber das lässt sich so nicht kombinieren?

Doch, das geht schon! Ich find die Zweckentfremdung der Uplink Ports dafür nur immer etwas schäbig.

Außerdem haben die SFP Slots ein paar Nachteile bei der Clientverkabelung.
Entweder musst du dir dann 10 GbE Karten mit SFP Slot holen, z.B. ältere, gebrauchte, dafür aber günstige Modelle, oder neue, die dann aber relativ teuer sind. Die günstige Verkabelung mit dem Switch wären dann DAC Kabel, aber die Reichweite ist begrenzt, du musst also nah an den Switch mit beiden 10G Systemen und musst Karten finden, die das supporten. Wenn du optische Verbindungen nutzen musst wird der Spaß direkt nochmal erheblich teurer.
Oder du guckst mal ob es 10G RJ45 SFP Module für den Switch gibt, dann kannst du RJ45 10GbE Karten nehmen. Ich glaubs aber eigentlich nicht.

Ist halt auch die Frage, inwiefern Investionen für die Zukunft finanziell bei dir machbar sind. 10G ansich ist noch lange keine günstige Technik und es gibt schon veraltete Hardware, die dich nur in eine Sackgasse bringt, weil das Thema 10G seit Ewigkeiten so vor sich hin gekrebst hat.

Dann kann ich die 10G-Switch Geschichte denke ich vergessen - alle Rechner mit 10G-Karten bestücken ist nicht drin, geschweige denn die Kosten für den 10er 10G-Switch.

Musst du ja nicht, die 10G Switche können ja auch 1G. Das ist ja das schöne daran, dass es so langsam mit RJ45 los geht. Voll kompatibel mit bestehenden 1G Kupfer Netzen.

Wie geht denn das dann mit Freigaben, bei Parallelbetrieb von 10G und 1G? Muss ich dann die Rechner per IP ansprechen statt Netzwerkname?

Entweder das oder du legst dir einen entsprechenden Eintrag im DNS (oder der Hosts Datei) an.

Auf der Workstation läuft der Rendermanager. Dieser verschickt die Jobs an alle Nodes (inkl. Workstation). Die Daten laden alle vom Server und rendern dann unabhängig voneinander. Beim Beenden werden alle Renderdateien an den Manager (Workstation) geschickt, der diese zusammenfügt und auf dem Server speichert.
Wäre bei diesem Ablauf dann wenigstens die 10G-Verbindung zwischen Workstation und Server aktiv? Die Kommunikation mit den Rendernodes erfolgt ja dann per 1G.

1G und 10G kombiniert hast du ja nur bei der Direktverbindung von Workstation und Server. In dem Fall kann die Workstation am Ende die Daten mit 10G an den Server schicken. Ob das machbar ist kommt drauf an wie die Software funktioniert, die da läuft. Du musst die Rendernodes und den Server halt getrennt voneinander behandeln. Sind die Verbindungsinfos dafür alle einzeln konfigurierbar? Wenn nein, dann connectet die Workstation gegen die Rendernodes über das 1G Netzwerk und du übergibst aber die 10G Adresse für den Server, dann geht auch der Traffic von der Workstation aus über 10G an den Server, aber wenn die Rendernodes die selben Infos über den Server erhalten, dann erreichen sie ihren Server nicht. Es sei denn, du konfigurierst in deren Host Dateien den Namen der 10G Adresse, der aber hier auf das 1G Interface des Servers geht. Der Beginn eines wunderschönen Brainfucks! :)

Und bigghosts Einwand ist berechtigt, ich hab ja auch schon vermutet, dass der Storage im Server der nächste Flaschenhals wird. Wenn der Storage nicht schnell genug ist, dann bringt dir das schnellste Netz nicht viel.
 
Zuletzt bearbeitet:
Naja gut, wenn ich den vollen SSD-Speed durch bekommen würde, wäre das ja erstmal genug.

So ganz blicke ich die Sache ja noch nicht... vor allem das mit den Adressen.

Benötige ich denn herstellerbezogen spezielle SFP+-Module oder sind die genormt und unter einander kompatibel? Ich dachte, ich könnte einfach sowas hier nehmen http://geizhals.at/de/302032220
Das wäre dann DAC, ja? Gibt es dafür denn auch (bezahlbare) Karten. Kabellängen sind wie gesagt nur 4m (Workstation im EG zu Switch im Keller) und 1m (Switch zu Server)
10GBASE-T Module hab ich jetzt noch nirgendwo gefunden? Hier steht was von höherer Latenz bei RJ-45 https://www.thomas-krenn.com/de/tkm...bel-die-neue-alternative-zu-optisch-und-rj45/ - kann man das vernachlässigen?

Was meinst Du denn mit Uplink zweckentfremden?
 
Benötige ich denn herstellerbezogen spezielle SFP+-Module oder sind die genormt und unter einander kompatibel? Ich dachte, ich könnte einfach sowas hier nehmen http://geizhals.at/de/302032220

Egal ob SFP+ LWL Tranceiver oder Kabel.
Die sind bis zum Beweis des Gegenteils nicht kompatibel. Man braucht in der Regel die Teile der Hersteller oder "kompatible" Modelle. Unterschiedliche Hersteller per billigem SFP+ Kabel verbinden geht in der Regel nicht.

Ich kämpfe hier öfter zum Beispiel mit der Frage "HP Procurve SFP+", "HP-H3C SFP+" oder Netgear SFP+ - alles inkompatibel ausser man geht über LWL - bleibt dann das Problem Monomode oder Multimode.
 
Zuletzt bearbeitet:
SFP+ Module sind nur von der Bauform her genormt. Interoperabilität ist oft so eine Sache, je nach dem wie der jeweilige Hersteller so tickt.
Und was du da verlinkt hast ist in der Tat ein DAC Kabel. Das ist im SFP+ Bereich nochmal eine Besonderheit und wird auch nicht durchgehend supportet.
Gea hats schön formuliert, ich würde erstmal auch immer davon ausgehen, dass zwei Komponenten nicht kompatibel sind bzw. DAC nicht supportet ist.

Mit Latenzproblemen musst du dich nicht befassen. RJ45 hat mit 10G die gleiche Latenz wie mit 1G, es ist also nicht langsamer. Andere Technologien sind nur schneller, aber das ist bei den meisten Anwendungen garnicht gefragt.

Und mit zweckentfremden meine ich, dass diese Ports an den Switchen eigentlich nicht dafür gedacht sind Clients anzubinden. Das sind Uplinks zu anderen Switchen, z.B: um Switche zu stacken oder um sie in der Topologie an die nächstgrößeren Switche anzubinden. Wenn man das nicht braucht, dann kann man die natürlich für Clients nutzen, aber schön ist das nicht.

Wie groß ist denn dein Budget für diesen Umbau? Das dürfte ja der limitierende Faktor sein und dann schauen wir mal, was damit möglich ist.
 
Zuletzt bearbeitet:
Ich sehe die ganze 10G Problematik so:
Normale Festplatten haben so um die 100 MB/s=1 Gb/s Transferrate.
Ein 1 Gb/s Netz ist also ungefähr so schnell wie eine normale alte Festplatte.

Eine SSD hat aber 500 MB/s, meine MacPro mit PCIe SSD ca 1 GB/s. Das sind ca 10 Gb/s.
Ich brauche also 10 G Netze um die "normale" Festplattenperformance neuerer Rechner in Netz zu bekommen - und das ist notwendig da die lokalen Platten klein sind (256-512GB) und das zentrale Storage gross ist (10-50 TB). Schliesslich will ich dass alle mit Final Cut, Adobe Premiere oder Cinema auf shared ZFS Storage mit Snaps arbeiten können - ohne Performanceverlust zur kleinen lokalen pipifax SSD HD.

Dazu kommt dass Multi TB-Festplatten mit 1 G Netzwerken nicht in vertretbaren Zeiträumen umkopiert/ gesichert werden können.

Für mich ist 10G wie 1G vor 8 Jahren. Teuer aber es kommt weil manns braucht. In ein bis zwei Jahren ist es in jedem popligen Tablet drin. Ich investiere momentan viel Geld, weil ich 1 G nicht mehr brauche.
 
Zuletzt bearbeitet:
Erstmal danke an alle für die Infos, vor allem @DunklerRabe. So langsam lichtet sich der Nebel etwas ;)

Ein Budget hab ich jetzt erstmal nicht so direkt. Ich versuche momentan eher Kosten und Nutzen auszuloten. Generell natürlich so günstig wie möglich, aber wenn es Sinn macht, kann ich auch ein paar Hunderter mehr ausgeben. Wir reden hier auch über Nettopreise. Ich muss in der nächsten Zeit allerdings auch noch drei Rechner aufrüsten und die SSDs für den Server, neue Software,etc., das läppert sich halt schon wieder. Also, ich würde schon gerne unter 700-800€ (netto) bleiben.

Ist denn zu erwarten, dass die Preise für 10G in den nächsten Monaten deutlich nach unten gehen? Meine Hoffnung war ja dieses 25G-Konsortium aber davon hört man ja irgendwie auch nichts mehr.
 
Die Preise für 10G Komponenten werden natürlich fallen, aber wie genau ist nur schwer vorhersehbar. Auf 25G und 40G würde ich nicht hoffen. Wenn das genau so läuft wie mit der 10G Einführung (die ja immer noch läuft, 10G ist ja immer noch nicht wirklich im Markt angekommen), dann warten wir noch Jahre darauf und die Preise werden sich zunächst oberhalb von 10G positionieren. Quasi in der Kategorie darüber und nicht als direkte Konkurrenz.

Mit deinem Budget kannst du eigentlich erst mal nur eine Direktverbindung zwischen Workstation und Server realisieren oder du gehst an die Uplink Ports des Switches. Die "richtige" Lösung mit 10G Switch ist dann in der Tat zu teuer. Ich hab auch noch, glaub ich, zwei 10 GbE Karten mit SFP+ Slots rumliegen, wenn du willst und Interesse hast kannst du mir ja mal eine PM schreiben und dann schau ich mal.
 
Danke für das Angebot mit den Karten, aber ich würde schon eher die Switch-Lösung anpeilen.
Ich hab noch nen kleineren mit 2x SFP+ gefunden, der stand bei Geizhals nicht mit SFP+ drin, hat er aber laut D-Link-Seite:
http://www.dlink.com/-/media/Busine...tasheet/DGS-1510_Serie_Datenblatt_2014-02.pdf

Das Problem mit dem Uplink hab ich immer noch nicht verstanden.
Sollte es denn generell gehen? Gibt es Nachteile? Ich hab inzwischen was gelesen, dass einige Hersteller (HP?, Cisco?) die Funktionalität angeblich einschränken (Puffer, etc.), aber bisher nichts Genaueres dazu gefunden.

Wie wäre denn zB. das hier:

1x Aktives Netzwerk | Shop | D-Link DGS-1510-Serie - 20 Port Smart Managed Gigabit Stack Switch | Gigabit + 10 Gigabit Switches | Switches
4x Aktives Netzwerk | Shop | D-Link DEM-431XT - Kompatibles 10 Gigabit SR SFP+ Modul | D-Link | SFP-Module, GBICs, Zubehör | Switches
2x http://geizhals.de/asus-peb-10g-sfp-plus-dual-90-c1sewa-00uan0yz-a962956.html
+Kabel?

10G RJ45-Module kann ich irgendwie nicht finden für den D-Link.

Alternativ bin ich jetzt doch am überlegen, ob ich der Einfachheit halber doch nur noch zwei zusätzliche 1Gbit-Karten in den Server reinstecke und trunke. Oder eine Dualportkarte - zwei einfache hab ich allerdings noch hier. Ob das in Verbindung mit dem Onboard-Port geht, muss ich dann wohl mal testen.
Ich hab jetzt auch irgendwo gelesen, das D-Link wohl im nächsten Jahr was mit 10G-RJ45 kombiniert anbieten will, vielleicht sollte ich dann darauf noch warten.
 
Wie gesagt, zu der Hardware Auswahl kann ich leider nichts sagen. Wird vermutlich kaum jemand können, müsstest du halt mal ausprobieren. Insbesondere wegen diesen doch ziemlich fragwürdigen Asus 10G Karten, von denen ich bisher noch nie was gesehen oder gehört habe :)
 
Kurze Wasserstandsmeldung:

Die Mellanox MCX354xxxx sind nicht in der Lage, aus 1x40Gbit -> 4x10Gbit über ein Breakout-Kabel zu bieten. Zum Glück habe ich das noch vor dem Ebucht-Kauf aus einem Whitepaper von Mellanox lesen können.
Allerdings sind auf Nachfrage die neuen Intel XL710 dazu in der Lage. Supermicro bringt jetzt die eigenen PCIe-Karten raus, dann geht das Experiment in die nächste Runde. Denn: 2x40Gbit -> 8x10Gbit mit LC-Breakout machen für "typische" Hausinstallationen den Switch überflüssig.
 
Kurze Wasserstandsmeldung:

Die Mellanox MCX354xxxx sind nicht in der Lage, aus 1x40Gbit -> 4x10Gbit über ein Breakout-Kabel zu bieten. Zum Glück habe ich das noch vor dem Ebucht-Kauf aus einem Whitepaper von Mellanox lesen können.
Allerdings sind auf Nachfrage die neuen Intel XL710 dazu in der Lage. Supermicro bringt jetzt die eigenen PCIe-Karten raus, dann geht das Experiment in die nächste Runde. Denn: 2x40Gbit -> 8x10Gbit mit LC-Breakout machen für "typische" Hausinstallationen den Switch überflüssig.

Und Strom is dann auch egal?
Noch dazu, wie willst du die Sache managen?
Es fehlen dann doch halt auch alleine Switch typischen positiven Eigenschaften.
 
Ich verstehe die Frage nicht. Die 2x40gbit-Karte soll unter 8W benötigen. Ein >=8fach LWL-Switch eher >100W.
Die 8 gesplitten Anschlüsse bekommen im server eigene IP-Kreise (.1.x,.2.x, etc.), der server "switched" bzw übernimmt das Routing. VLan etc kein Problem. Überleitung/Switch zum 1gbit kein Problem.
Und das geht mit mehr Kenntnis in Linux-Netzwerk-Kpnfiguration bestimmt noch deutlich eleganter..
 
Ich verstehe die Frage nicht. Die 2x40gbit-Karte soll unter 8W benötigen. Ein >=8fach LWL-Switch eher >100W.
Die 8 gesplitten Anschlüsse bekommen im server eigene IP-Kreise (.1.x,.2.x, etc.), der server "switched" bzw übernimmt das Routing. VLan etc kein Problem. Überleitung/Switch zum 1gbit kein Problem.
Und das geht mit mehr Kenntnis in Linux-Netzwerk-Kpnfiguration bestimmt noch deutlich eleganter..

Naja, kannst dann ja mal schreiben wenn Du das eingerichtet hast damit die anderen davon profitieren können.

Ps: der Stromverbrauch der Karte ist mit 8w load wohl sehr optimistisch angegeben, auserdem kommt da noch der restliche PC dazu.
 
Ich glaub 8 Watt ist schon realistisch, +/-. Der Rest macht 20 oder 30 Watt, das geht schon. Mein XS708E mit acht RJ45 Ports braucht im Idle auch schon 30 bis 40 Watt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh