[Sammelthread] 10Gbit Homenetzwerk

Hab meine nun auch (Voltaire HCA 400ex mit 128MB)
erste Test Win7 und Ubuntu Server.

Ubuntu iperf server win client
linux server.JPG

Win iperf server ubuntu client
Win server.JPG

3,5GB Testfile via CIFS/SMB (Totalcommander Windows)
Samba.JPG


Iperf zeigt schon nette werte besonders im ersten setting eventl nochmal an dern win settings drehen
SMB 600MB/s find ich auch schonmal nicht so schlecht.

Hab die Voltaire FW gegen die letzte Mellanox getauscht(fw-25208-4_8_200-MHEL-CF128-T.bin) hat aber nix gebracht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die werte sehn doch super aus. Viel besser als meine : -(

Wie ich sehe, hast du mit ner RAM disk getestet. Könntest du mal mit meinen settings testen? (post ich wenn ich zuhause bin) Vllt liegt der unterschied ja nur in der Testmethode. Ansonsten muss ich mal die settings vergleichen.

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
also mit forcierten 128K TCP window soze bekomme ich mit iperf nur knapp 4GB.
Bei meinen Tests habe ich alles auf auto gelassen, nur bei den adpter einstellungen den connected mode enabled stellen.
Gegentest mach ich kein Prob.
 
Zuletzt bearbeitet:
Mit enable hatten sich meine werte sogar minimal verschlechtert.

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
Voreinstellung ist da Max.(65520) beim Openfabric sollte also eingetlich bei ihm stimmen.
Ich versuch gerade das ganze auf meinem Nas hinzufrimmeln .
Datagramm läuft aber connected mag er noch nicht, ist leider unter Freebsd ziemlich frickelig.(mom ca 350MB/s).
 
Hallo,
schöner Thread, den ich mal um meine Erfahrungen ergänzen darf:

1) Ich habe bei der "bucht" vor einigen Monaten sehr günstige Qlogic 7342 (Dual 40GBit, QSFP) gefunden und ein passendes Test-Kabel (optisch) dazu. Die Karten für 130€/St., das Kabel für 300,-.... :/ Egal. Es ging um das ultimative Heimnetz für die nächsten 20 Jahre :)
Dumm gelaufen: Die Karten werden unter Windows nicht unterstützt. Die Karten heißen inzwischen "Intel Truescale" und bieten ausschließlich (!) Linux-Support. Es gab unter OFED mal eine "news", dass mit der Version >3.x auch die Qlogic-Treiber enthalten sein sollten, das ist aber nicht der Fall. Somit kann ich von meinen drei einzubindenden PCs einen nicht nutzen :(
Eine Anfrage im Intel-Support läuft.
Unter den beiden Linux-Rechnern läuft das äußerst problemlos, wenn man den Treiber vom Kernel nutzt und das opensm aus dem OFED-Package. Wie zu erwarten nutzt mein Plattenstapel (6x2TB@5400Upm und 3x3TB@7200upm = server; 13x1TB@5400upm = Backup) das nicht ansatzweise aus.
2) Ohne dass es auf irgendeiner Seite steht, bietet DELL von Broadcom einen Dual 10GBase-T Ethernet PCIex8 NetXtreme II an. Auf der Homepage ist "nur" der 57800 mit SFP+ zu finden, die haben aber eben auch den RJ45 verfügbar. Für ca. 250€ bekommt man damit 10GBit-Ethernet über Cat7 bei RJ45. So sind nun bei mir Server<->Workstation angebunden und das funktioniert tadellos (Ubuntu 12.04 <-> Windows 7x64).
Nur, weil diese Karte bislang im Thread nicht erschienen ist: Funktioniert, ohne Switch mit Patchkabeln im direkten Link mit CAT>=6a nutzbar.
Gruß
 
wegen der momentanen Test-Verkablung (Kabel durchs Fenster und im Keller wieder rein) hat sich das testen mal wieder hinausgezögert
@jasch: ich hab jetzt mal mit den von dir genutzten standardsettings gebencht. ich komm auf sagenhafte 1,3MBit/s :wall:

ist doch alles müll:(

@JojoTheMaster: wie schon von jasch erwähnt steht es standardmäßig auf 65520
 
Vielleicht hilft das beim Durchbruch, auch wenns eigentlich der falsche Standard ist!

Warum der falsche? Im Gegenteil. Endlich mal ein Switch, der RJ45-basierte 10G-Karten unterstützt. Die meisten overkill-Verkabler wie wohl wir im-Thread-Anwesenden haben doch die letzten Jahre CAT6 oder 7 verlegt. Mit dem Switch geht also endlich mal 10G ohne teure Glasfaser-Neuverlegung.
Was mir dagegen im 10Base-T Sorgen macht ist der hohe Strombedarf. Der genannte Switch gibt im Datenblatt "100-240V, 2.2A max" an. Sofern das für den USA-Standard gedacht ist zieht der wohl bis zu ca. 220W... Die Karten nehmen 10-20W. Da ist Infiniband auf optischer Basis zwar in der Anschaffung teurer, aber deutlich günstiger im Stromverbrauch. Meine 40G-Karten nehmen 5W.
Naja, mal sehen was sich preislich bei beiden Standards noch tut...
 
Naja, falsch deshalb, weil sich eigentlich fast alle Welt schon auf SFP+ eingeschossen hat und dann 10GBase-SR mit optischen Transceivern macht oder SFP+ CU Kabel für Kurzstrecken verwendet.
Dafür gibts ja auch ewig viel Hardware, d.h. Karten und Switche. Die Switche sind nur nicht bezahlbar und für die meisten daheim einfach unsinnig, weil das entweder sowas in der Größenordnung 24x 1G und 4x 10G, wo die 10G Ports eigentlich für die Uplinks gedacht sind, oder direkt 24x 10G ist. Preise dann ab 2500 Euro aufwärts und für die reinen 10G Switche wirds dann auch deutlich fünfstellig.

Für 10GBase-T gabs bisher weder großartig viele Switche noch Karten. Aktuell kriegt man eigentlich nur die NICs von Intel. Wenns die nicht gäbe, dann wäre der Switch sogar annähernd nutzlos. Ich bezweifel ehrlich gesagt ein wenig, dass wir in Zukunft viel neue 10GBase-T Hardware kriegen, da viele jetzt nicht mehr auf den Zug aufspringen werden. Investitionsschutz beim Kunden etc., die werden auch kaum jetzt mit Kupfer anfangen, wenn seit längerem alles in Glas umgesetzt ist.
Herstellerseitig finde ich den Schritt von Netgear eigentlich auch sehr mutig, aber natürlich auch definitiv begrüßenswert. Es hätte mich aber auch nicht gewundert, wenn so ein Produkt nie erschienen wäre. Netgear hat da halt einen Markt erkannt, der wohl relativ klein ist, und hofft ihn gewinnbringend bedienen zu können. Als erster Anbieter in diesem Markt haben sie jetzt auch gute Chancen da viel abzugreifen, bevor ein Konkurrent ankommt. Falls überhaupt einer kommt.

Für mich heisst das demnächst dann wohl, dass ich einige Intel X540-T1 und eben diesen Switch kaufen werde, mein Konto freut sind...
Die NICs mit SFP+ fliegen dann raus.
 
Na, denke bitte an mein obiges Post: Bei Dell gibts nen Dual-10G-NIC für ca. 250€. Da kommt meiner Kenntnis nach Intel nicht mit...
Und wie Du schon schreibst: SFP+ oder QSFP (mein IB lässt grüßen) sind preislich ausschließlich für Direktverbindungen geeignet... Obwohl ein Mellanox QSFP-8-Port-Switch für ca. 1600€ zu bekommen ist... hmmm... evtl. ja doch Glasfaserverkabelung ;)
 
Hast du mal ein paar mehr Infos zur dieser NIC von Dell? Ein paar Links oder Modellbezeichnung/Bestellnummer reichen, suchen und lesen kann ich dann selbst :)
 
Naja, falsch deshalb, weil sich eigentlich fast alle Welt schon auf SFP+ eingeschossen hat und dann 10GBase-SR mit optischen Transceivern macht oder SFP+ CU Kabel für Kurzstrecken verwendet.

Welche Welt soll das sein? 10G wird im Moment für ein paar Serveruplinks und Switchuplinks genutzt. Das wars dann aber mit "alle Welt".
Die Durchdringung von Ethernet geht aber noch ein paar Ebenen weiter runter. Ziel war es schon immer und wird es auch sein, dass man das Ganze bist in die Endgeräteverkabelung durchreicht. Und da ist twisted pair der Standard, auf den sich alle Welt eingeschossen hat. Daher muß es Ziel sein diese Technik nutzbar zu machen. Und das geht nur, wenn man auf Base-T setzt.

In den oberen Ebenen hat man schon immer seine eigenen Suppe gekocht.
(mit 10G zieht man da mittlerwiele auch keine Wurst mehr vom Teller)
Und dennoch hat man es bisher nicht geschafft, diese Techniken durchzureichen und so ist es auch bei 10G. Die Verkabelungsstandards sind da, man muß es nur schaffen bzw darauf warten, bis es breitentauglich ist.

Aus Sicht der unteren Ebenen kann man es nämlich so sehen, dass die Welt im Moment komplett auf den falschen Standard setzt.
Eigentlich ist der Markt für SFP+ und Co eher gering. 10G wird sich innerhalb der nächsten 10-15Jahre auf den unteren Ebenen und damit auch Consumerbereich durchsetzen. Daher ist der Schritt von Netgear nicht besonders mutig, sondern eher logisch. Und das ist das eine Massenanwendung und die Chips und die NICs dazu werden Schüttgut.

Aus meiner Sicht also eher logisch und auch richtig. Ich persönlich setze lieber eine homogene Umgebung (alles Base-T) ein als mit SFF und SFP+ Steckern rumzumanschen, wie es bisher der Fall ist.
 
Zuletzt bearbeitet:
@underclocker:
Im Zweifelsfall meine Welt, die Welt bei mir und vielen anderen daheim und die Welt bei mir im Büro, wenns um Rechenzentrumsbetrieb geht. Serveranbindungen und Switch Interconnects sind da schon rdie ichtigen. Wenn ich zu HP ginge, dann würde ich nichtmal für Geld und gute Worte eine Infrastruktur für ein 10G Netz auf -T Basis kriegen. Der de facto Standard seit vielen Jahren ist -SR und zuletzt ist nur SFP+ CU dazu gekommen.
Ich kenne 10G Ethernet Verbindungen so gesehen eigentlich kaum anders.

Was du oder ich für richtig oder falsch halten ist eigentlich fast egal. Im Moment habe ich aber den Eindruck, als das es für -T eigentlich schon fast zu spät ist. Da mag ich falsch liegen, weiß ich nicht.
Prinzipiell habe ich nichts gegen -T und bei der homogenen Umgebung bin ich voll bei dir. Deswegen werde ich mir diesen Switch von Netgear auch holen, hab ja auch gesagt, dass das durchaus zu begrüßen ist.
Aber die Zeit fürs Geld verdienen mit 10G Hardware im Heimbereich ist noch lange nicht gekommen, Geld verdient man nur im Enterprise Bereich. Da setzen alle seit einer halben Ewigkeit auf -SR und ich sehe da ehrlich nicht, dass da jemand dann irgendwann mal auf -T umsteigt. Klar, manche machen das vielleicht, wenn ihre Infrastruktur nicht zu groß ist. aber ob das eine relevante Menge wird?

Vor nicht all zu langer Zeit hätte ich eher noch den Trend zu Converged Networks gesehen, d.h. z.B. die Verschmelzung von 10 GbE mit FCoE. Das dümpelt aber auch eher so gemächlich vor sich hin.

@daniel: Thx! Was mir da aber garnicht gefällt ist der Lüfter! Ich find da grad auch keine Angebote zu, wo kann man die denn kaufen?
 
Zuletzt bearbeitet:
@ DunklerRabe wenn man Mellanox und eigentlich auch allen anderen Switch Herstellern glauben darf, geht die Welt eher hin zu Software definierten Switchen.
SFP+ über CU-Kabel benötigt ~2 Watt oder weniger je Port. Ein 64 Port 1HE 19" Switch (sowas kostet lächerliche ~13k Euro) kommt also auf etwa 120 Watt. Für 640Gbit/sec Full-Duplex ist das ein recht ansehnlicher Wert. Bei optischer Verbindung ist man leider deutlich drüber. Eher 4-5 Watt je Port.

10G Base-T Ethernet kommt dieses Jahr auf die ersten Servermainboards und wird sich in den nächsten 2-3 Jahren auch auf dem einen oder anderen "High-End" Workstation oder Gamining Mainboard wiederfinden.
Problematisch ist im Heimbereich eher die "Konkurrenz" durch 5Gbit USB 3.0, 10Gbit und 50Gbit Thunderbolt sowie DisplayPort.
 
@rabe
Die Welt funktioniert da etwas anders, als du evtl. glaubst. (so scheint es mir)

Da entwickelt irgendwer irgendetwas im Bereich Ethernet. Der erste Einsatz ist dann immer der Enterprisemarkt. (und damit ist nich das 5k Bürohochaus gemeint, sondern RZ Einsatz) Die Technik wird also da eingesetzt, wo sie notwendig ist, und das ist da, wo der Bandbreitenbedarf da ist.

Und natürlich kommen da zuerst die bewärten Grundzüge zum Einsatz. Im Enterprisemarkt ist das im Regelfall -SR und -LR. (und das war bereits lange vor 10G so) Und ich verfolge die Geschichte nun schon ein paar Jahre. Und es wiederholt sich die Geschichte immer wieder und wieder und wieder. Der Hintergrund ist einfach, dass man im Enterprisemarkt nicht so den Kostendruck hat. Daher sind (teure) Transciever kein Problem.

Allerdings kommt es, wie es kommen muß, die Technik will irgendwann aus dem Schattendasein raus und das geht nicht mit irgendwelchen LWL oder anderen Transcievern. Hier braucht es eine massentaugliche Ware/Infrastruktur. Und diese ist seit runden 20Jahren -T.

Daher ist die logische Konsequenz, dass man vom -SR und -LR weggeht, weil das eine reine Enterpriseanwendung ist, und den Weg zu -T sucht.
Wenn man sich mal umschaut, dann kann man seit gut einem Jahr feststellen, dass -T den Markt langsam durchdringt. Angefangen hat es mit den X520 und geht mit den X540 weiter. Broadcom zieht auch nach.

Bisher war 10G im Bereich der größeren Rechenzentren im Einsatz. So langsam bewegen wir uns auf den Bereich zu, wo kleine RZ/Serverräume in KMUs damit vernetzt werden. Diese setzten deutlich weniger auf -SR Verbindungen sondern relativ stark auf -T Verbindungen. Will man also seine Server (bzw 10G) in diesem Bereich aufstellen, so muß man auch die Schnittstellen bedienen, die der Kunde einsetzen will und das ist -T. Irgendwann kommt dann der Punkt, wo 10G dann massentauglich wird.

Und genau dieses Verhalten konnte man schon bei GBE beobachten. Auch hier war zuerst der Enterprisemarkt standard, da mit LWL und keiner wußte von GBE. Dann kamen die "Massenserver" und irgendwann waren dann auch mal die Endkunden und noch etwas später auch onboard dabei.

Ich habe mir damals für richtig böse Geld die ersten "sinnvollen" Endkunden GBE Komponenten(-T) gekauft. Und ich habe da gerade ein dejavu, es passiert jetzt genau das Gleiche. Das Netgear ist im Preissegment für Endkunden, die NICs auch. (auch wenn man für den "Starter-Kit" noch gute 1,5k hinlegt)

Wie kommst du darauf, dass du bei HP keine 10G Infrastruktur bekommst? E3800er bekommst du mit -T Anbindung. NCs für -T kannst du bereits auch für 10G bekommen, bzw. Server damit konfigureiren. Mit genau diesen Komponenten kannst du einen Server mit großem Bandbreiten bedarf an ein Netzwerk koppeln. Und das ganz ohne 802.3ad und solche Scherze. Ganz so wie es früher der Fall war als gbit kam.
Da hat man auch zuerst die Server mit gbit an 100mbit angebunden. (und auch hier sind wie wieder bei dem Dejavu)
Wir sind jetzt also genau an dem Punkt, wo 10G den KMU Markt durchdringt.

Und glaube mir, innerhalb von 1-2 Jahren wirst du auch bei HP und Konsorten eine voll integrierte(multiport 10G) -T Infrastruktur bekommen. Supermicro bietet schon seit längerem 10G onboard an.

Das einige "Idioten" wie wir zu viel Geld haben und sich den neusten Schrei kaufen, sagt rein garnichts darüber aus, wie der Markt aussieht.
Die paar Freaks werden in keinster Weise vom Markt registriert. Die KMU Ebene ist die, wo der impact von -T zu spüren ist. Und darauf zielen die aktuellen -T Komponenten ab.
Dass wir so doof waren und uns SFP, IB, -SR und was auch immer in Haus geholt haben, ist unsere persönliche Entscheidung gewesen. Ich habe mir IB angetan, weil ich relativ schnell etwas brauchte die Server-Server Verbindung. Allerdings habe ich mir gesagt, begründet auf der dargelegten Historie/Erfahrung, dass ich diese Sackgasse nicht weiter verfolgen werden, sondern auf die logische Konsequenz (-T) warten werden.
 
Zuletzt bearbeitet:
Ich seh das im Grunde ähnlich, aber ich seh im -T Bereich sehr wenig Bewegung. Weniger als ich gedacht und erwartet hätte. Aber ich lass mich gerne überraschen.

Und HP bietet im Moment keine 10G -T Karten für z.B. DL380p Gen8 an, daher hab ich das erwähnt ;)
 
Naja, schnell geht sowas nicht. War bei GBE nicht anders. Da habe ich auch auf glühenden Kohlen gesessen. Ich hab heute noch meine quad fast ethernet NICs, welche mir die Wartezeit überbrücken mußten.

Gut Ding will Weile haben. Hinzu kommt das Henne und Ei Problem. (NIC vs Switch)
Wenn eins nicht da ist, kommt das anderen auch nicht.

Wer weiß was HP grad für Prozesse anschiebt oder was auch immer. Wie gesagt, SM hat die Teile bereits (dual wohlgemerkt) onboard verlötet. Dell kanns auch, daher denke ich, dass man es bei HP auch direkt bestellen kann. Separat zum Nachrüsten gibt es sie ja.
 
Zuletzt bearbeitet:
Ich kenn mich im HP Portfolio eigentlich immer gut aus. Auch auf die Gefahr hin, dass es leicht peinlich wird: Welche gibts denn im Moment zum nachrüsten?
 
Zuletzt bearbeitet:
Auch wenn ich underclocker2k4 so weit zustimme, aber nach 10Gbit Ethernet wird es leider nur noch optische Verbindungen geben. Siehe auch Intels Thunderboltpläne für 50Gbit/sec (4 Wellenlängen wie bei 40Gbit Ethernet). IBM hat die Roadmap für die Supercomputer des Jahres 2020 ja schon dargelegt. Wenn du willst, verlinke ich die PDF noch einmal.
 
@Rabe
Das sind "m" NCs, sprich für die BLs. Standard Slots gibt es -T noch nicht. Aber wie gesagt, HP ist da sicherlich grad in der Mache. HP hat in den letzten Jahren ja auch mehr als 1x Intel NICs geOEMt. Daher denke ich, dass wir bald -T NICs für ML und DL sehen werden.

@blue
Deine Einschätzung teile ich nicht. Die Entwicklungen im Netzwerkbereich der letzen 20-25 Jahre haben gezeigt, dass es trotz vermeindlicher Sackgasse immer weiter ging. Siehe 100Base-T4 über CAT3 Kabel, selbst 10G laufen noch über CAT5 Leitungen. Daher denke ich, dass es auch möglich sein wird, dass man 100G über -T realisiert. Das Problem ist allerdings der Stecker. RJ45 ist am Ende, daher muß hier was neues her.
Weiteres Problem ist, dass die Transciever im Moment nicht hinterherkommen. Und das betrifft aber CU als auch LWL. Daher muß man die erwähnten Mehrfaser/OptikLWLs einsetzen. Diese gibt es bereits für 100GBE. Und selbst diese Technik ist nicht ganz praktikabel. Für einen Flächeneinsatz total ungeeignet. RZ Betrieb im Moment OK.

Die DSP und Kodierverfahren entwickeln sich weiter. Ich sage nur "200mbit über Kupferdoppelader", das hat man früher auch nicht geglaubt und dennoch gehts. Auch -T wurde schon oft totgesagt und dennoch geht es weiter.
Wir sollten einfach abwarten, was in den nächsten Jahren passiert. 10GBE -T wird noch gute 5 Jahre für eine flächige Marktdurchdringung brauchen und für ein mögliche 40GBE oder 100GBE über -T haben wir daher noch eine Menge Zeit.

Aber verlink doch mal den Artikel. Den kann doch der TE mal, zusammen mit dem Rabe Link im Post #1 eintragen.l
 
Zuletzt bearbeitet:
Hallo,
nochmal zum Dell Broadcom 10G: Ich habe den von Dell. Der steht nicht auf der Homepage, den muss man offensichtlich weiterhin direkt anfragen. Es handelt sich nach der Bezeichnung um einen Converged Adapter, s.o. Der war auch billiger als der "reine" 10G NIC... obwohl er dual NIC kann.... man muss nicht alles verstehen. Ich bin jedenfalls sehr zufrieden.
Den Lüfter hört man nicht, daher brauchst du dich daran nicht stören.
Gruß

edit: "hört man nicht" - gegenüber den vier Großlüftern und 9 Festplatten...
 
Zuletzt bearbeitet:
Hat einer Erfahrung mit Windows von SRP booten?
Ich hab mit meinen Mellanox-Karten mein SRP Netz zum laufen gebracht und mit Ramdisk ist die Performanz auch wie erwartet (~880Mb/s, beide Karten nur im PCI-E 4x Slot). Alle HowTos die ich gefunden habe verlangen immer eine Erstinstallation von Windows auf einer leeren Festplatte und dann die Transfer des vollständig installierten Images als SRP Image. Meine ersten Versuche waren alle negativ und resultiereten in Inaccessible Boot Device.
 
@blue
Deine Einschätzung teile ich nicht. Die Entwicklungen im Netzwerkbereich der letzen 20-25 Jahre haben gezeigt, dass es trotz vermeindlicher Sackgasse immer weiter ging. Siehe 100Base-T4 über CAT3 Kabel, selbst 10G laufen noch über CAT5 Leitungen. Daher denke ich, dass es auch möglich sein wird, dass man 100G über -T realisiert. Das Problem ist allerdings der Stecker. RJ45 ist am Ende, daher muß hier was neues her.
Weiteres Problem ist, dass die Transciever im Moment nicht hinterherkommen. Und das betrifft aber CU als auch LWL. Daher muß man die erwähnten Mehrfaser/OptikLWLs einsetzen. Diese gibt es bereits für 100GBE. Und selbst diese Technik ist nicht ganz praktikabel. Für einen Flächeneinsatz total ungeeignet. RZ Betrieb im Moment OK.

Die DSP und Kodierverfahren entwickeln sich weiter. Ich sage nur "200mbit über Kupferdoppelader", das hat man früher auch nicht geglaubt und dennoch gehts. Auch -T wurde schon oft totgesagt und dennoch geht es weiter.
Wir sollten einfach abwarten, was in den nächsten Jahren passiert. 10GBE -T wird noch gute 5 Jahre für eine flächige Marktdurchdringung brauchen und für ein mögliche 40GBE oder 100GBE über -T haben wir daher noch eine Menge Zeit.

Aber verlink doch mal den Artikel. Den kann doch der TE mal, zusammen mit dem Rabe Link im Post #1 eintragen.l

Teilen musst du meine Einstellung nicht. Ich begründe Sie einfach nur auf den Angaben welche eine der größeren Firmen hierzu abgibt. Das selbst im Jahre 2020 bei den Supercomputern einfach auf dutzende 15Gbit/sec optische Sender und Empfänger gesetzt wird, da bei diesen der Verbrauch je übertragenem Bit am geringsten ist. Das 25Gbit/sec schon technisch möglich sind ist auch mit angegeben. Aber das wird wie gesagt eher nur bei geringen Portdichten irgendwann eine Rolle spielen.

Das PDF ist hier verlinkt:
Künftige Serverprozessoren mit eingebauten Cluster-Schnittstellen | heise online
Fuad Doany von IBM stellte in seiner Keynote (PDF-Datei) den Stand der Technik bei optischen HPC-Interconnects dar.

Interessant zum schnellen überfliegen:
Seite 3, 11-14, 16, 19, 30 ist etwas für Gehäuse mit Plexiglas ;-) und die Seite 41.
 
Zuletzt bearbeitet:
Ist sicher nicht uninteressant zu lesen, werde ich bei Gelegenheit mal tun.

Ich finde aber eher, dass die Vergangenheit uns gelehrt hat, dass man sich mit Aussagen über die IT, die viele Jahre in die Zukunft gehen, vielleicht lieber etwas zurückhalten sollte :)
 
@blue

40GBase-T ist quasi schon existent, daher kann man wohl davon ausgehen, dass es diese in Zukunft auch geben wird. Und bis 40G bei "uns" ankommt, werden mindestens 10Jahre vergehen. Sprich ~2025

Und was sind geringe Portdichten? Ein Rack was 1000 Ports einer Verkabelung leifert kann man getrost als hohe Portdichte bezeichnen und dort wird 40G -T zum Einsatz kommen.

Man sollte nicht den Fehler machen und die Welt des HPC und supercomputing auf die Fläche ausdehnen. Das sind zwar beides Netzwerke, diese haben aber soviel miteinander zu tun wie nen Fiat500 und der aktuelle F1 Flitzer.

EDIT:
Licht als auch Strom haben jeweils ihre eigenen Probleme.

Um aber nochmal auf das Teilen der Einschätzungen zurückzukommen:
Auch wenn ich underclocker2k4 so weit zustimme, aber nach 10Gbit Ethernet wird es leider nur noch optische Verbindungen geben.

Es gibt heute schon 40G als auch 100G in Kupfer, diese sind gerade in der Spezifizierung. Endgeräte gibt es schon, zumindest hinter verschlossener Tür.
Daher gibt es nach 10G Ethernet schon nutzbare Techniken und das ganz ohne optische Verbindungen.

2ndEDIT:
Und sicherlich kann man das nicht 100%ig sagen, was da kommt und was nicht.
Jede Technik hat ihre Probleme. Auch Optik ist nicht der Weisheit letzter Schluß. Auch Kupfer kämpf mit unschönen physikalischen Effekten. Dennoch haben die R&D Bereiche dieser Welt immer tolle Lösungen gefunden. Das gilt allerdings auch für die optischen Lösungen. Was heute noch ein Problem ist, kann morgen schon Schnee von gestern sein.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh