Konsortium spezifiziert 800 Gigabit Ethernet

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.961
ubiquiti-rj45.png
Das Ethernet Technology Consortium hat den Standard für ein 800 Gigabit Ethernet (800GbE) als IEEE 802.3ck spezifiziert. Daran gearbeitet wurde schon über eine längere Zeit, doch nun können sich die Hersteller auf eine Spezifikation (PDF) und eine Interkompatibilität berufen. Initiatoren des Konsortiums sind Arista, Broadcom, Google, Mellanox und Microsoft.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das 800 Gigabit Ethernet bietet eine doppelt so hohe Datenrate wie das 400 Gigabit Ethernet – anhand des Namens ließ sich dies sicherlich bereits vermuten.

Also das kam jetzt völlig überraschend... :ROFLMAO:

Ganz nett, aber für den Privatkunden die nächsten 20 Jahre uninteressant.
 
Gerade wo sich jetzt 2,5 und 5 GBit's durchsetzen.
 
Also das kam jetzt völlig überraschend... :ROFLMAO:

Ganz nett, aber für den Privatkunden die nächsten 20 Jahre uninteressant.
Die Firmen/Leute die das spezifizieren interessieren sich ja auch überhaupt nicht für den Privatkundenmarkt.
 
Also das kam jetzt völlig überraschend... :ROFLMAO:

Ganz nett, aber für den Privatkunden die nächsten 20 Jahre uninteressant.

Das ist wie mit 1Gbit und 100Mbit damals.
Da waren sehr sehr lange die 100Mbit der Standard, GBit war teuer.
10G gibt es auch schon länger, jetzt haben ja auch im Privatbereich langsam die Highend Boards 10G und in der gehobenen Mittelklasse 2.5G.
Nur die Switche kosten noch recht viel.
Punkt zu Punkt ist 10G aber bezahlbar.

Als uninteressant würde ich es nicht abtun. Das kommt ganz auf die Preisentwicklung und die Datenmengen im Privatbereich an.
 
So kann man wenigstens PCIe 5.0 x16 mit einer Netzwerkkarte halbwegs ausreizen ^^

Vielleicht ist das auch der Grund für diesen Standard denn ansonsten... man braucht zwei PHYs und zwei Kabel, die Switches sind wohl weder kleiner noch stromsparender im Vergleich zu 400GbE. Die Vorteile dürften sich in Grenzen halten.

Dabei sollte es prinzipiell durchaus möglich sein 800 GBit durch eine einzige Glasfaser zu übertragen und entsprechende PHYs zu bauen. offensichtlich handelt es sich nur um eine Übergangslösung die nur für sehr spezielle Anwendungen in Rechenzentren wirklich interessant ist und die in ein paar Jahren wieder aussterben wird wenn es wieder bessere Lösungen gibt.


Das ist wie mit 1Gbit und 100Mbit damals.
Da waren sehr sehr lange die 100Mbit der Standard, GBit war teuer.
10G gibt es auch schon länger, jetzt haben ja auch im Privatbereich langsam die Highend Boards 10G und in der gehobenen Mittelklasse 2.5G.
Nur die Switche kosten noch recht viel.
Punkt zu Punkt ist 10G aber bezahlbar.

Als uninteressant würde ich es nicht abtun. Das kommt ganz auf die Preisentwicklung und die Datenmengen im Privatbereich an.

Ein wichtiger Grund dafür das sich 10GbE im Privatbereich nur langsam durchsetzt ist der relativ hohe Energieverbrauch der Hardware. Es ist gar nicht so einfach etwa einen Switch für 10GbE zu bauen der ohne Lüfter auskommt und den will man als Privatnutzer eher nicht haben... für Laptops ist der Leistungs (und Kühlungs-) Bedarf berhaupt grenzwertig und auch bei Onboardlösungen auf Mainboards erschwert und verteuert er die Implementierung. 10GbE wird daher vermutlich auch in Zukunft eine Premiumlösung bleiben auf die man nur zurückgreift wenn man auch davon profitiert. Wobei 10GbE freilich auch im Privatbereich sowohl immer leistbarer als auch sinnvoller wird, etwa zur Anbindung eines NAS.

Jenseits von 10GbE reizt man die TP-Kabeltechnik langsam aus. Bei 25GBASE-T ist die Kabellänge bereits deutlich eingeschränkt und man kommt kaum um gute CAT-8 Kabel herum. Ich denke nicht das sich das im Privatbereich jemals durchsetzen wird.

Jenseits von 10GBASE-T wird man im Privatbereich wahrscheinlich zunehmend auch auf die Glasfaser setzen- und damit kann man prinzipiell auch das Problem mit dem Leistungsbedarf umgehen. Aber optische Verbindungen sind bekanntlich aus anderen Gründen nicht unproblematisch, etwa wegen der Verschmutzungsanfälligkeit der Stecker oder dem großen Biegeradius der Kabel. Ich denke das wird dazu führen das die Technik hier noch länger stehen bleibt.
 
Zuletzt bearbeitet:
Ganz ehrlich habe ich so meine Zweifel, dass sich 10GBase-T überhaupt im privaten Bereich durchsetzen wird. Die "Nerds" nutzen SFP+ oder es wird das Wlan genutzt.
Letzten Endes ist diese 800Gbit Technologie, nur pairing mit einer MAC Adresse. Ich vermute mal das dies nur ein zwischen Schritt ist zu 1Tbit.
Auf jeden Fall, wird die Preisgestalltung interessant sein.
 
Das ist wie mit 1Gbit und 100Mbit damals.
Da waren sehr sehr lange die 100Mbit der Standard, GBit war teuer.
Nein, das kann man nicht vergleichen. 10Mbit wurde vergleichsweise schnell von 100Mbit abgelöst, die Karten waren so ab 97/98 im Consumer Markt normal. Gigabit war 2003 schon auf den besseren Mainboards normal, aber die Masse interessiert sich nicht für Gigabit. Heute kostet Gigabit natürlich nix mehr, trotzdem braucht es kein normaler Mensch.
Den meisten reicht WLAN N locker aus.
Der Vorteil von 1000Mbit ist das es mit geringem Aufwand nutzbar ist wo schon seit Jahrzehnten Netzwerkkabel liegen. Olles Cat5 Kabel reicht.
Ganz zu schweigen davon das die meisten Platten bereits mit Gigabit am Limit laufen.
Es gibt ein paar Freaks die zuhause 2,5Gbit nutzen und die total verstrahlten gehen auf 10.
Für höhere Geschwindigkeiten wird es aber in absehbarer Zeit keinen Bedarf geben.
 
Nein, das kann man nicht vergleichen. 10Mbit wurde vergleichsweise schnell von 100Mbit abgelöst, die Karten waren so ab 97/98 im Consumer Markt normal. Gigabit war 2003 schon auf den besseren Mainboards normal, aber die Masse interessiert sich nicht für Gigabit. Heute kostet Gigabit natürlich nix mehr, trotzdem braucht es kein normaler Mensch.
Den meisten reicht WLAN N locker aus.
Der Vorteil von 1000Mbit ist das es mit geringem Aufwand nutzbar ist wo schon seit Jahrzehnten Netzwerkkabel liegen. Olles Cat5 Kabel reicht.
Ganz zu schweigen davon das die meisten Platten bereits mit Gigabit am Limit laufen.
Es gibt ein paar Freaks die zuhause 2,5Gbit nutzen und die total verstrahlten gehen auf 10.
Für höhere Geschwindigkeiten wird es aber in absehbarer Zeit keinen Bedarf geben.

Es stellt sich aber schon die Frage was hier "normal" ist. Wenn man ein NAS hat und dieses ohne Abstriche wie eine interne Festplatte verwenden möchte ist unter Umständen 1Gbit schon deutlich limitierend. W-LAN erst recht. Und das ist ja nicht so unnormal.

Natürlich: Wenn man das heimische Netzwerk hauptsächlich braucht um sich mit dem Internet zu verbinden, vielleicht noch für den Drucker oder das gelegentliche Teilen einer Datei, dann kommt man meist bis heute problemlos mit W-LAN oder 100 Mbit aus weil die Internetverbindung sowieso fast immer limitiert.

Aber wenn man davon ausgeht das eine Technik generell "ausreichend" ist die für 80% der Anwender "ausreicht" dann hätte man vor 10 Jahren noch für 10Mbit/s argumentieren können.
 
Die richtigen Privaten Hardcorefreaks nutzen hier 100 Gbit. Die normalen Freaks 10 Gbit und die normalen User 1 Gbit.
Ich habe zwischen mein Nas und Notebook 10 Gbit. Eigentlich bräuchte ich das garnicht. Mein Qnap kann 40 Gbit Thunderbolt3, leider ist Thunderbolt3 auf 2 Meter Pro Kabel begrenzt. Das ganze kommt am ende teurer als eine 10Gbit Verbindung. Jedenfalls mit optischen Kabel: https://www.macconsultshop.de/thund...abel-30m.html?xoid=dnk940h44dkghaph3fvl9k6qo1
 
Ein wichtiger Grund dafür das sich 10GbE im Privatbereich nur langsam durchsetzt ist der relativ hohe Energieverbrauch der Hardware. Es ist gar nicht so einfach etwa einen Switch für 10GbE zu bauen der ohne Lüfter auskommt und den will man als Privatnutzer eher nicht haben... für Laptops ist der Leistungs (und Kühlungs-) Bedarf berhaupt grenzwertig und auch bei Onboardlösungen auf Mainboards erschwert und verteuert er die Implementierung. 10GbE wird daher vermutlich auch in Zukunft eine Premiumlösung bleiben auf die man nur zurückgreift wenn man auch davon profitiert. Wobei 10GbE freilich auch im Privatbereich sowohl immer leistbarer als auch sinnvoller wird, etwa zur Anbindung eines NAS.

Jenseits von 10GbE reizt man die TP-Kabeltechnik langsam aus. Bei 25GBASE-T ist die Kabellänge bereits deutlich eingeschränkt und man kommt kaum um gute CAT-8 Kabel herum. Ich denke nicht das sich das im Privatbereich jemals durchsetzen wird.

10GbE ist nicht gleich 10GBase-T. Die fette Stromversorgung kommt ja daher, dass man nicht nur 2m-Kabelchen anstöpseln kann, sondern prinzipiell auch ne Kabeltrommel mit 100m und das dann immer noch funktionieren soll. Glas oder insbesondere DAC habens da weit einfacher, natürlich mit ihren eigenen Nachteilen.

Natürlich kann man 10G-Switche mit überschaubarer Portanzahl so aufziehen, dass sie bei Normallast passiv laufen, aber da müsste man ja eine sinnvolle Lüfterregelung verbauen. Da ist man lieber faul und verkauft entweder always-on aus den höherwertigen Serien (WAF infrarot), oder limitiert die Portzahl, damit das vollpassiv hinhaut. Netgear meinetwegen gibt für die Switche mit 8+2x10G Ports 18W an, für die 16+0 im größeren Gehäuse ebenfalls 18W. Da spricht nix dagegen, das große Gehäuse auch mit 8+4 bei meinetwegen 24W Maximalverbrauch anzubieten, dafür sind die Dinger ja aus Metall. Stattdessen lässt man eine Lücke klaffen und bietet dann erst wieder 8, 12, 16 und 20 Ports an, natürlich mit Highendpreisen als Edge-Switche. Da bietet man feindosiert genau an, was der Businesskunde wünscht.

Weiterhin gebe ich zu bedenken, dass diese "Premiumlösung" namens 10GbE seit Jahren von ner einzelnen SSD (sub-100€) sequentiell völlig dicht gemacht werden kann, selbst 40Gbit wird mit einer PCIe 4.0x4 fallen. Dagegen dann Holzklasse 1Gbit antreten zu lassen oder diese hardwareseitig quasi genauso aufwendigen NBASE-Dinger - ziemlicher Unfug. 10GbE muss kommen. Nicht im Raspberry, aber in jedem ernstzunehmenden Stück Netzwerkhardware.

Wieso verdoppelt man eigentlich auf 800Gbit und macht nicht den üblichen Sprung auf ein ganzes Terabit? Kommen wird das eh, aber brennt momentan so die Hütte, dass man lieber doppelt 400->800->1000 aufrüstet, statt ein wenig später 400->1000?
 
Weiterhin gebe ich zu bedenken, dass diese "Premiumlösung" namens 10GbE seit Jahren von ner einzelnen SSD (sub-100€) sequentiell völlig dicht gemacht werden kann, selbst 40Gbit wird mit einer PCIe 4.0x4 fallen. Dagegen dann Holzklasse 1Gbit antreten zu lassen oder diese hardwareseitig quasi genauso aufwendigen NBASE-Dinger - ziemlicher Unfug.

Sicher KANN man alles irgendwie ausreizen. Du kannst auch mit nem Veyron 10 Minuten lang 400km/h im Oval fahren bis der Tank leer ist.
Das ist aber alles nicht interessant für den Massenmarkt. 1Gbit als Holzklasse zu bezeichnen ist an Dekadenz schon nicht mehr zu überbieten. Gigabit ist schon Premium genug.
Was machst du denn mit deinem NAS? Den ganzen Tag Warez durch die Gegend schieben und dich an der Geschwindigkeitsanzeige aufgeilen? Für die meisten ist ein NAS ein Backup oder zum streamen von Filmen und Musik.
Bei den SSDs ist es doch der gleiche Wahnsinn. Jede SATA 600 SSD ist schnell genug für den Privatnutzer. Heutige PCIe SSDs sind bereits Overkill, 4.0x4 wird exakt 0 bringen.
Immer höher schneller weiter - wozu? Irgendwann muss auch mal gut sein.
 
So kann man wenigstens PCIe 5.0 x16 mit einer Netzwerkkarte halbwegs ausreizen ^^

Vielleicht ist das auch der Grund für diesen Standard denn ansonsten... man braucht zwei PHYs und zwei Kabel, die Switches sind wohl weder kleiner noch stromsparender im Vergleich zu 400GbE. Die Vorteile dürften sich in Grenzen halten.

Dabei sollte es prinzipiell durchaus möglich sein 800 GBit durch eine einzige Glasfaser zu übertragen und entsprechende PHYs zu bauen. offensichtlich handelt es sich nur um eine Übergangslösung die nur für sehr spezielle Anwendungen in Rechenzentren wirklich interessant ist und die in ein paar Jahren wieder aussterben wird wenn es wieder bessere Lösungen gibt.




Ein wichtiger Grund dafür das sich 10GbE im Privatbereich nur langsam durchsetzt ist der relativ hohe Energieverbrauch der Hardware. Es ist gar nicht so einfach etwa einen Switch für 10GbE zu bauen der ohne Lüfter auskommt und den will man als Privatnutzer eher nicht haben... für Laptops ist der Leistungs (und Kühlungs-) Bedarf berhaupt grenzwertig und auch bei Onboardlösungen auf Mainboards erschwert und verteuert er die Implementierung. 10GbE wird daher vermutlich auch in Zukunft eine Premiumlösung bleiben auf die man nur zurückgreift wenn man auch davon profitiert. Wobei 10GbE freilich auch im Privatbereich sowohl immer leistbarer als auch sinnvoller wird, etwa zur Anbindung eines NAS.

Jenseits von 10GbE reizt man die TP-Kabeltechnik langsam aus. Bei 25GBASE-T ist die Kabellänge bereits deutlich eingeschränkt und man kommt kaum um gute CAT-8 Kabel herum. Ich denke nicht das sich das im Privatbereich jemals durchsetzen wird.

Jenseits von 10GBASE-T wird man im Privatbereich wahrscheinlich zunehmend auch auf die Glasfaser setzen- und damit kann man prinzipiell auch das Problem mit dem Leistungsbedarf umgehen. Aber optische Verbindungen sind bekanntlich aus anderen Gründen nicht unproblematisch, etwa wegen der Verschmutzungsanfälligkeit der Stecker oder dem großen Biegeradius der Kabel. Ich denke das wird dazu führen das die Technik hier noch länger stehen bleibt.
Da geht es primär um Backbonestrecken und den HPC Bereich, natürlich auch die großen Rechenzentren aber primär eben Backbone-Anbindungen. Der DE-CIX und andere IXP haben da garantiert schon Bedarf angemeldet :)
 
Wieso verdoppelt man eigentlich auf 800Gbit und macht nicht den üblichen Sprung auf ein ganzes Terabit? Kommen wird das eh, aber brennt momentan so die Hütte, dass man lieber doppelt 400->800->1000 aufrüstet, statt ein wenig später 400->1000?

Dadurch das 800G jetzt standardisiert wurde, glaube ich nicht, dass noch 1000G kommen wird. Es wird vermutlich ehr darauf hinauslaufen, dass man später 1600G o.ä baut.

Warum nicht direkt 1000G? Die Frage werden dir nur die Mitglieder des Konsortiums beantworten können. Aber zum einen wird es mit dem 400G Standard zusammen hängen, denn verdoppeln der Leistung wird einfacher sein, als verzweieinhalbfachen. Ebenso dürfte hier das derzeitige Pinout von QSFP-DDs eine Role spielen, da PINs hier nicht in Hülle und Fülle vorhanden sind. Im Falle von optischer Übertragung müssen immerhin 8 Laser, sowie Receiver in einem QSFP-DD800 zusätzlich zur Leistungselektronik und dem DOM untergebracht werden.
 
So ist es.
Die 800 GBit sind nur etwas für Rechenzentren etc.

Und was den Heimbereich angeht:
Für Musik und Videos reicht 1 GBit/s locker aus.
Musik in HighRes 24bit/192 kHz Stereo braucht nur lächerliche 9,2 MBit/s, da würde also sogar ein uraltes 10 MBit/s Netz noch ausreichen.
Und selbst die UHD-Bluray hat eine max. Datenrate von 128 MB/s = 1 GBit/s, wobei das natürlich inkl. aller Tonspuren etc. gilt.
In der Praxis hat man nur eine Tonspur, bleibt also unterhalb der 1 GBit/s.
Und bei Streamingdiensten hat selbst UHD kaum mehr als 20 MBit/s.

Nur, um mal größere Datenmengen zu verschieben würde mehr als 1GBit/s etwas bringen.
Aber auch da ist es eigentlich Luxus.
 
1Gbit als Holzklasse zu bezeichnen ist an Dekadenz schon nicht mehr zu überbieten. Gigabit ist schon Premium genug.
Was machst du denn mit deinem NAS? Den ganzen Tag Warez durch die Gegend schieben und dich an der Geschwindigkeitsanzeige aufgeilen? Für die meisten ist ein NAS ein Backup oder zum streamen von Filmen und Musik.

Klar würde ich mich an der Geschwindigkeitsanzeige aufgeilen - stattdessen sitz ich eineinhalb Stunden lang dran, um ein ödes Vollbackup einer 500GB-SATA-SSD über Gigabit zu machen. Die SSD würde es auch in ner Viertelstunde schaffen (eine PCIe in nochmal merklich weniger Zeit) und wäre wenigstens von rotierendem Rost im Endlager limitiert.
Immer dann, wenn es selbst bei kleineren Consumer-Massenspeichern schneller ist, die Kisten aufzumachen, Platte physisch ins Zielsystem zu hängen, dort nach einem fünfminütigen Boot lokal zu kopieren und anschließend alles wieder zurückzubauen, ist das beteiligte Netzwerk genau eins: Holzklasse. Gigabit hat wie bereits erwähnt über 15 Jahre im Consumersegment auf dem Buckel, nenn uns doch bitte mal eine weitere Schnittstelle, die seither unverändert existiert und noch in Gebrauch ist. Mir fallen nur die 3,5mm-Klinke und ggf. PS/2 ein, beide haben als spezialisierte Anschlüsse auf Ewig genug Kapazität für das bisschen Bandbreite, das der Mensch dort akustisch bzw. taktil rein- oder rausbekommt. VGA ist grafikkartenseitig ausgestorben, DVI monitorseitig als Primäreingang. PATA/SCSI, Firewire und der Gameport sind mausetot. USB ist zig Revisionen später bei der 20fachen Bandbreite angekommen, um relevant zu bleiben. Du plädierst quasi dafür, dass AGP8x für den Mainstream ja auch noch ausreichen würde, denn die Leute wollen ja nur ein buntes Bild auf ihrer Röhrenglotze.
Nee, Holzklasse. Steinzeit. 5G in der Hosentasche, aber sich mit 100MB/s über vier Doppeladern zufrieden geben. Im Jahre 2020 :stupid:
 
Sicher KANN man alles irgendwie ausreizen. Du kannst auch mit nem Veyron 10 Minuten lang 400km/h im Oval fahren bis der Tank leer ist.
Das ist aber alles nicht interessant für den Massenmarkt. 1Gbit als Holzklasse zu bezeichnen ist an Dekadenz schon nicht mehr zu überbieten. Gigabit ist schon Premium genug.
Was machst du denn mit deinem NAS? Den ganzen Tag Warez durch die Gegend schieben und dich an der Geschwindigkeitsanzeige aufgeilen? Für die meisten ist ein NAS ein Backup oder zum streamen von Filmen und Musik.
Bei den SSDs ist es doch der gleiche Wahnsinn. Jede SATA 600 SSD ist schnell genug für den Privatnutzer. Heutige PCIe SSDs sind bereits Overkill, 4.0x4 wird exakt 0 bringen.
Immer höher schneller weiter - wozu? Irgendwann muss auch mal gut sein.
Wann ist bei dir mal Schluss mit "braucht keiner" oder "56K Modem reicht aus"?
Und der Autovergleich musste ja kommen, wenn einem nichts einfällt. :stupid:
 
Über 2,5Gbit oder 5Gbit würde ich mich zuhause schon freuen. Gerade für Backups. Dafür müssten aber bezahlbare passive Switche mit "normalem" Stromverbrauch auf den Markt kommen.
Aber 200€ für nen Switch mit always on Lüfter und 20W Dauerstromverbrauch hat nicht genug WAF (Woman acceptance factor) :d
 
Vielleicht ist das auch der Grund für diesen Standard denn ansonsten... man braucht zwei PHYs und zwei Kabel, die Switches sind wohl weder kleiner noch stromsparender im Vergleich zu 400GbE. Die Vorteile dürften sich in Grenzen halten.

Du scheinst keine wirkliche Ahnung zu haben, wie aktuelles highspeed Ethernet funktioniert und schon gar nicht, wie dieser 800G-"Standard" funktioniert.
Warum sollten Switche kleiner werden? Die sind genauso groß wie 100G Switche, aka 32 Port in einem 19" 1U Switch, wie schon seit Jahren.
Man braucht auch nicht zwingend 2 Kabel, zumindest nicht so, wie du dir das vorstellst.
Es wird mehrere 800G Implementierungen geben.
Neben klassischen Multimode Varianten mit bis zu 24 Fasern (16 genutzt) wird es z.B. auch wieder Multimode BiDi Varianten für vorhandenen MPO-12 Verkabelung geben.
Klassische LC mit 2 Fasern wird es genauso wieder geben, wie die interessanten Breakoutvarianten CS als auch SN, wobei dann eine Breakoutleitung bis zu 200G kann.
Solange man also kein Breakout hat (was es btw. schon seit 40G gibt) hat man weiterhin nur 1 Kabel.
Schau dir mal an, wie man 400G und wie man 800G bei den Stecktransceivern implementiert. Kleiner Tipp: Der Unterschied ist marginal, daher auch die relativ schnelle Entwicklung bei 800G.

Und 800G wird stromsparender sein als 400G, zumindest was W/Gbit/s anbelangt. Und das ist das, worauf man schaut, nicht auf den absoluten Verbrauch, denn schließlich kann man mit nem 800G Switch Energie sparen, anstatt doppelt so viele 400G Switche einzusetzen.

Was mich zum nächsten Punkt bringt.
Dabei sollte es prinzipiell durchaus möglich sein 800 GBit durch eine einzige Glasfaser zu übertragen und entsprechende PHYs zu bauen. offensichtlich handelt es sich nur um eine Übergangslösung die nur für sehr spezielle Anwendungen in Rechenzentren wirklich interessant ist und die in ein paar Jahren wieder aussterben wird wenn es wieder bessere Lösungen gibt.
Was für dich alles prinzipiell möglich ist, ist unglaublich. Ich glaube, du solltest dich mal bei der IEEE melden, die brauchen noch ein paar fähige Leute.
800G ist keine Übergangslösung, da es genau so funktioniert, wie man sich das ideal vorstellt, ganz entgegen vorhergehender Standards, die auf so Zwischenlösungen wie CFP und ähnliches gesetzt haben. Diese Faxen wollte man nicht mehr haben.
Daher hat man schon bei der SPEC von 400G und den passenden Slots für die xSFP bereits vorgeplant, wenn es um 800G geht.
Die Vorüberlegungen und Grundsteinlegung hat man jetzt in die Tat umgesetzt. Man trägt jetzt also die Früchte seiner Arbeit.
Des Weiteren zeig mir mal einen aktuellen oder älteren, wirklich verbreiteten Ethernetstandard, der mit einer einzigen Glasfaser auskommt.
Seit 40G ist es Standard, dass man für interne Interconnects gerne mehrere Glasfasern einsetzt, hat nämlich ein paar Vorteile, die den Vorteil nur 2 Fasern deutlich überwiegen, je nach Anwendung.
Und sicherlich wird es bessere Lösungen geben. 800G ist auch ne bessere Lösung als 100G, dennoch war 100G gerne genommen und keine Zwischenlösung, wie du es verstehst. Und dennoch schmeißt man an einigen Stellen 100G schon wieder raus, weil man 400G macht (siehe DE-CIX) oder ggf. dann auf 800G gehen kann.

Ein wichtiger Grund dafür das sich 10GbE im Privatbereich nur langsam durchsetzt ist der relativ hohe Energieverbrauch der Hardware. Es ist gar nicht so einfach etwa einen Switch für 10GbE zu bauen der ohne Lüfter auskommt und den will man als Privatnutzer eher nicht haben... für Laptops ist der Leistungs (und Kühlungs-) Bedarf berhaupt grenzwertig und auch bei Onboardlösungen auf Mainboards erschwert und verteuert er die Implementierung. 10GbE wird daher vermutlich auch in Zukunft eine Premiumlösung bleiben auf die man nur zurückgreift wenn man auch davon profitiert. Wobei 10GbE freilich auch im Privatbereich sowohl immer leistbarer als auch sinnvoller wird, etwa zur Anbindung eines NAS.

10G ist nicht wirklich stromhungrig. 10GBase-T ist stromhungrig und dabei geht es primär um die Modulation, sprich den externen el. Layer und weniger um den switching ASIC. Setzt man auf Glasfaser sind das mal eben 50% und weniger Energieaufnahme.
Es gibt daher schon passive full 10G Switche, bzw. gibt es auch schon passive Switche mit sehr wenigen 10GBase-T Ports.
Mit passender Weiterentwicklung der DSPs wird sich auch das Problem bei 10GBase-T erledigen. Passive 10GBase-T NIC mit kleinem Kühlkörper gibt es schon für 2-stellige EUR-Beträge. Sicherlich nicht mit dem spannendsten Chip, aber für @home tuts der Aquantia durchaus.


Jenseits von 10GBASE-T wird man im Privatbereich wahrscheinlich zunehmend auch auf die Glasfaser setzen- und damit kann man prinzipiell auch das Problem mit dem Leistungsbedarf umgehen. Aber optische Verbindungen sind bekanntlich aus anderen Gründen nicht unproblematisch, etwa wegen der Verschmutzungsanfälligkeit der Stecker oder dem großen Biegeradius der Kabel. Ich denke das wird dazu führen das die Technik hier noch länger stehen bleibt.

Das wird sicherlich ein Problem sein, was man angehen muss. Das war aber vor Jahren auch bei den anderen Standards schon nicht ohne.
Meine ersten 1G NICs vor schon bald 20 Jahren hat sich auch zu Tode gekocht. Und dennoch scheinst du die 1GBE heute als ideale Lösung anzusehen @home.
Das ist alles eine Frage der Zeit, bis sich auch das Problem löst, wenn es denn einen Markt dafür gibt. 10GBase-T wird es erstmal eine Weile tun @home und dann wird man sehen.
Auch bei Glasfaser gibt es heute Probleme, die man vor 20Jahren noch nicht hatte. Glasfaser ist die Transceivertechnologie schon eine ernstzunehmende Baustelle.

Ansonsten gibt es auch biegeunempfindliche Glasfasern, wer da etwas grobmotorisch veranlagt ist.


Merke, bevor man hier groß die Welt erklären will, sollte man sich mal mit der IEEE beschäftigen, aber die MSA hat da spannendes zu bieten.

Letzten Endes ist diese 800Gbit Technologie, nur pairing mit einer MAC Adresse. Ich vermute mal das dies nur ein zwischen Schritt ist zu 1Tbit.
Auf jeden Fall, wird die Preisgestalltung interessant sein.
Was soll den Pairing sein? Schonmal angeschaut wie die bisherigen Standards oberhalb von 10G arbeiten?
Man hat bei 800G einfach das gemacht, was man mit 400G schon vorbereitet hat. siehe oben
Das ist primär deswegen passiert, weil die Cloudprovider, die eigentlichen Anforderer, das schnellstmöglich gebraucht haben.
Irgendnen DAX-Konzern hat da im Moment keine wirklichen, massiven Bedarfe in solche Richtungen. Allenfalls sind es noch die Internetknoten, für die das interessant wird.

Wieso verdoppelt man eigentlich auf 800Gbit und macht nicht den üblichen Sprung auf ein ganzes Terabit? Kommen wird das eh, aber brennt momentan so die Hütte, dass man lieber doppelt 400->800->1000 aufrüstet, statt ein wenig später 400->1000?
@Seratio hat die Antwort schon gegeben. Siehe auch nochmal oben. Man hat einfach die Früchte der Vorarbeit bei 400G geerntet. So einfach ist das. Wirklich spannend ist die Entwicklung von der Technik her jetzt nicht. Das sind einfach 112Gbit Lanes, die man nicht mehr 4x sondern eben 8x zusammensteckt. (wobei auch der Einsatz noch mehrerer aber langsamer Lanes machbar ist, aber nicht im Fokus)


Abschließend bleibt zu sagen, dass die Presse hier mal wieder unsauber recherchiert hat.
800G ist mitnichten fertig. Was man fertig hat, ist die Struktur des PCS und MAC. 802.3ck ist aktuell ein 400G preStandard, bzw. ein 100G signal-Standard, der auch 100G und 200G umfasst, den man gerade für 800G überarbeitet. Das geht aber nur, wenn der Grundaufbau, um den es in der News eigentlich geht, klar ist.
Ergo, ein bisschen warten müssen wir noch, bis 800G da ist. Aber es ist ein weiterer Meilenstein auf dem Weg.
Am Ende wird dann das 8300 Seiten PDF zur IEEE 803.2 um weitere Seiten ergänzt und dann wird es die aktuelle Revision wohl als 802.3-2020 geben.


Die IEEE geht aktuell davon aus, dass man 1.6T im Jahre 2025 sehen wird.
 
Zuletzt bearbeitet:
Klar würde ich mich an der Geschwindigkeitsanzeige aufgeilen - stattdessen sitz ich eineinhalb Stunden lang dran, um ein ödes Vollbackup einer 500GB-SATA-SSD über Gigabit zu machen.

Aha. Vollbackups machst du jeden Tag oder wie? Man macht einmal ein Vollbackup und dann inkrementelle Backups. Dann dauert es halt einmal 1,5h - na und? Dafür braucht man nicht aufrüsten.

Du plädierst quasi dafür, dass AGP8x für den Mainstream ja auch noch ausreichen würde, denn die Leute wollen ja nur ein buntes Bild auf ihrer Röhrenglotze.
Nee, Holzklasse. Steinzeit. 5G in der Hosentasche, aber sich mit 100MB/s über vier Doppeladern zufrieden geben. Im Jahre 2020 :stupid:

Übertreib nicht.

Wann ist bei dir mal Schluss mit "braucht keiner" oder "56K Modem reicht aus"?

Und du genauso!
Mich interessieren weder AGP 8x noch 56k Modems. AGP war von vornherein ein Fehler, PCI ist kompatibler und vielseitiger. PCIe ist schon gut, aber auch da geht mir 4.0 sonst wo vorbei.
Ich bin aber gegen den ganzen Grafikwahn der heutzutage stattfindet und gegen 5G bin ich sowieso. 100MB/s sind viel, das reicht 2020 aus und wird auch 2030 noch ausreichen.

Das beste ist einfach die Sachen die funktionieren ewig zu nutzen und alle 5-10 Jahre mal nen kleines Update zu machen. Es gibt auch genug Dinge die man mal 20 oder 30 Jahre nutzen kann. Gigabit Ethernet zählt definitiv dazu.
Sich über ein "langsames" Gigabit Netzwerk zu beklagen sind First World Problems erster Güte! (n) Dafür habe ich einfach Null Verständnis!
 
Aha. Vollbackups machst du jeden Tag oder wie? Man macht einmal ein Vollbackup und dann inkrementelle Backups. Dann dauert es halt einmal 1,5h - na und? Dafür braucht man nicht aufrüsten.
Eher so alle Jubeljahre oder bei Bedarf. Bedarf heißt meistens kurzfristig, und kurzfristig heißt, dass ich lieber vorher drei Stunden arbeiten gehe um mir 10G-Hardware anzuschaffen, als wenns brennt 1,5h däumchendrehend rumzusitzen, bis irgendwas fertig georgelt hat. Die übrigen 1,5h hab ich dann bei der nächsten eigenen Nutzung quasi wieder raus.

Mach mal ein inkrementelles dd-Image...

Ich bin aber gegen den ganzen Grafikwahn der heutzutage stattfindet und gegen 5G bin ich sowieso. 100MB/s sind viel, das reicht 2020 aus und wird auch 2030 noch ausreichen.
Aluhut und Briefmarkenvideo much?

Das beste ist einfach die Sachen die funktionieren ewig zu nutzen und alle 5-10 Jahre mal nen kleines Update zu machen. Es gibt auch genug Dinge die man mal 20 oder 30 Jahre nutzen kann. Gigabit Ethernet zählt definitiv dazu.
RS232 (ggf. 485) wäre sowas, oder eben besagte Klinke. Gigabit und der Telekom-Klingeldraht sicher nicht. Ich nutze manche Hardware tatsächlich ewig, die leider entfallene Hardwareinfo hätte dir das verraten. Meine geschenkte ZFS-Kiste ist vier Jahre jünger als mein Laptop - sollte sich jedoch einer mit 10GbE, Nubsi und ner brauchbaren Tastatur finden, wäre das ein heißer Upgradekandidat. Klar hätte ich auch Bock in den 40/100/400G-Club einzutreten, aber ohne Gegenstelle isses eben witzlos, für rein synthetische Schwanzvergleiche ohne praktischen Nutzen oberhalb von 10G ist mir das Geld zu schade. Dennoch findet sich im Luxx bestimmt jemand, der jetzt schon zuhause von 40G profitiert - alles oberhalb von Gigabit für unnötig zu halten ist ein bisschen engstirnig.
 
Aluhut und Briefmarkenvideo much?

Nein, das sind Fakten. 5G wird mehr (unnütze) Geschwindigkeit bringen aber die Spionage und Überwachung auf ein neues Level heben. Wer das als Aluhut Geschwurbel abtut hat auch vor 10 Jahren den CIA Skandal der durch Snowden aufgedeckt wurde als sowas abgetan.

RS232 (ggf. 485) wäre sowas, oder eben besagte Klinke. Gigabit und der Telekom-Klingeldraht sicher nicht.

Der "Klingeldraht" bringt heute schon über 100Mbit/s, teilweise sogar 250. Das reicht definitiv mindestens noch 10, wenn nicht sogar 20 Jahre.

Dennoch findet sich im Luxx bestimmt jemand, der jetzt schon zuhause von 40G profitiert - alles oberhalb von Gigabit für unnötig zu halten ist ein bisschen engstirnig.

Ja, irgendwer findet sich immer der irgendwas nutzen will. Ich sag ja, 1st World Problems at its finest. Sowas kotzt mich halt einfach nur an. Bescheidenheit und Verzicht tut uns allen gut, wie man auch im Moment sieht. Man sagt den Leuten Jahrelang sie sollen nicht in den Urlaub fliegen und es interessiert sie nicht. Jetzt sind sie gezwungen nicht tausende km wegfliegen zu können und das freut mich. Genauso würde ich mir eine komplette Holzhammerbremse für alles wünschen damit die Menschen einfach mal wieder runter kommen von ihrem hohen Ross und zu schätzen wissen was sie haben.
Diese Fähigkeit ist heute im Konsumwahnsinn komplett untergegangen. Einfach mal ein paar Gänge runterschalten.
 
stattdessen sitz ich eineinhalb Stunden lang dran, um ein ödes Vollbackup einer 500GB-SATA-SSD über Gigabit zu machen. Die SSD würde es auch in ner Viertelstunde schaffen (eine PCIe in nochmal merklich weniger Zeit) und wäre wenigstens von rotierendem Rost im Endlager limitiert.

Ich mache Backups nachts, da interessiert mich die Geschwindigkeit wenig.
Kurz vorm zu Bett gehen Backup starten und am nächten Morgen, wenn ich aufstehe, ist das Backup durch.
Oder man nutzt einfach mal die USB-Schnittstelle. USB 3.1 schafft 10 GBit/s, USB 3.2 sogar 20 GBit/s.
Da ist dann sogar eine SATA-SSD eine Bremse.
Man nimmt immer die passende Schnittstelle, Auswahl hat man ja genug.
 
Aha. Vollbackups machst du jeden Tag oder wie? Man macht einmal ein Vollbackup und dann inkrementelle Backups. Dann dauert es halt einmal 1,5h - na und? Dafür braucht man nicht aufrüsten.



Übertreib nicht.



Und du genauso!
Mich interessieren weder AGP 8x noch 56k Modems. AGP war von vornherein ein Fehler, PCI ist kompatibler und vielseitiger. PCIe ist schon gut, aber auch da geht mir 4.0 sonst wo vorbei.
Ich bin aber gegen den ganzen Grafikwahn der heutzutage stattfindet und gegen 5G bin ich sowieso. 100MB/s sind viel, das reicht 2020 aus und wird auch 2030 noch ausreichen.

Das beste ist einfach die Sachen die funktionieren ewig zu nutzen und alle 5-10 Jahre mal nen kleines Update zu machen. Es gibt auch genug Dinge die man mal 20 oder 30 Jahre nutzen kann. Gigabit Ethernet zählt definitiv dazu.
Sich über ein "langsames" Gigabit Netzwerk zu beklagen sind First World Problems erster Güte! (n) Dafür habe ich einfach Null Verständnis!
Dein Gesülze mal zusammengefasst:
Ich brauche keine technischen Verbesserungen

Leider gibt es keinen Wald mehr, in dem Anomalien aussteigen können. Ja doch, Amazonas-, Kongo-Regenwald oder vielleicht das Outback in Australien.
Dir sollte man den Hahn zudrehen. Kein Internet oder irgendwelche Kommunikation. Selbstverlogener Schwätzer!
Sowas kotzt mich halt einfach nur an. Bescheidenheit und Verzicht tut uns allen gut, wie man auch im Moment sieht. Man sagt den Leuten Jahrelang sie sollen nicht in den Urlaub fliegen und es interessiert sie nicht. Jetzt sind sie gezwungen nicht tausende km wegfliegen zu können und das freut mich. Genauso würde ich mir eine komplette Holzhammerbremse für alles wünschen damit die Menschen einfach mal wieder runter kommen von ihrem hohen Ross und zu schätzen wissen was sie haben.
Diese Fähigkeit ist heute im Konsumwahnsinn komplett untergegangen. Einfach mal ein paar Gänge runterschalten.
Lange, sehr lange Nachdenken und deine Beiträge ergeben sogar mal einen Sinn!
(y)
Ich mache Backups nachts, da interessiert mich die Geschwindigkeit wenig.
Kurz vorm zu Bett gehen Backup starten und am nächten Morgen, wenn ich aufstehe, ist das Backup durch.
Oder man nutzt einfach mal die USB-Schnittstelle. USB 3.1 schafft 10 GBit/s, USB 3.2 sogar 20 GBit/s.
Da ist dann sogar eine SATA-SSD eine Bremse.
Man nimmt immer die passende Schnittstelle, Auswahl hat man ja genug.
Scheiss auf den total überschätzten Stromverbrauch! Wir lassen unsere 1000W Rechner den ganzen Tag einfach nur an, weil wir es geil finden!!!!!!!!!
 
Zuletzt bearbeitet:
Was für 1000 Watt?
Wenn man ein 1000 Watt Netzteil hat, heißt das nur, das es maximal 1000 Watt liefern kann, aber nicht, das der Rechner ständig 1000 Watt verbraucht.
Beim Backup wird ein PC kaum mehr als 50-60 Watt verbrauchen, auch mit 1000 Watt-Netzteil.
Z.B. der größte Stromfresser Grafikkarte wird nicht gefordert, die CPU ist sich dabei auch nur am langweilen und läuft auf niedrigsten Takt, etc. etc.
Selbst der Server in meiner Firma mit Dual-Sockel, massig RAM, mehreren Netzwerkkarten, Dual-Netzteil, RAID-Controller, 8 HDDs und SSDs, etc. verbraucht beim Backup nur um die 80 Watt.

Und wie oft macht man ein Full-Backup?
Ich mache 1x die Woche ein Full-Backup in der Nacht und die restlichen Tage nur ein inkrementelles Backup. Und das ist in weniger als 1 Stunde durch, da sich ja nicht viel ändert/neu hinzukommt.
Kann man laufen lassen, während man zu Abend isst oder vor der Glotze sitzt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh