[Sammelthread] 10Gbit Homenetzwerk

SR-IOV macht doch bei Netzwerkkarten privat nicht groß Sinn?
Die VMWare-Netzwerkkarte schiebt auch 10G durch, reicht mir völlig und ich bin unabhängig von einer virtuell echten NWK.
Somit kann ich ne VM auch mal auf den Backup-ESXi verschieben und mit kurzer Ausfallzeit den Mailserver oder die Services am Laufen halten.

Mittlerweile hab ich so viele Sachen mit den eigenen Mailadressen, dass ich darauf keine Stunde mehr verzichten mag. =)
Na ja, genauso könnte man argumentieren, dass man "privat" ja gar keinen ESXi-Cluster "braucht" und auch privat keine teuren vSphere-Lizenzen kauft, damit man vCenter mit drin hat [*] und dann damit per vMotion VMs im Cluster rumschieben kann. Oder man könnte auch sagen, dass "privat" auch zum Beispiel Proxmox vollkommen reichen würde [**]. Auch die wenigsten Privatanwender betreiben heute noch eigene Mailserver in den eigenen vier Wänden. Usw. usf..

Aber sei es drum. Kann ja jeder machen was er will. Ich will damit nur sagen, dass in einem Forum für Enthusiasten wie hier, es schon immer ein ziemlich weites Feld war, was wer warum auch immer wirklich "braucht" oder einfach nur aus Spaß, zu eigenen Weiterbildungszwecken oder warum auch immer machen will. Gibt ja auch Leute die machen privat schon 40 oder 100 GbE Ethernet.

Daher habe ich das mit SR-IOV und ESXi 7.0 mit erwähnt, weil es um die Frage Intel oder Mellanox ging und ich ja nicht weiß, wie seine Anforderungen genau sind. Ich selber nutze z.B. SR-IOV schon lange (bzw. noch) auf auf relativ alter Server-Hardware mit aktuell noch ESXi 6.7, weil dass bei hoher 10 GbE Netzwerklast (z.B. wenn VM- bzw. Storage-Backups laufen) auf dem deutlich merkbar die CPU-Kerne entlastet und auch die Latenzen senkt, so dass mehrere Leute mit anderen VMs gefühlt ungestört interaktiv weiter arbeiten können (und man dabei trotzdem NICs in mehreren VMs sharen kann).

Ich überlege aber auch schon länger, weil ich umgezogen bin und den ersetzen will, was ich mache. Habe aktuell auch schon experimentell auf einem Desktop-Rechner mit einer AMD Ryzen CPU mal ESXi 7.0 installiert, weil ich da PCIe-Slots zum Testen frei habe. Der hat aktuell neben dem onboard LAN für 10 GbE im Moment nur zwei der (oben schon erwähnten) Asus XG-C100F (SFP+) Karten mit Marvell Chipsatz drin und die kann (meines Wissens nach) eh kein SR-IOV und das ganze "Billig-Teil" ist gefühlt trotzdem insgesamt erheblich performanter als mein alter Server ohne dass ich jetzt allerdings schon alle Szenarien durchprobiert habe. Aber das ist hier eher off-topic.

Aber um auf das Thema zurückzukommen, falls es eine Rolle spielt, mir fällt noch ein: die Intel X520-DA kann meiner Erinnerung nach kein WOL (Wake-on-LAN). Die Mellanox-Karten können WOL, wenn man es aktiviert. Die Asus XG-C100F kann es übrigens auch.

[*] Wenn es neuerdings auch eine freie Lizenz für vCenter geben sollte, ist das an mir wohl leider völlig vorbeigegangen. Ich habe mich mit den freien ESXi-Lizenzen bislang nicht so richtig beschäftigt, weil ich aus beruflichen Gründen Zugriff auf volle kriege. Würde mich aber interessieren, wenn dem so ist.
[**] Ich überlege mittlerweile ernsthaft auf Proxmox zu wechseln.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na ja, genauso könnte man argumentieren, dass man "privat" ja gar keinen ESXi-Cluster "braucht" und auch privat keine teuren vSphere-Lizenzen kauft, damit man vCenter mit drin hat [*]

[*] Wenn es neuerdings auch eine freie Lizenz für vCenter geben sollte, ist das an mir wohl leider völlig vorbeigegangen. Ich habe mich mit den freien ESXi-Lizenzen bislang nicht so richtig beschäftigt, weil ich aus beruflichen Gründen Zugriff auf volle kriege. Würde mich aber interessieren, wenn dem so ist.
Für schmale 200USD/Jahr kann man sich das antun. Wobei ich jetzt auch nicht sehr viele kenne, die daheim ein komplettes Cluster mit vCenter betreiben, also zumindest nicht 24/7 am Laufen halten.
 
  • Danke
Reaktionen: tw2
Für schmale 200USD/Jahr kann man sich das antun. Wobei ich jetzt auch nicht sehr viele kenne, die daheim ein komplettes Cluster mit vCenter betreiben, also zumindest nicht 24/7 am Laufen halten.
Aha, Danke! (y)

Da ist sogar Tanzu Basic mit drin.

Könnte irgendwann für mich als Alternative interessant werden.
 
Ich nutze SR-IOV explizit nicht, wegen der damit verbunden Schwierigkeiten beim Herumschieben der VMs zw. zwei ESXis.
Geht das mit vSphere besser?
Also, bleibt die in der VM eingestellte MAC-Adresse dann auch mit SR-IOV gleich, damit der DHCP dieselbe IP vergibt?
Auf Option 82 hab ich nämlich keine Lust.

Wobei das auch Schwachsinn ist, da die VM im anderen ESXi ja sowieso an nem anderen Switchport hängt.
Somit bleibt einzig und allein ne gleiche MAC-Adresse.
 
Nachdem ich 10 G im beruflichem Umfeld schon einsetze (über 10G-LR Module über Singlemode Fasern und stellenweise DAC Kabel) starte ich jetzt mit einem Kumpel auch ein privates 10G Projekt für unser LAN Partys (üblicherweise etwas über 20 Personen).

Die Idee war die Files schneller an die Clients zu verteilen, da haben wir im Gegensatz zum reinen Home-Szenario auch eher die Situation dass mal 5-10 Leute gleichzeitig die gleichen Daten vom Server ziehen.
Den Server baut mein Kumpel aus einem gebrauchten Gaming PC, da kommt eine NVMe SSD rein und eine 10GbE fähige NIC, welche das wird ist noch nicht raus.
Sollte auf alle Fälle Offloading beherrschen weil die Maschine CPU mäßig nicht ganz so krass aufgestellt ist.

Switch hab ich schon da liegen, ist ein HP Procurve 2910al-24G geworden (50 EUR bei eBay ohne SFP+ Modul).
Das SFP+ Modul kommt im nächsten Schritt, da sind für 2 Ports so um die 120 EUR fällig, maximal 2 davon lassen sich verbauen.
Der Switch selbst hat 24x RJ45 mit 1 Gb/s, die Ports 21-24 sind "Dual Personality Ports" und können optional für SFP Module (bis 1 Gb/s) genutzt werden.
Kleines Schmankerl für mich ist dass der Switch auch IP Routing beherrscht.

Die Verbindung zwischen Switch und Server würde ich dann entweder über SFP+ DAC Kabel oder klassische Multimode Faser herstellen, bei den DAC Kabeln hat man halt immer auf beiden Seiten die Kompatibilitätsfrage.

Zwecks SFP+ Transceivern würde ich mich auch mal bei fs.com umschauen, die haben recht günstige.

Jetzt beginnt erstmal die Suche nach einer geeigneten NIC für den Server.
 
Welches OS soll denn auf dem Server laufen? Das kann ja ggf. im Hinblick auf die verfügbaren Treiber interessant sein.
 
Der Plan sieht soweit gut aus. Bei eBay gibt es die Mellanox MCX311A-XCAT für kleines Geld als SinglePort. Treiber gibt es für diverse Systeme ab Windows 7 und natürlich auch Linux, unter Anderem die aktuelle Version ab Ubuntu 14.04 ...
Hatte mit den Karten bisher keine Probleme mit den Cisco-Generischen DACs oder GBICs.
 
Zuletzt bearbeitet:
OS ist noch nicht ganz raus, das darf mein Kumpel sich in Ruhe überlegen und ein wenig experimentieren.
Ein Windows Client OS scheidet wahrscheinlich fast aus weil da AFAIK keine >20 Leute gleichzeitig Files ziehen können. Wir können mit dem NIC Kauf aber auf jeden Fall warten bis das klar ist.

NIC mäßig bin ich hier im Thread jetzt auf die Mellanox ConnectX-3 gestoßen. Singleport reicht auf jeden Fall. Das ist wohl nur eine andere Bezeichnung für die XCAT? Rein vom Featureset her scheint das Ding sehr gut geeignet zu sein, preislich ist sie definitiv attraktiv.

EDIT: Mein USB auf RS232 Adapter und das Konsolenkabel für den Switch sind jetzt auch da, jetzt kann ich mal schauen was das Dingens so kann.
 
Zuletzt bearbeitet:
@H_M_Murdock die MCX311A-XCAT ist eine Mellanox ConnectX 3 Karte. Von denen gibt es einige unterschiedliche Versionen, die kaufbar sind. Von der Treiberunterstützung her sind aber die aber gut und funktionieren ohne Probleme. Hier das Handbuch für Fragen: https://www.mellanox.com/related-do...t_Dual_SFP+_Port_Adapter_Card_User_Manual.pdf
Die Bezeichnungen haben einige Informationen zu den Karten integriert, was aber hier kein Thema sein sollte.

Bei einer Windows-Freigabe oder einer SMB-Freigabe aus einem Linux heraus sollte es erstmal wenig unterschiede geben. Vermutlich ist es sogar einfacher, eine Windows-Freigabe für alle zugänglich zu machen und man muss sich nicht um Rechte kümmern. Die MS-Server-Versionen lassen sich auch ohne Key für 180/240 Tage testen, somit könnte es auch noch eine Möglichkeit sein ;)
 
Danke, dann schau ich mich mal nach der Mellanox Karte um. Scheinen hier ja auch ein paar in Verwendung zu haben.

Zwecks Freigabe wäre tatsächlich die erste Überlegung eine SMB Freigabe zu erstellen auf die anonym zugegriffen werden kann, ggf. auch eine zweite auf der man auch schreiben kann.
Ich glaube mein Kumpel wollte sich Openmediavault mal anschauen, ein Windows Server als Testversion ist natürlich auch immer eine Option für gelegentliche Aktionen die nur wenige Tage dauern.
Jetzt soll er erstmal den Server bauen und sich ein wenig mit Software spielen und dann schauen wir mal was es wird.

Was den Switch betrifft bin ich jedenfalls schonmal zufrieden, hab mir jetzt auch endlich mal einen USB auf RS232 Adapter besorgt der für die Konfiguration von Switches mit RS232 Schnittstelle wunderbar funktioniert. Ist ein billiges Teil von Goobay, funktioniert Plug & Play mit Win 10 und macht was es soll.
 
Ich nutze SR-IOV explizit nicht, wegen der damit verbunden Schwierigkeiten beim Herumschieben der VMs zw. zwei ESXis.
Geht das mit vSphere besser?
Also, bleibt die in der VM eingestellte MAC-Adresse dann auch mit SR-IOV gleich, damit der DHCP dieselbe IP vergibt?
Auf Option 82 hab ich nämlich keine Lust.

Wobei das auch Schwachsinn ist, da die VM im anderen ESXi ja sowieso an nem anderen Switchport hängt.
Somit bleibt einzig und allein ne gleiche MAC-Adresse.
Ich dachte eigentlich, Du hast einen echten vSphere-Cluster und verschiebst darin mittels vCenter Deine VMs mit vMotion ggf. auch Storage vMotion. Also im laufenden Betrieb, d.h. ohne die VMs runterzufahren. Genau das wird von vSphere nicht unterstützt bei SR-IOV NICs (VFs).

Wenn ich Dich jetzt aber richtig verstehe, hast Du keinen Cluster sondern zwei mehr oder weniger separate ESXi. Dann kannst Du eh kein vMotion machen. Ok, vielleicht gibt es irgendwelche Workarounds, das per Skript über APIs aufzurufen, dazu weiß ich aber nichts, falls Du sowas vielleicht machst.

Daher nehme ich jetzt mal an, Du fährst vor dem Verschieben dann die betreffende VM händisch runter. Dann bewegst Du die vermutlich "irgendwie händisch" auf den anderen ESXi. Also z.B. weil Du über iSCSI oder NFS Shared Storage auf beiden angebunden hast, oder durch Umschwenken von Storage, oder einfach physikalisches Umstecken von Storage oder Kopieren des aktuellen Images oder wie auch immer... Dann fährst Du vermutlich die VM, ggf. nach Konfiganpassungen, händisch auf dem anderen ESXi wieder hoch. Oder?

Jedenfalls unter der Annahme, dass Du das so oder ähnlich relativ "entspannt" betreibst, weil eine kurze Downtime nicht so schlimm ist, kann man das natürlich grundsätzlich auch mit VMs so machen die SR-IOV NICs konfiguriert haben. Wenn man es so macht, kann man eigentlich sowieso alles mögliche treiben, weil man dann ja die VM Konfig ggf. manipulieren kann. Händisch oder per Skript. Wenn man vMotion nicht nutzt, spielt es dann auch keine große Rolle, ob man vCenter hat oder nicht. Jedenfalls nicht für diese Aktion.

Ich hoffe ich habe Dich bis hierhin richtig verstanden.

Mir ist aber dann noch nicht klar, warum Du DHCP für den Mailserver verwenden willst und deswegen die gleiche MAC-Adresse bei der VM auf beiden ESXi brauchst? (Also warum überhaupt DHCP und nicht statische IP ist mir nicht klar. Dass die gleiche MAC bei DHCP hilfreich ist, ist mir schon klar.)

Z.B. wenn bei Quell- und Ziel-ESXi nicht das gleiche VLAN anliegt, kann man auch mit mehreren virtuellen NICs zwischen denen man umschaltet (ggf. das auch per Skript) arbeiten, mit jeweils statischen IPs und DNS-Update per Skript.

Aber sei es drum. Ich kenne das Web-UI vom ESXi nicht so gut, weil ich vCenter nutze, aber zumindest beim vCenter kann ich bei "SR-IOV passthrough" Adaptern (VFs) auch eine feste eigene beliebige MAC-Adresse einstellen, die dann auch erhalten bleiben sollte, wenn die VM irgendwohin verschoben wird. Das hat ja nichts mit vCenter zu tun, sondern das steht ja in der VM-Konfig-Datei. Mache ich normalerweise nicht, aber sollte eigentlich gehen. Kann ich gerade selber nicht testen. Am produktiven Server bastle ich nicht rum und in meinem neuen "Spielwiese"-ESXi 7.0 habe ich im Moment kein SR-IOV. Denn die Marvell-Chipsatz-Karten können es nicht und der native ConnextX-3 Treiber für ESXi 7.0 bietet es nicht mehr an und VMKlinux-Treiber kann man in 7.0 nicht mehr nutzen. :( (Darauf bezog sich ja meine Anmerkung ursprünglich weiter oben.) Jedenfalls ist das mein aktueller Stand. Einen Slot für eine x8 Karte habe ich auf der "Spielwiese" aktuell leider nicht frei.

Aber welches Problem hast Du denn damit konkret? Wird das ignoriert?

Das einzige Problem was mir dabei gerade einfällt ist, dass vor längerer Zeit mir mal ein Szenario untergekommen ist, wo eine RHEL-VM die MAC-Adressen auf mehreren VFs selber einstellen sollte. Also aus dem Gast-OS heraus. Das war in einer Firma die von KVM (da ging es) auf vSphere migriert hat. Das ging damals (erst) nicht. Bzw. es ging scheinbar aus Sicht von Linux, aber es kam in der VM trotzdem kein Traffic an. Das hatte wohl mit vordefinierten Security Policies von vSphere zu tun. Das war, glaube ich noch, zu Zeiten vSphere 5.5. Ich weiß leider nicht mehr, wie das damals gelöst worden ist.
 
Zuletzt bearbeitet:
Semi offtoptic:

Es gibt für die "new gen der 2,5GBe" wohl nun 2 neue von QNap )nicht nur einen

2* 10 sfp+ + 4* 2,5 GBe (der war mir neu)

2* 10 GBe + 4* 2,5 GBe

dazu verweise ich immer gern auf die
... wenn Leute sich selbst "einen bauen" aka SDS
 
Zuletzt bearbeitet:
@tw2:
Genau so in etwa.
Manuell runter fahren, VM kopieren, auf dem Backup-ESXi wieder anfahren, freuen.
Die ESXis liegen natürlich im selben VLAN (Services).

DHCP ist quasi-statisch, weil ich IPs gerne zentral auf der opnSense verwalten mag.
Deshalb bin ich ja auf die MAC-Adresse angewiesen.

vSphere hab ich nach den horrenden Hardware-Anforderungen schnell wieder runter geschmissen, 200 GB SSD und 24 GB RAM für nen besseres WebUI war mir dann doch zu blöd.

SR-IOV geht momentan eh nicht, weil der Haupt-ESXi der embedded Epyc ist, der hat nur vier GBit-NICs von Intel onboard.
Dann heult die VM nach dem verschieben rum, dass keine passende Netzwerkkarte da ist.
Der Backup-ESXi hätte ne CX3 drin, müsste ich mal wieder anfahren und aktualisieren (könnte schwören, dass da SR-IOV aber angezeigt wurde).

Ich meld mich dann nochmal.

//Meld:
Ok, im Backup-ESXi ist auch keine 10G-Karte mehr drin.
Wo hab ich die nur alle verbaut? :unsure: :fresse:
 
Zuletzt bearbeitet:
2x 10GBE sind 2,5GB/s. Es fehlen also wahnsinnige 500MB/s. (PCIe 3.0 vs. 2.0 @x4)
Wo willst du denn eigentlich die 2,5GB/s herholen, bzw. hinschicken?
Diese Gedankengänge machen rein technisch Sinn, haben aber nahezu 0 Bezug zur Realität, es sei denn, wir reden hier von nem SA3600 oder sowas.
Auf der einen Seite magst du ja recht haben das die 500MB/s die man weniger zu vernachlässigen sind, aber wenn die Karten dasselbe Kosten, wo liegt denn dann der Sinn nicht das zu kaufen wo man für sein Geld die meiste Leistung bekommt ?
Wenn ich die Hardware schon hätte, würde ich wegen dem bisschen weniger Speed auch nicht extra neue kaufen aber so kauft man halt gleich das "beste". Außerdem sind wir hier im Luxx :d

Hab mir nun zwischenzeitlich eine Intel X520-DA2 sowie zwei Mellanox ConnectX-3 Pro gekauft. Switch ( TL-SX3008F wenn ich bis dahin nicht besseres finde ) wird dann Ende des Jahres mit dem NAS zusammen gekauft, da erstmal das Geld in einen neuen Rechner fliesst 🙃

Nun fehlen mir nur noch Verbindungskabel um das ganze schonmal zu testen ohne Switch. Hat da jemand ne Empfehlung ? 3m Kabel ist ausreichend.
 
Meine Erfahrungen mit 10G:
Kabel, etwa 50m, CAT8.1 mit CAT6A RJ45 Steckern, leider zwischendrin 3 Zwischenstücke U/SFTP 50cm Flachkabel für Türdurchführungen, dementsprechend ne Menge Steckverbindungen (NIC->Patchkabel, Patchkabel->Installationskabel, Installationskabel <-> Flachkabel, ...)

Verbindung zwischen Marvell-Aquantia-Schrott-NIC und Broadcom NIC: Linkt sich mit 5G, iperf gibt 4.71GBit, also eigentlich eine sehr gute Verbindung.
10G Link kriege ich ums Verrecken über die Strecke nicht hin, egal welche Konstellation.

Dann der verzweifelte Versuch: Ich habe noch fs.com 10G Transceiver rumliegen, die mit 80m Variante mit dickem Broadcom PHY.
Die linken sich mit 10G (beide Seiten, eingesetzt mittels QSA in eine Mellanox ConnectX-3), leider kommen keinerlei Daten durch... netstat sagt auch auf der empfangenden Seite selbst im Promisc Mode kein einziges Paket, der Link funktioniert also nicht.


Bedauerlich, ich ersetze jetzt die Strecke mit Singlemode Faser und schaue, wie lange die hält (Durchführung durch Türen). Mit den 2mm Flachbandkabeln geht das gerade so, die Single Mode Kabel sind genau so dick, sollten also passen. Ich weiß aber nicht, wie die Single Mode Fasern auf längere Zeit mit der Mechanischen Belastung klarkommt... Die Single Mode Kabel sind aber flexibler als die CAT Flachbandkabel, passen sich also ggf. besser an.
Ist nur die Frage, wie gut das mit dem Biegeradius funktioniert. Multimodekabel (7.5mm statt 10mm Biegeradius der SMF) sind aber leider zum Einen recht teuer, zum Anderen ist die Transceiverauswahl sehr beschränkt (40G QSFP-40G-UNIV und QSFP-40G-SR-BD, 100G 100GBASE-SWDM4), die Transceiver sind recht teuer und haben maximal 100m Reichweite mit OM4, d.h. das Leistungsbudget bzw. der SNR ist ohnehin nicht allzu gut, und mit engen Biegeradien ist das vermutlich keine gute Kombination.
 
Sei froh, dass du damit überhaupt 5Gbit bekommst.
Die Flachbandkabel sind in keinster Weise ordentlich geschirmt, haben seeehr dünne Leiter, die noch dazu parallel verlaufen.
Haben die Flachbandkabel Buchsen oder nutzt du Kurzkupplungen dafür?
Kurzkupplungen erzeugen nicht zu verachtende Übergangswiderstände und sind, je nach Ausführung, auch gar nicht für 10G tauglich (Leiterplatte nicht ordentlich geschirmt, nur metallbedampftes Plastegehäuse usw. usf.).

Legst du das Glasfaserkabel auf dem Boden oder an der Decke lang?
Auf dem Boden würde ich die Tür an der Übergangsstelle etwas abschleifen, um bissi mehr Platz zu schaffen, dann das Kabel in einem Bogen durchlegen und mit Panzertape ordentlich befestigen.
Dann sollte, solange nicht jemand alle paar Sekunden drauf rum latscht, das eine Weile halten. =)
 
Hab gestern FS.com kontaktiert um mal zu erfragen welchen Transceiver man auswählen soll wenn man Intel, Mellanox und TP-Link Kompatbilität wünscht. Die Antwort war leider nicht so wie erhofft, ich solle "maßgeschneiderte DAC Kabel" auswählen und dann hinschreiben welcher Transceiver womit angeschlossen werden soll.
Gibts keine Transceiver die mit mehr als einem Hersteller kompatibel sind ?
 
Vielleicht hilft es dir: ich hab hier Mellanox mit TP Link mit den Generic laufen, da gab es keine Probleme (genauso wenig wie mit den Mikrotik Switches). Bestell dir doch einfach mal eins, kostet ja nicht die Welt.
 
Ne das stimmt der Preis ist in Ordnung. Hoffe die Versandkosten auch, da die ohne Kundenkonto nicht einsehbar sind und aus welchem Land verschickt wird.

Dann bestell ich mir gleich mal ein Generisch DAC Kabel. Finde die sollten mal ne Liste zur Verfügung stellen um zu sehen mit welchen Herstellern z.B. Generisch komtabil ist, sowie auch zu den anderen Transceivern.
 
Haben die Flachbandkabel Buchsen oder nutzt du Kurzkupplungen dafür?
Doppelkupplungen.

Ich hatte erwartet dass 10G robuster ist. In einem Test hat 10G über 30m U/UTP Flachbandkabel das quer durch Wohnung und Treppenhaus geschmissen war, problemfrei funktioniert.

Naja, dann hab ich halt nur 5G über Kupfer. Dann is das so.
Auf dem Boden würde ich die Tür an der Übergangsstelle etwas abschleifen, um bissi mehr Platz zu schaffen, dann das Kabel in einem Bogen durchlegen und mit Panzertape ordentlich befestigen.
Tür Abschleifen ist leider nicht, da Mietwohnung.
Auf dem Boden würde ich die Tür an der Übergangsstelle etwas abschleifen, um bissi mehr Platz zu schaffen, dann das Kabel in einem Bogen durchlegen und mit Panzertape ordentlich befestigen.
Das Glasfaserkabel geht erst in nem Kabelkanal, dann unter einer unkritischen Tür durch, dann wieder Kabelkanal, dann kritische Tür, an der Treppe entlang (ja, einfach an die Fliesen an der Wand geklebt), dann nochmal kritische Tür, dann Kabelkanal, unkritische Tür, Kabelkanal

Ich darf leider aktuell keine in irgendeiner Weise gearteten Permanenten Veränderungen machen. Habe vor mittlerweile über 1,5 Jahren nach der Genehmigung gefragt, zwei Wände (Wohnung -> Treppenhaus und Treppenhaus -> Serverraum) durchbohren zu dürfen.

Da die verfluchte WEG es aber seit Anfang der Pandemie geschafft hat, irgendwie eine WEG Versammlung immer wieder aufzuschieben, krieg ich da keine Genehmigung für. Meinen Vermieter juckts nicht und da ich kein Eigentümer bin kann ich nichts machen...

Ich mach morgen mal Fotos von der aktuellen Einbausituation
 
Ein Glück, in einem Gebrauchthaus hast du das Problem nicht... =)
Dafür hab ich andere, wie zB. Wallbox und Kabel über den Gehweg zum Stellplatz vorm Haus, weil Garage nicht elektifiziert und 150 m entfernt...
Und das diskutier mal mit der Gemeinde...
Jaja, Elektromobilität muss ausgebaut werden, aber bitte nicht überall! -.-
 
Wireless Strom gibt es, sowohl optisch als auch magnetisch. Aber halt nicht für Faxen ala 22kW.

(kennt man vom wireless charging vom Smartphone)
 
Mir sind gerade zwei NICs vom Typ Silicom PE210G2SPI9 in die Hände gefallen, die waren ursprünglich in einer Storage Appliance von Tintri verbaut.
Es handelt sich um Dualport 10 GbE Karten mit SFP+ mit Intel 82599ES Chip und sie beherrschen lt. Hersteller auch Offloading:

Windows 10 erkennt die Karte ohne manuelle Treiberinstallation als Intel X520 Server Adapter.
Tiefer gehend testen konnte ich die Karten aber noch nicht.
 
<klugscheiß>
Da haste aber nen dicken Eisenkern, der die Energieübertragung übernimmt. :hmm:
Macht sich am Gehweg nochmal ne Nummer blöder als ein Stolperkabel. =)
Luftspulen für Kleinleistung lassen wir jetzt mal aus (zumal die auch parallel und am besten übereinander angeordnet sein sollten).
</klugscheiß>
 
Jetzt hatte ich endlich die Gelegenheit die Silicom PE210G2SPI9 mal ersten Tests zu unterziehen.
Eine steckt in meiner Zweitkiste mit dem 3930k in einem PCIe x16 3.0 Slot mit Win10, die andere in meinem Gameserver den ich für LANs verwende mit dem Atom D525 in einem PCIe x4 Slot, müsste 1.0 sein. OS ist Windows Server 2012 R2.

Transceiver sind die mitgelieferten drin und ein 15 m MM LWL dazwischen, Direktverbindung ohne Switch.

Treiber sind die Standardtreiber von Windows (Intel X550), Link wird mit 10 Gbit/s angezeigt.
Filetransfer ist leider gerade keine echte Option weil die HDD in dem Gameserver super langsam ist, also hab ich mir iperf in der aktuellsten Version gezogen und damit mal einen ersten Test gemacht.

Da komme ich jetzt auf 2,22 GBit/s, die CPU Last auf dem Server steigt dann auf bis zu 45 %.
Die CPU ist natürlich auch ein erheblicher Flaschenhals, also ist das jetzt auch mal eher als Benchmark für das Atom System zu werten als als belastbarer Benchmark für die LAN Verbindung an sich. Ich hab hier noch ein System mit einem Xeon W5580 stehen, das kann ich mal alternativ noch testen. Allerdings bin ich jetzt auch angefixt mal zu schauen in wie weit sich das Atom System noch optimieren lässt. Erster Versuch wäre mal die Intel Treiber zu installieren.

EDIT: Mit Inteltreiber und 8k Jumboframes komme ich auf 2,43 Gbit/s, der Treiber von Intel direkt ist auch nicht schneller als der Standardtreiber, wobei der ja letztendlich auch von Intel kommen dürfte also überrascht mich's jetzt nicht allzu sehr.
 
Zuletzt bearbeitet:
Meine Erfahrungen mit iPerf sind extrem durchwachsen, vor allem unter Windows. Hab schon wieder vergessen, welche Version man am besten nimmt - im Zweifel iperf3 oder iperf2 - das „normale“ kann nichtmal mit mehreren CPU-Kernen umgehen.

Am Ende teste ich es am liebsten echt stumpf mit Dateitransfers und großen Dateien (20-100GB), das ist dann wenigstens mal eine belastbare Aussage. Falls der Datenträger auf einer Seite zu langsam ist, kannst du zu Testzwecken auch mal ne RAMDisk nehmen. Ich hab damals mit der (kostenlosen) Variante von Softperfect herumgespielt und das hat ganz gut funktioniert:

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh