danielmayer
Enthusiast
- Mitglied seit
- 30.03.2005
- Beiträge
- 1.010
Hatte ich aufgrund der widersprüchlichen Angaben befürchtet. Trotzdem schade!
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Liebe underclocker&sch4kal: ihr werdet doch wohl nicht diese billig-Kunstoffteile mit meiner 2mm-Aluplatte vergleichen?! Tzzzz... Keinen Sinn für Ästhetik, was?
Außerdem: ich habe zusätzlich einen RJ45 darauf untergebracht
Mittlerweile läuft mein SAN endlich... Allerdings mal eine Frage in die Runde
Kriegt man überhaupt irgendwie 100Gbit Throughput hin?
Ich nutze ESXi 6.7 mit einem napp-it SAN.
Beides mit Connect x4 100GbE verbunden per DAC.
Datastore ist NFS
Read und Write Speed in der VM liegen bei etwa 4GB/s in fio unter Linux.
Anhang anzeigen 682972
Windows 10 mit ATTO liegt bei etwa 3,6-3,8GB/s.
Netstat bei iperf3 (gemessen von ESXi zu napp-it über die vmk Schnittstelle):
iperf3 auf einem Prozess erreicht knapp 27Gbit/s.
iperf3 auf einem Prozess mit 5 Parallel Streams erreicht ebenfalls 27Gbit/s.
iperf3 verteilt auf 5 Prozesse (mit verschiedenen Ports) erreicht knapp über 50Gbit/s.
Anhang anzeigen 682944
Benchmark napp-it Lokal direkt mit fio auf dem ZFS Raid.
Anhang anzeigen 682973
Egal was ich ausprobiere, der Maximalspeed liegt irgendwo bei 50Gbit/s im Test und bei 30Gbit/s im realen Nutzen als SAN Datenspeicher.
Bis jetzt habe ich auf beiden Systemen noch kein Tuning vorgenommen. Die TCP und Kernelparameter sind also Standard. Gibt es hier Empfehlungen für höhere Geschwindigkeiten?
Würde ESXi 7 einen Unterschied bringen? Dort lassen sich über die GUI auch RDMA Adapter konfigurieren, was zumindest auf dem Papier die Performance steigern sollte. Funktioniert RDMA o.ä. überhaupt bei Solaris?
Hardware
ESXi 6.7
2x Intel Xeon E5-2640 v4
128GB DDR4-2400 RAM
Connectx4 Adapter
napp-it 21.06
1x Intel Xeon E5-2640 v4
32GB DDR4-2400 RAM
Connectx4 Adapter
4x SSD Samsung 970 Evo 1TB als RAID-Z1.
Deine CPUs dürften zu lahm dafür sein, und nein, ohne Tweaks an ziemlich vielen Stellschrauben siehst du da nicht mehr, selbst bei aktuelleren Systemen.
Bei derartigen Geschwindigkeiten wird es sogar wichtig, in welchem NUMA-Cluster die CPU und die NIC sind, und welchen Scheduler du benutzt.
Mit spezieller Software (DPDK/VPP) könntest du solche Durchsätze auch mit deinen alten CPUs erreichen, bei normalen NFS Lese/Schreibzugriffen sehe ich da allerdings wenig Chancen.
Welche iperf Version benutzt du ?
*edit* guckstu hier: https://fasterdata.es.net/host-tuning/linux/100g-tuning/
Ich bin bei ESXi auch an eine Schallmauer gekommen, die so irgendwo bei 25-30GB/s lag - je nach OS. Traurigerweise hab ich die 100Gbit unter realer Anwendung bisher auch nur mal zwischen Windowskisten per SMB Direct mit RDMA gesehen und mit RAM-Disks auf beiden Seiten… und dafür brauchst dann entweder Windows Server auf beiden Seiten oder beim Client Windows Pro FOR WORKSTATIONS.
Ohne mindestens SR-IOV auf Serverseite hast Du m.E. eh keine Chance - und dann ist Solarish mit ner ConnectX-4 z.B. raus (zumindest ohne Oracle Support und auch OmniOS zickte virtualisiert rum).
Für diese Speed muss halt alles passen, da ist der physische 100gbit Link nur der Anfang, der für sich allein einfach kaum was bringt.