Mittlerweile läuft mein SAN endlich... Allerdings mal eine Frage in die Runde
Kriegt man überhaupt irgendwie 100Gbit Throughput hin?
Ich nutze ESXi 6.7 mit einem napp-it SAN.
Beides mit Connect x4 100GbE verbunden per DAC.
Datastore ist NFS
Read und Write Speed in der VM liegen bei etwa 4GB/s in fio unter Linux.
Anhang anzeigen 682972
Windows 10 mit ATTO liegt bei etwa 3,6-3,8GB/s.
Netstat bei iperf3 (gemessen von ESXi zu napp-it über die vmk Schnittstelle):
iperf3 auf einem Prozess erreicht knapp 27Gbit/s.
iperf3 auf einem Prozess mit 5 Parallel Streams erreicht ebenfalls 27Gbit/s.
iperf3 verteilt auf 5 Prozesse (mit verschiedenen Ports) erreicht knapp über 50Gbit/s.
Anhang anzeigen 682944
Benchmark napp-it Lokal direkt mit fio auf dem ZFS Raid.
Anhang anzeigen 682973
Egal was ich ausprobiere, der Maximalspeed liegt irgendwo bei 50Gbit/s im Test und bei 30Gbit/s im realen Nutzen als SAN Datenspeicher.
Bis jetzt habe ich auf beiden Systemen noch kein Tuning vorgenommen. Die TCP und Kernelparameter sind also Standard. Gibt es hier Empfehlungen für höhere Geschwindigkeiten?
Würde ESXi 7 einen Unterschied bringen? Dort lassen sich über die GUI auch RDMA Adapter konfigurieren, was zumindest auf dem Papier die Performance steigern sollte. Funktioniert RDMA o.ä. überhaupt bei Solaris?
Hardware
ESXi 6.7
2x Intel Xeon E5-2640 v4
128GB DDR4-2400 RAM
Connectx4 Adapter
napp-it 21.06
1x Intel Xeon E5-2640 v4
32GB DDR4-2400 RAM
Connectx4 Adapter
4x SSD Samsung 970 Evo 1TB als RAID-Z1.