SAN ist nicht zwangsweise FibreChannel. Auch ein iSCSI Netzwerk ist ein SAN
Ich gebe aber zu, dass SAN typischerweise auf FC basiert.
NFS ist dagegen klassisch ein NAS. SAN ist Blockbasiert und NAS ist Filebasiert.
Das gesamte FC Protokoll ist auf den Einsatz für SAN (Blockbasierter Storages Access) optimiert. Es gibt auch einen IPFC (IP over FC) RFC. Zudem gibt es heute auch FCoE (FC over Ethernet), wo FC Frames als Payload auf den Ethernet Frame kommen und kein IP mehr drauf liegt. Alternativ auch FCoIP. Der Einsatz von CNAs (Convered Network Adapter) der sowohl TCP/IP als auch FCoE spricht ist möglich und das OS sieht dann sowohl einen FC-HBA als auch eine Netzwerkkarte. FCoE braucht aber spezielle Switche.
Multipathing ist bei FC keine Kunst, die Bandbreiten sind höher und der Overhead geringer verglichen mit Ethernet. Zudem kann FC auch noch Loops vollständige Loops bauen, was bei Ethernet nicht ohne weiteres möglich ist. Aber auch bei FC läuft es meist auf einen Stern hinaus.
Die Frage nach dem Sinn, von insbesondere älteren, FC Komponenten (2 und 4 Gbit) halte ich im Heimbereich für vollkommen berechtigt. 2Gbit ist so alt, dass es eigentlich nur noch Strom frisst verglichen mit der Performance. Ob man das noch findet, wage ich fast zu bezweifeln. Müssten recherchieren, ob es hier Geräte mit Platten über 146GB gibt. Bei einen typische 2U Chassis mit 12 3,5" Platten würde ich auf 150-250W für die Platten und mind. das gleiche für den Controller tippen. Im Raid 5 wären das 1,5TB und bei 15k Platten ~150Read IOPS pro Disk insgesamt ~1700. Streaming IO würde ich hier 180 (Single Path) oder 360MB/s (Multipath) erwarten. Vom Lärm ganz zu schweigen.
Bei 4Gbit würde ich mit doppeltem Durchsatz, IOPS und der doppelten Kapazität rechnen. Aber auch nicht zwingend mit weniger Lärm und Stromverbrauch. Dafür sollte man hier noch gut und günstig drankommen. Bei 4Gbit Technologie kann man ggf. auch Lösungen mit NearLine Storage (groß) oder SSDs (schnell) finden. Wobei die SSDs meißt nur eine 100GB bieten. Beide Szenarien sind für mein dafür halten wirtschaftlich nicht unbedingt tragbar (Stromverbrauch). Wer IOPS braucht kann heute mehr IOPS mit SSDs bekommen, bevor es SSDs gab war das jedoch eine der wenigen Lösungen.
8Gbit ist vermutlich noch zu teuer. Aber hier wird es dann langsam interessant, auch was 2,5" Hardware, Strom, Kapazität und Performance angeht.
Hinzu kommt, dass im Heimbereich wohl typischerweise eher weniger Geräte am Storage hängen. Bei nur 1 oder 2 Servern würde ich eher auf 10Gbit direkt Verkabelung und iSCSI setzen. Zumal ich dann hier meinen Filer selber bauen kann, nicht zwingend nur auf Block, sondern auch File oder Object Storage nutzen kann. HDDs und SSDs lassen sich mischen, um hohe Kapazitäten und hohe Performance zu erzielen. Selbst bei mehr Servern würde ich die Frage aufwerfen, ob hier nicht 1Gbit über iSCSI reicht. Wenn ein Server 100IOPS und 10MB/s Durchsatz hat und es keine Datenbank ist, dann ist das schon viel. Backups und Reboots vernachlässigen ich mal.
Aber ein FC SAN hat natürlich andere Pro Argumente wie Nerdfactor, Spieltrieb, Erfahrung sammeln etc.