Gehversuche mit Fibre Channel SAN

Vorteil ist halt wenn man einen getrennten Server für Storage hat dort kann man die ganzen HDD/ SSD reinstecken und alles zentral verwalten.
Mein bekannter bootet die VM Software von einen USB Stick weil der rest eh auf den Storage liegt. Und man kann von jeden Server aus jede VM Booten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vorteil ist halt wenn man einen getrennten Server für Storage hat dort kann man die ganzen HDD/ SSD reinstecken und alles zentral verwalten.
Mein bekannter bootet die VM Software von einen USB Stick weil der rest eh auf den Storage liegt. Und man kann von jeden Server aus jede VM Booten.

Das ist meiner Meinung nach kein Vorteil, denn das könntest du auch mit einem auf Ethernet basierendem Storage-System erreichen.
 
Ich ja nicht gesagt welchen Übertragungsweg man benutzen kann oder soll.
Zb:
 
SAN ist nicht zwangsweise FibreChannel. Auch ein iSCSI Netzwerk ist ein SAN ;) Ich gebe aber zu, dass SAN typischerweise auf FC basiert.
NFS ist dagegen klassisch ein NAS. SAN ist Blockbasiert und NAS ist Filebasiert.

Das gesamte FC Protokoll ist auf den Einsatz für SAN (Blockbasierter Storages Access) optimiert. Es gibt auch einen IPFC (IP over FC) RFC. Zudem gibt es heute auch FCoE (FC over Ethernet), wo FC Frames als Payload auf den Ethernet Frame kommen und kein IP mehr drauf liegt. Alternativ auch FCoIP. Der Einsatz von CNAs (Convered Network Adapter) der sowohl TCP/IP als auch FCoE spricht ist möglich und das OS sieht dann sowohl einen FC-HBA als auch eine Netzwerkkarte. FCoE braucht aber spezielle Switche.
Multipathing ist bei FC keine Kunst, die Bandbreiten sind höher und der Overhead geringer verglichen mit Ethernet. Zudem kann FC auch noch Loops vollständige Loops bauen, was bei Ethernet nicht ohne weiteres möglich ist. Aber auch bei FC läuft es meist auf einen Stern hinaus.

Die Frage nach dem Sinn, von insbesondere älteren, FC Komponenten (2 und 4 Gbit) halte ich im Heimbereich für vollkommen berechtigt. 2Gbit ist so alt, dass es eigentlich nur noch Strom frisst verglichen mit der Performance. Ob man das noch findet, wage ich fast zu bezweifeln. Müssten recherchieren, ob es hier Geräte mit Platten über 146GB gibt. Bei einen typische 2U Chassis mit 12 3,5" Platten würde ich auf 150-250W für die Platten und mind. das gleiche für den Controller tippen. Im Raid 5 wären das 1,5TB und bei 15k Platten ~150Read IOPS pro Disk insgesamt ~1700. Streaming IO würde ich hier 180 (Single Path) oder 360MB/s (Multipath) erwarten. Vom Lärm ganz zu schweigen.
Bei 4Gbit würde ich mit doppeltem Durchsatz, IOPS und der doppelten Kapazität rechnen. Aber auch nicht zwingend mit weniger Lärm und Stromverbrauch. Dafür sollte man hier noch gut und günstig drankommen. Bei 4Gbit Technologie kann man ggf. auch Lösungen mit NearLine Storage (groß) oder SSDs (schnell) finden. Wobei die SSDs meißt nur eine 100GB bieten. Beide Szenarien sind für mein dafür halten wirtschaftlich nicht unbedingt tragbar (Stromverbrauch). Wer IOPS braucht kann heute mehr IOPS mit SSDs bekommen, bevor es SSDs gab war das jedoch eine der wenigen Lösungen.
8Gbit ist vermutlich noch zu teuer. Aber hier wird es dann langsam interessant, auch was 2,5" Hardware, Strom, Kapazität und Performance angeht.

Hinzu kommt, dass im Heimbereich wohl typischerweise eher weniger Geräte am Storage hängen. Bei nur 1 oder 2 Servern würde ich eher auf 10Gbit direkt Verkabelung und iSCSI setzen. Zumal ich dann hier meinen Filer selber bauen kann, nicht zwingend nur auf Block, sondern auch File oder Object Storage nutzen kann. HDDs und SSDs lassen sich mischen, um hohe Kapazitäten und hohe Performance zu erzielen. Selbst bei mehr Servern würde ich die Frage aufwerfen, ob hier nicht 1Gbit über iSCSI reicht. Wenn ein Server 100IOPS und 10MB/s Durchsatz hat und es keine Datenbank ist, dann ist das schon viel. Backups und Reboots vernachlässigen ich mal.

Aber ein FC SAN hat natürlich andere Pro Argumente wie Nerdfactor, Spieltrieb, Erfahrung sammeln etc.
 
Zuletzt bearbeitet:
Aber für SED-HDDs, Bladecenter Chassis und überteuerten RAM ist Geld da? :hmm: :rolleyes:
10Gbit über DirectAttachedCable kostet doch schon fast nichts mehr. Einzelne NIC 38,9 zzgl. Versand oder gleich ein Set um 76,9 zzgl. Versand mit Kabel inklusive. Gerade gesehen in der Bucht ohne genauere Filterung.
 
Zuletzt bearbeitet:
DELOCK PCIe x4 10 Gigabit LAN RJ45 NBase-T kostet auf die schnelle ca. 265€ beim Grosshändler.
Karten ohne Module kosten immer noch ASUS PEB-10G/57840-2S 10GbE SFP+ Network Adapter ca. 200€.

Der Switch wo ich geschaut habe 4 oder 5 stellig.
 
Es gibt Leute, die wollen einfach mehr bezahlen... Danach aber noch aufregen, dass man zu viel bezahlt hat geht gar nicht...
Der Großhändler verlangt bei den kleinen Würsteln mehr als der Einzelhandel oder Gebrauchtmarkt, diese schmerzliche Erfahrung hab ich auch einmal machen müssen.
Ich meine so etwas: SET 2x long HP 671798 10GbE + Cisco 3m kit 10Gbit 10Gbase Ethernet 10Gigabit 10G | eBay
oder einzeln: HP 10GbE low profile 671798-001 SFP+ 10Gbit 10Gbase Ethernet PCIe 10Gb 10G LP | eBay
Da kommen zwei Karten ins Storage und jeweils eine in die Server. Dann ersparst du dir den Switch.
 
:rofl: Welcher Server seit 2007 hat bitte keinen PCIe? Dein BC-Chassis hat doch wohl freie SFP+ Ports, dann kommt eben das Kabel dort direkt rein. Wenn nicht, ab auf den Müll damit. Wie hättest du es sonst angebunden, die vorher von dir angegebene Karte braucht auch PCIe.
 
Lustig... Muss man halt vorher denken, bevor man den Schrott kauft. Mit 1 Gbit wünsch ich dir dann viel Spaß beim Warten.
Aber ja, du wolltest keine Ratschläge von hier annehmen. Jetzt hast du den Salat. Verklopf den ganzen Bladeschmarrn und kauf dir dafür 2,5" Platten oder SATA-SSDs und evtl. die stärkst möglichen CPUs für den HP 2U-Server. Hast mehr Freude damit. Die Leistung bleibt die selbe.
 
Welcher Server seit 2007 hat bitte keinen PCIe?
Blade und eventuell 1U/ 2U.Nein?!

Die Blades haben PCIe. Nur nicht als normalen Slot sondern in Form von Mezzanineboards. Und für die Anschlüsse nach außen braucht man die Virtual Connect Module. Die gibt es für 1G und 10G Ethernet wie auch für FibreChannel. Natürlich muss man die auch gebraucht einzeln kaufen.
2007 war bei Servern PCIe schon Standard, PCI am aussterben und PCI-X auf dem absteigenden Ast.
 
Nur nicht als normalen Slot sondern in Form von Mezzanineboards.
Ok nur wo soll platz dafür sein? Auf die schnelle wüsste ich nicht wo man das installieren könnte.
Und für die Anschlüsse nach außen braucht man die Virtual Connect Module. Die gibt es für 1G und 10G Ethernet wie auch für FibreChannel. Natürlich muss man die auch gebraucht einzeln kaufen.
Habe ich geschaut kostet neu 19000€.
 
Benutz die Google Suche.

Suchbegriff: Blade Quickspecs

Ich hab in der fünften Klasse (unter der Annahme, das dein Geburtsjahr im Namen ist) um die Zeit noch Unterricht gehabt.
 
Aso weil laut Wikpedia wird das auf zb auf Win installiert.
Da musst Du schon alles lesen:
ESOS consists of one archive file that is extracted on a local computer running a supported operating system (Linux, Windows, or Mac OS X).[11] The local computer is only used for installing the ESOS image to a USB flash drive (or other removable media device).[12]
D.h. der Linux/Windows/Mac Rechner wird nur zum Extrahieren des Archivs auf einen USB-Stick benutzt.

Und ich kein sicher kein Piefke!
Das hat auch niemand gesagt. Ich musste erstmal nachlesen, was das bedeutet :d
 
Da musst Du schon alles lesen:
ESOS consists of one archive file that is extracted on a local computer running a supported operating system (Linux, Windows, or Mac OS X).[11] The local computer is only used for installing the ESOS image to a USB flash drive (or other removable media device).[12]
D.h. der Linux/Windows/Mac Rechner wird nur zum Extrahieren des Archivs auf einen USB-Stick benutzt.


Ich versuche ihm das ja auch schon seit längerem klar zu machen, aber naja. Imho ist das sowohl auf der ESOS-Website, als auch in Wiki ganz klar und verständlich erklärt... Aber OK.



Zum Thema FC / iSCSI im Homebereich:
Meiner persönlichen Meinung nach:
- FC 4Gb im Homebereich macht heute nur noch Sinn, wenn mehrere Initiator bedient werden sollen, ansonsten Direct-Attached mit 10GbE und iSCSI
- Für FC 4Gb am besten die Silkworm 200e nehmen, relativ geringer Stromverbrauch ~35W

Ich persönlich bin kein Fan von NFS für die Anbindung von Datastores, ist halt Filebasiert, was bei einem NAS sicher von Vorteil sein kann. Bei einem Datastore, welcher VMs hosted eher fraglich.

Wenn Ethernet dann bitte iSCSI, ist ja kein Hexenwerk. Aber auch da muss bei ESXi-Seite noch einiges beachtet werden. Die Krux an der Sache ist, dass es meistens Out-of-the-Box funktioniert, Best Practice ist halt nochmal ein anderes Thema. (nmp psp roundrobin deviceconfig, Claimrules usw. )
 
Zuletzt bearbeitet:
...
Ich persönlich bin kein Fan von NFS für die Anbindung von Datastores, ist halt Filebasiert, was bei einem NAS sicher von Vorteil sein kann. Bei einem Datastore, welcher VMs hosted eher fraglich.

Wenn Ethernet dann bitte iSCSI, ist ja kein Hexenwerk...

Naja, aber im Betrieb gibt es schon einen Unterschied von NFS Datastore und iSCSI.
Ich hab es zwar aktuell nicht mehr getestet, aber Anno 2014 war es noch so, das ein Storage über 1Gbit Kupfer per NFS deutlich schneller war, als iSCSI.
Da iSCSI nämlich synchron arbeitet, hast Du eben auch lesend nur die langsamste Schreibgeschwindigkeit, was je nach Platte oder Zugriffen drauf Probleme machen kann, oder eben bremst.

Je nach NAS/Datastore kann ein NFS-Share auch Vorteile haben, sprich Snapshots und Co.
 
Ich persönlich bin kein Fan von NFS für die Anbindung von Datastores, ist halt Filebasiert, was bei einem NAS sicher von Vorteil sein kann. Bei einem Datastore, welcher VMs hosted eher fraglich.
Also "fraglich" ... man muss nicht alles glauben aber 'best practice' kommt meist nicht von ungefähr. In Sachen Performance hat es m.E. heute keine Relevanz mehr aber gerade in Sachen Backup (bzw. viel mehr Restore) kann ein NAS Datastore immer noch extrem angenehm sein. Auf ner NetApp z.B. machst in ein paar Sekunden nen sis clone von der vmdk aus nem Snapshot und ab dafür, das kostet noch nicht mal Platz.

Blockbasiert ist das natürlich auch kein Hexenwerk - aber Du hast halt meistens mehr Schritte drin ...
 
Ein Punkt mehr für ZFS. Ich meine, ich habe auch auf Pools mit iSCSI Shares ganz easy und "sofort" Snaps gemacht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh