Fibre Channel - Newbee-Fragen

Nevertheless

Neuling
Thread Starter
Mitglied seit
06.12.2004
Beiträge
291
Hallo zusammen,

da ich mich zu Lernzwecken (demnächst wird es bei uns in der Firma eingeführt, und da möchte ich nicht ahnungslos dastehen) mit Fibre Channel beschäftigen möchte, hoffe ich hier auf ein paar Tipps, die mir weiterhelfe.
Gerne möchte ich zuhause bei mir eine kleine Test-Umgebung aufbauen. Ich dachte an einen kleinen Hyper-V-Cluster mit zwei Knoten und einen Storage-Server (ist schon vorhanden, läuft derzeit mit iSCSI).

Die Frage ist: Was an Hard- und Software brauche ich alles?
Dabei kommt es nicht auf Geschwindigkeit an, sondern vor allem auf Demonstration und Funktion.
Und da es mein Privatvergnügen ist, sollte es auch noch preiswert sein :hail:


Am drängendsten sind die folgenden Aspekte:

  • In der Bucht gibt es ja zahlreiche FC HBAs für kleines Geld - doch brauche ich 1GB, 2GB oder 4GB?
  • Wozu haben manche Karten Dual-Ports? Reicht mir auch ein FC-Adapter mit Ethernet-UTP-Anschluss?
  • Brauche ich zwingend einen FC-Switch? Ich möchte exakt 3 Server zum Storage miteinander verbinden.

Ich blicke da bislang nicht recht durch... Bitte um Eure Hilfe!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moinsen,

In der Bucht gibt es ja zahlreiche FC HBAs für kleines Geld - doch brauche ich 1GB, 2GB oder 4GB?

4 GBit sind zwar der Standart aber für deine Testumgebung reicht auch 1 oder 2 GBit. Die sind zwar nicht viel Schneller als deine aktuelle Verkabelung aber dafür günstiger zu bekommen.

Wozu haben manche Karten Dual-Ports? Reicht mir auch ein FC-Adapter mit Ethernet-UTP-Anschluss?

In den Hochverfügbarkeitsumgebungen sind die Server in der Regel mit zwei oder mehr unabhängigen FC Switches verbunden. Entsprechend werden dort entweder multiport HBA's oder einfach nur mehrere Singleport HBA's verwendet (kommt halt auf die verfügbaren Slots und den Preis an)

Brauche ich zwingend einen FC-Switch? Ich möchte exakt 3 Server zum Storage miteinander verbinden.

Du kannst das ganze auch als Peer-to-Peer einrichten, allerdings brauchst du dann entsprechend mehr Anschlüsse im Storage. Aber die alten 1GBit Switches kosten jetzt auch nicht die Welt und bieten dir zudem die Möglichkeit dein Netz mal zu erweitern und auch ein wenig im Umgang mit den Switches zu lernen ;)

Edit:

Wo ich grade mal in die Bucht schaue --> Die 1 und 2 GBit Karten sind wohl alle nur PCI-X und entsprechend moderne PCIe Karten gibts wohl erst ab 4 GBit...
 
Zuletzt bearbeitet:
4Gbit/sec FC gibs auch mit PCI-X 133 und 266MHz Anschluss.

1Gbit/sec FC ist nicht zu empfehlen. Wenn dann günstige Geräte mit 2Gbit/sec. Die Karten von z.B. itsco kosten 3 Euro/Stück für 1x2Gbit FC (qlogic PCI-X) - ist auch kompatibel mit 32bit 33MHz PCI-Steckplatz. Du brauchst halt pro Port ein LWL-Kabel mit LC-Duplex Steckern für Multimode (OM2) ~ 8-12 Euro.
Anstatt einem FC-Switch kann man auch einen FC-Hub nehmen, nennt sich dann FC-AL. Wikipedia hat auch ein paar Infos darüber. Praktisch wirst du leider nicht wirklich darüber was lernen können - beim Aufbau eines FC-Storages @home. Am besten du studierst die Handbücher von der zukünftig eingesetzten Hardware.

Standard sind übrigens 8Gbit/sec bzw. inzwischen 16Gbit/sec.

Wenn du etwas lernen willst, ließ das Buch http://www.speichernetze.com/. Es ist sehr zu empfehlen. Vor allem da auch nicht zu sehr auf konkrete Hardware eingegangen wird. Gibts ggf. auch bei einer Uni/FH in deiner nähe zum Lesen.
 
Zuletzt bearbeitet:
Hallo zusammen,

danke für Eure Antworten. Das Ganze nimmt langsam Fahrt auf :)

Welcher FC-Switch empfiehlt sich denn als Gebraucht-Ware, z.B. aus der Bucht? Denn 16 Ports o.ä. brauche ich ja gar nicht, sondern höchstens 3 oder 4. Gibt es überhaupt solche kleinen FC-Switches?

Wie konfiguriere ich das Ganze denn eigentlich unter Windows Storage Server, damit der weiß, was er per FC an Storage rausrücken soll? Benötige ich dafür noch eine separate Software (so wie die Target-Software für iSCSI)?
 
Du brauchst eine extra Software, ja und diese ist nirgends mit dabei. Unter Windows schon gleich gar nicht. Man verwendet nicht umsonst eine kleine NetApp als FC Storage. Es gibt auch 8 Port Switche. Zu beachten ist, das meistens nur die hälfte der Ports freigeschaltet sind per Software. Sprich, auch wenn du z.B. 32 Ports hättest, darfst du nur 16 Ports nutzen.
Sofern du bei den 2Gbit/sec FC HBAs mit PCI-X bleibst und diese in einen normalen PCI32bit 33MHz Steckplatz steckst, limitiert dieser Bus auf ca. ~80-120MByte/sec insgesamt. Deswegen würde auch ein FC Hub mit 2Gbit/sec und oft 8 Anschlüssen reichen. Die wurden frühers für die Anbindung weiterer Festplattenerweiterungen benutzt. Quasi so wie heutzutage ein SAS Expander. An einem älteren FC-Switch kann man nicht wirklich was einstellen.

Von daher wäre die Empfehlung eben, ließ lieber das Buch und die Handbücher von euren neuen FC-Switchen - falls du überhaupts jemals an die Geräte ran darfst.
 
Warum holst du dir die Sachen nicht in der Firma? Sich das alles privat zu kaufen, ich weiß ja nicht ...

Interessant wirds auch bei der Konfiguration vom Switch wenn man mehrere Storages und Server mit verschiedenen Zonen hat.
Und am Server braucht man noch eine Software zum verbinden.
Also nur mit Karten, Kabel und Hub das macht mE keinen großen Sinn. Richtig interessant wirds erst mit entsprechender Storage.

Wenn das in der Firma neu kommt, sollten die Leute eigentlich geschult werden. Gerade bei zentralen Storages kanns da große Ausfälle geben wenn man irgendwo was verpfuscht. FC ist da viel heikler als z.B. NFS weil das SCSI Protokoll über die Kabel läuft und bei einem Fehler kanns einem das Dateisystem schiessen (selbst schon erlebt mit MFT korruption)
 
Reichelt und eigentlich jede andere Firma auch die LC Duplex OM2/3 MMF (Multimode) 50/125µm LWL Kabel verkauft.
Wichtig ist halt auf den Biegeradius beim verlegen zu achten, nicht daran zu ziehen und möglichst keinen Staub in die Kabel oder SFP Module kommen zu lassen.

Du hast immer noch nicht deine Rolle in der Firma beschrieben. Ob du überhaupts an die Gerät dann ran darfst. Oder ob du nur aus Interesse wissen willst was die dann machen.
 
Also, es gibt externe Consultants, die unserer Firma gerne FC angedeihen lassen wollen.

Ich bin mit dafür zuständig, das Ganze am Laufen zu halten. Unabhängig von den Befürwortern würde ich mir gerne eine eigene Meinung bilden, ob FC Sinn macht oder nicht.
Bislang würde ich sagen: Keinesfalls. Das ist eine geschlossene, völlig überteuerte Welt, in der alle Beteiligten aus Eigeninteresse dafür sorgen, dass das auch so bleibt...
Da ist iSCSI um Welten flexibler, und mit 10 GbE oder 40 GbE ebenfalls über jedwege Geschwindigkeitsfragen erhaben... Soviel also dazu.

Mein Home-Gigabit-Ethernet-Switch Lancom GS-1224 hat vier optische Combo-Ports TP/SFP 10/100/1000 Mbit. Kann ich diese optischen Ports auch für Fibre-Channel verwenden?

Wenn das nicht geht: Im Storage-Server (wahrscheinlich Open-E DSS V6, bin dran, davon eine Lizenz zu bekommen) platziere ich eine Dual-Port FC-Karte. Jeden dieser Ports kann ich dann mit einer Single-Port-FC-Karte in meinen beiden Failover-Cluster-Knoten verbinden, direkt per LWL-Kabel und ohne FC-Switch dazwischen. Geht das, oder liege ich hierbei einem Denkfehler auf?
 
Also, es gibt externe Consultants, die unserer Firma gerne FC angedeihen lassen wollen.

Ich bin mit dafür zuständig, das Ganze am Laufen zu halten. Unabhängig von den Befürwortern würde ich mir gerne eine eigene Meinung bilden, ob FC Sinn macht oder nicht.
Bislang würde ich sagen: Keinesfalls. Das ist eine geschlossene, völlig überteuerte Welt, in der alle Beteiligten aus Eigeninteresse dafür sorgen, dass das auch so bleibt...
Da ist iSCSI um Welten flexibler, und mit 10 GbE oder 40 GbE ebenfalls über jedwege Geschwindigkeitsfragen erhaben... Soviel also dazu.
FC hat als mögliche Geschwindigkeiten 2/4/8/10 und 16Gbit/sec (frühers 100Mbit und 1Gbit). Das mit den 10Gbit/sec war mehr oder weniger eine Übergangslösung mit XFP Modulen. Einen 80 Port FC-Switch kriegst du wohl einfacher als einen entsprechenden 10Gbit Eth Switch ;)
"Nachteil" an 40Gbit Eth: QSFP Module und entsprechende Kupferkabel. Ob auch 8 LWL Fasern anstatt nur zwei benötigt werden kann ich jetzt nicht sagen, da die Kabel dann eh zu teuer wären (MPI).

Vorteile an FC: Sicherstellung einer Ende zu Ende Übertragung -> Muss aber auch so konfiguriert werden (siehe Buch Speichernetz!)
Geringe Switch zu Switch Latenz von ~ 1,x µs also ähnlich wie bei Infiniband. Mit der Angabe wurde in den "Datenblättern" schon für 4Gbit/sec FC Switche geworben.
Möglichkeit für Remote Backup mittels FC zu externem Rechenzentrum auch über mehrere 100 Kilometer. (angemietete Darkfiber) - Entsprechende Lizenzen voraus gesetzt. Da die Latenzzeit über längere Strecken als 10km höher ist, können die Hersteller das sehr leicht - neben den Daten des SFP(+) Moduls - in der Software abfragen.
Hab leider keine Zeit alles aufzuzählen :)

Mein Home-Gigabit-Ethernet-Switch Lancom GS-1224 hat vier optische Combo-Ports TP/SFP 10/100/1000 Mbit. Kann ich diese optischen Ports auch für Fibre-Channel verwenden?
FC hat mit Eth nix am Hut!

Wenn das nicht geht: Im Storage-Server (wahrscheinlich Open-E DSS V6, bin dran, davon eine Lizenz zu bekommen) platziere ich eine Dual-Port FC-Karte. Jeden dieser Ports kann ich dann mit einer Single-Port-FC-Karte in meinen beiden Failover-Cluster-Knoten verbinden, direkt per LWL-Kabel und ohne FC-Switch dazwischen. Geht das, oder liege ich hierbei einem Denkfehler auf?
Sofern du deine FC-Karten für den Open-E als FC-Target einrichten kannst, ja. Jeder FC-Port hat seine eigene WWN Nummer, so was wie eine weltweit gültige MAC-Adresse, wie auch FC und neuere SAS HDDs.
Frag aber mal einfach direkt bei der Firma nach, das du Open-E als FC-Target verwenden willst.

Soll das nun das Setup bei dir zuhause werden, oder müsst Ihr wirklich nur zwei Clients an ein Storage anbinden?
 
Zuletzt bearbeitet:
Das klingt sehr informativ, danke Dir und allen anderen!

Das Setup soll bei mir zuhause sein :-)

Woran erkenne ich denn in der Bucht einen guten Switch, der technisch und preislich noch geeignet ist?
Die Brocade 2800er scheinen ja recht alt zu sein...
 
Na ja, die wollen uns ja das sehr teure FC-Zeugs aufschwatzen. Und wie bei FC ja quasi regelrecht üblich sind auch die sehr geschlossen... Das ist somit für mich keine Option.
 
Um wie viele Ports handelt es sich denn und um welche Entfernungen? Sofern es dich interessiert, kannst dich ja mal bei brocade.com umschauen was für Switche/Directorys zur Zeit angeboten werden. Vor allem auch was neuere HBAs für Virtualisierungserweiterungen haben.

Solange es sich nur um 2-3 19" Schränke nebeneinander handelt, reicht auch SAS.
 
So, habe gerade 2 Stück Qlogic QLA2460 erworben.

Da ich bislang noch nie etwas mit optischen Kabel gemacht habe und meine, dass es unterschiedliche Stecker o.ä. gibt: Welche Kabel _genau_ brauche ich denn für meine beiden QLA2460 (zur Direktverbindung)?
 
So, habe gerade 2 Stück Qlogic QLA2460 erworben.
*lol*
Ich frage mich, wofür ich den Text geschrieben habe, dass ein 32bit 33MHz PCI-Bus die max. Transferrate auf < 1Gbit/sec insgesamt! limitiert und du nun trotzdem einen (20 Euro) 4Gbit/sec HBA (PCI-X) gekauft hast....
Es hätte die drei Euro Variante mit 2Gbit/sec auch getan.
Nebenbei, ein http://www.google.de/search?&q=QLA2460 hätte als ersten Treffer gleich das Datenblatt ausgespuckt.
http://www.qlogic.com/Resources/Documents/DataSheets/Adapters/QLA2460_datasheet.pdf

Bus interface
•• 64-bit, PCI-X 2.0 266MHz DDR,
66/33MHz PCI and 133/100/66MHz PCI-X

Signal voltage
•• 3.3V (mode 1), 3.3V/1.5V (mode 2)
Die Karte passt weder mechanisch noch elektrisch in einen normalen 5Volt 32bit 33MHz PCI-Slot!
Das Produktbild von itsco ist schlichtweg das von den 2Gbit/sec HBAs. Aber das hatte man ja auch schon einmal erwähnt, dass man diese kaufen sollte...

Da ich bislang noch nie etwas mit optischen Kabel gemacht habe und meine, dass es unterschiedliche Stecker o.ä. gibt: Welche Kabel _genau_ brauche ich denn für meine beiden QLA2460 (zur Direktverbindung)?

OM2 oder OM3 (OM4 ist definitiv nicht nötig!) 50/125µm Multimode LC-Duplex LWL-Kabel. LC ist der Stecker, OMx steht für Multimode Kabel (mit einer gewissen Kanalbandbreite), die Abmessungen sind 50µm innen und 125µm außen. Kostenpunkt ~ 8-15 Euro, ohne fest zusammenhängende Stecker auch bei reichelt erhältlich. Wichtig ist, dass du die Kabel nicht biegst oder um enge Ecken herum legst (mindest Radius 30mm, eher 50mm) und die Staubschutzkappen erst vor dem Anschließen am HBA entfernst.
Ich sehe gerade, dass ich die Frage schon beantwortet hatte... http://www.hardwareluxx.de/community/f242/fibre-channel-newbee-fragen-884622.html#post18721372

Du hast übrigens meine Fragen noch nicht beantwortet...
 
Zuletzt bearbeitet:
*lol*
Ich frage mich, wofür ich den Text geschrieben habe, dass ein 32bit 33MHz PCI-Bus die max. Transferrate auf < 1Gbit/sec insgesamt! limitiert und du nun trotzdem einen (20 Euro) 4Gbit/sec HBA (PCI-X) gekauft hast....

Wollte die Karten zunächst in einem vorhandenen Computer mit PCI-Bus einsetzen, doch ein Einsatz in Serverboards, die auch PCI-X-Steckplätze haben, wollte ich mir offenhalten. So kam ich auf die QLA2460 :)

Die Karte passt weder mechanisch noch elektrisch in einen normalen 5Volt 32bit 33MHz PCI-Slot!
Wie jetzt: Ich dachte, PCI-X-Karten passen auch in einen PCI-Slot? Ich dachte, das wäre in den PCI-Specs zwingend so vorgesehen? Bin ich da einem Denkfehler aufgesessen :confused:?

Würde denn die QLA2340 in einen normalen PCI-Slot passen?
Die würde nämlich gut in mein zwar betagtes, aber bewährtes Asrock 939Dual-VSTA Board passen (eins mit dem ULI-Chipsatz).

OM2 oder OM3 (OM4 ist definitiv nicht nötig!) 50/125µm Multimode LC-Duplex LWL-Kabel. LC ist der Stecker, OMx steht für Multimode Kabel (mit einer gewissen Kanalbandbreite), die Abmessungen sind 50µm innen und 125µm außen. Kostenpunkt ~ 8-15 Euro, ohne fest zusammenhängende Stecker auch bei reichelt erhältlich. Wichtig ist, dass du die Kabel nicht biegst oder um enge Ecken herum legst (mindest Radius 30mm, eher 50mm) und die Staubschutzkappen erst vor dem Anschließen am HBA entfernst.
Ich sehe gerade, dass ich die Frage schon beantwortet hatte... http://www.hardwareluxx.de/community/f242/fibre-channel-newbee-fragen-884622.html#post18721372
Danke für die Angaben, das hilft mir in jedem Fall! Dafür mag ich HWL so :wink:

Du hast übrigens meine Fragen noch nicht beantwortet...
Welche Fragen meinst Du denn genau?
Ich war der Meinung, ich hätte alles nach bestem Gewissen beantwortet :cool:

Zum Buch, was Du empfohlen hast: Kann es sein, dass das aus 2007 stammt und somit fünf Jahre alt ist?
 
Zuletzt bearbeitet:
Wollte die Karten zunächst in einem vorhandenen Computer mit PCI-Bus einsetzen, doch ein Einsatz in Serverboards, die auch PCI-X-Steckplätze haben, wollte ich mir offenhalten. So kam ich auf die QLA2460 :)


Wie jetzt: Ich dachte, PCI-X-Karten passen auch in einen PCI-Slot? Ich dachte, das wäre in den PCI-Specs zwingend so vorgesehen? Bin ich da einem Denkfehler aufgesessen :confused:?

Würde denn die QLA2340 in einen normalen PCI-Slot passen?
PCI-X mit 133MHz (erste Version von PCI-X) war oft auch noch mit 5Volt 64bit/33 MHz PCI-Steckplätzen kompatibel, da 66MHz mit 3,3V (ohne 5V) erst später verfügbar war und es einige Mainboards gab, die diese Steckplätze gemischt haben.
PCI-X mit 266MHz war die verspätet erschienene Version die nur noch mit 3,3Volt Steckplätzen kompatibel war. Da es aber so gut wie keine PCI 2.3 kompatiblen 3.3V 32bit 33/66 MHz Steckplätze auf normalen Mainboards gibt, sind diese Karten also nur für entsprechende 64Bit Slots mit 3,3Volt geeignet. Das Datenblatt legt diese geringe Verbreitung dementsprechend auch aus, indem nur die Rede von 64bit PCI-Steckplätzen die Rede ist. Die besagten 32bit 3,3V Steckplätze sind noch seltener als die ohnehin schon kaum verbauten PCI-X 266.
Bei neueren Mainboards sind die PCI-X 133MHz Steckplätze oft übrigens nur unzureichend über einen NEC-Brückenchipsatz an PCIe angebunden. Wenn Stromverbrauch keine Rolle spielen würde, nimm einen alten (2006 wurden die gebaut!) gebrauchten IBM 366 3HE 19" Server, der hat 6x PCI-X 266MHz Steckplätze, braucht aber auch seine 700 Watt im Leerlauf - wie ein X3850.

Welche Fragen meinst Du denn genau?
Ich war der Meinung, ich hätte alles nach bestem Gewissen beantwortet :cool:

Zum Buch, was Du empfohlen hast: Kann es sein, dass das aus 2007 stammt und somit fünf Jahre alt ist?
Diese Fragen: http://www.hardwareluxx.de/community/f242/fibre-channel-newbee-fragen-884622.html#post18748254
Und ja, die zweite Auflage ist von 2007. Ist aber wie schon gesagt unabhängig von der eingesetzten Hardware geschrieben. Nur am Ende sind Beispiele für inzwischen total veraltete FC-Storages von Sun aufgelistet, die es damals schon gebraucht gab. Da bis auf das 15k7 Modell von Seagate es kein neueres Festplatten Modell mehr für mit direktem FC-AL (4Gbit/sec) Interface mehr gibt, sind diese Gehäuse in ein paar Jahren auch nicht mehr mit neuen HDDs bestückbar, ähnlich wie heutzutage mit IDE oder SCSI HDDs.
 
Zu Deinen Fragen: Da muss ich passen, in all das bin ich nicht involviert.

So kann ich mich mit den FC-Basics befassen. Bislang, wie hier bereits ausgeführt, überzeugt mich die ganze FC-Thematik nicht. Zu undurchsichtig, viel zu geschlossen (es gibt ja praktisch nur 3 Hersteller, die Kasse machen) und m.E.n. völlig überteuert - von der Zukunftssicherheit ganz zu schweigen. Mit 10 GbE oder 40 GbE und Link-Aggregation in Kombination mit iSCSI wäre man da deutlich flexibler, offener, preisgünstiger und zukunftssicherer. Sprich: Den Mehrwert, den FC bringen soll (und den man meiner Firma aufschwatzen will), sehe ich noch nicht… Daher wollte ich mit die Basics ja selbst anschauen, um mir ein besseres Bild von det Janze zu machen :)

PCI-X: In der Tat, das wusste ich nicht. Kein Wunder, dass dieser Slot ausgestorben ist. SEHR nützliche Informationen von, habe viel gelernt dadurch - und um das Learning ging es mir letztlich ja hier.

Würde denn z.B. die Emulex LP9802L 2 Gbit/s FC1020042-04A HBA PCI-X in einen normalen 32-Bit-Steckplatz passen?

Für mehr Speed werde ich wohl zu PCIe FC-Karten mit 4GB greifen müssen. Die sind aber - auch gebraucht - wohl leider deutlich teurer als die PCI-X-Karten, richtig?
 
Zuletzt bearbeitet:
Zu Deinen Fragen: Da muss ich passen, in all das bin ich nicht involviert.
Komische Firmenpolitik, vor allem wenn du dich dann später um den laufenden Betrieb kümmern solltest...
Zumindest die Größenordnung sollte einigermaßen bekannt sein und wie auch die bisherige Landschaft aussieht.
So kann ich mich mit den FC-Basics befassen. Bislang, ..., überzeugt mich die ganze FC-Thematik nicht. Zu undurchsichtig, viel zu geschlossen (es gibt ja praktisch nur 3 Hersteller, die Kasse machen) und m.E.n. völlig überteuert - von der Zukunftssicherheit ganz zu schweigen. Mit 10 GbE oder 40 GbE und Link-Aggregation in Kombination mit iSCSI wäre man da deutlich flexibler, offener, preisgünstiger und zukunftssicherer. Sprich: Den Mehrwert, den FC bringen soll (und den man meiner Firma aufschwatzen will), sehe ich noch nicht… Daher wollte ich mit die Basics ja selbst anschauen, um mir ein besseres Bild von det Janze zu machen :)
Für die Grundlagen, reicht das lesen des Buches, damit weist du eigentlich schon mehr als die Berater...
Wenn du dir dann noch die entsprechenden Datenblätter der HBAs und Directorys etwas durchblätterst, dann könntest wohl mehr wissen als diese ;)

Brocade DCX Backbone
Heat dissipation

* Brocade DCX
Max: 512-port configuration of 1528 W, 5216 BTU/hr

Auch wenn sich 1500 Watt nach sehr viel anhört, aber bezogen auf 512 Anschlüsse mit je 8Gbit/sec ist das vergleichsweise verschwindend gering. Und dies stellt den max. Bedarf unter "Volllast" mit allen vier verbauten 2000 Watt Netzteilen im ungünstigsten Falle dar.
Der Brocade 12000 (64), 24000 (128), und 48000 (256, 384 Ports) war zum Teil sogar untereinander mit den Blades kompatibel. Die Netzteile sind es von Anfang an gewesen.
Brocade DCX: Up to 512 8 Gbps Fibre Channel ports in a single chassis; up to 1024 8 Gbps Fibre Channel ports in a dual-chassis configuration; up to 1536 8 Gbps Fibre Channel ports in a three-chassis configuration; 512 Gbps of aggregate ICL bandwidth

Da es sich bei euch um eine Neuanschaffung handelt, würde ich eher zu einem Brocade DCX 8510 Backbones raten - sofern diese nicht so Problematisch sind wie die 8Gbit/sec Modelle am Anfang. Ja ja, die Kabel sind sehr wichtig und empfindlich!
OM4 oder zumindest OM3 sind Pflicht!

Ein kleiner
# Brocade DCX 8510-4:

* Up to 192 ports (equivalent to 256 with ICLs) at 16 Gbps
* 4.1 Tbps chassis bandwidth
o 3.1 Tbps universal ports
o 1 Tbps ICL bandwidth
* 512 Gbps bandwidth per slot
Dürfte wohl ausreichend sein.
Multi-chassis:
Up to 2304 (Brocade DCX 8510-8) or 960 (Brocade DCX 8510-4) 16 Gbps universal Fibre Channel ports; up to 3072 (Brocade DCX 8510-8) or 1280 (Brocade DCX 8510-4) 8 Gbps universal Fibre Channel ports; ICL ports (32 per chassis, optical QSFP) connect up to six Brocade DCX 8510 chassis.

Scalability:
Full fabric architecture of 239 switches
Certified maximum:
6000 active nodes; 56 switches, 19 hops in Brocade Fabric OS fabrics; 31 switches, three hops in Brocade M-EOS fabrics; larger fabrics certified as required

ICL bandwidth:
Brocade DCX 8510-4: 1.024 Tbps; 16 ICLs provide the equivalent of 64 16 Gbps ports. Each ICL port provides 64 Gbps bandwidth over a QSFP (4×16 Gbps) link.

Both models: Frame-based trunking is enabled between four ICLs. DPS distributes exchanges across all frame trunks.
ICL ist für Switch zu Switch Verbindung. QSFP wird auch für 40Gbit/sec Ethernet und 40/56GBit/sec IB benötigt. Es sind deutlich teurere LWL Kabel mit mehreren (8 anstatt 2) Fasern.
Und 64Gbit hört sich doch wohl besser an als 56 oder 40Gbit/sec übers gleich teure Kabel? ;)

Switch latency:
Locally switched port latency is 700 ns; blade-to-blade latency is 2.1 µsec; encryption/compression is 5.5 µsec per node; Forward Error Correction (FEC) adds 400 ns between E_Ports (enabled by default)
Das mit der geringen Latenzzeit hatte ich ja schon einmal erwähnt.

So, und nun zum Nachteil all dieser schönen Technik: Die Kosten. Ein entsprechend ausgestatteter FC-Directory kostet neu mal schnell 5-6 stellig. Da man bei hoch verfügbaren Systemen schnell mal 3-4 Stück in einem Gebäude/Standort hat und gerne ein Remote/Backup RZ noch irgendwo anders herum stehen hat, least man diese Geräte. Da in der Regel keine Firma das Risiko eingehen will, nach der Garantiezeit sich ein neues hinstellen zu müssen, falls doch mal eines Ausfallen sollte.

PCI-X: In der Tat, das wusste ich nicht. Kein Wunder, dass dieser Slot ausgestorben ist. SEHR nützliche Informationen von, habe viel gelernt dadurch - und um das Learning ging es mir letztlich ja hier.

PCI-X ist nicht deswegen ausgestorben. Es war einfach nur zu teuer. Bei 133MHz und 266MHz ist PCI-X nur noch als 1:1 Verbindung verwendbar und kein geteilter Bus. Die Varianten mit 533 und 1066MHz haben es leider nicht mehr in den Markt geschaft, auch wenn es eine Roadmap dafür gab. Für jeden Steckplatz benötigt man also einen entsprechenden Chip um diese an die CPU/Northbridge anzubinden. Ist im Grunde genommen das gleiche leidige Thema wie heutzutage bei den viel zu wenigen PCIe Lanes auf den günstigeren Mainboards.
Wenn genug Steckplätze mit entsprechender Anbindung vorhanden sind und der Rechner in der Grundausführung nicht übertrieben viel verbraucht (>80-120Watt) kann man ein entsprechendes System auch mal über 10 Jahre effektiv nutzen.
Bei PCIe 3.0 hat man aktuell auch noch das Problem, das die Datenrate in der Praxis leider nicht verdoppelt wurde. Ähnlich wie in der Anfangszeit 10Gbit Ethernet NICs gerade mal ~6-7Gbit/sec schafften - bei ~100% CPU-Auslastung auf mehr Sockel Systemen.

Würde denn z.B. die Emulex LP9802L 2 Gbit/s FC1020042-04A HBA PCI-X in einen normalen 32-Bit-Steckplatz passen?

Ja, die Karte ist in Ordnung. Die erste Kerbe ist für 3,3Volt, die zweite für 5Volt - wenn diese nicht vorhanden ist, funktioniert die Karte eben nur mit 3,3Volt - es gab auch entsprechende PCI-X 133MHz Karten. Die dritte Kerbe ist für die restlichen Pins eines 64Bit Steckplatzes, damit passt die Karte auch in 32Bit Steckplätze - ansonsten wäre der Anschluss durchgehend ohne Unterbrechung. Karten die so lange sind, sind übrigens nur halb lange PCI-Karten. Karten mit der vollen Länge gab es unter anderem als 4 Kanal SCSI-HBA. Wenn eine aktuelle leistungsfähige Grafikkarte nicht in neuere Gehäuse rein passt, liegt das oft an dem Umstand, dass diese Aufgrund der geringen Verbreitung von entsprechend langen Karten beim Privatkunden einfach zu klein gebaut wurden.

Für mehr Speed werde ich wohl zu PCIe FC-Karten mit 4GB greifen müssen. Die sind aber - auch gebraucht - wohl leider deutlich teurer als die PCI-X-Karten, richtig?
PCIe Karten sind auf dem Gebrauchtmarkt deswegen so teuer, da diese in jeden neueren Rechner ohne Probleme rein passen. Außerdem sind die meisten Storagesysteme - die Gehäuse mit den Festplatteneinschüben - noch mit 4Gbit/sec angebunden. Ansonsten bei neueren wie gesagt eher mit 6Gbit/sec SAS innerhalb eines Racks und auch zum benachbarten.

Zu einem aktuellen Dualport 16Gbit FC-HBA mit recht schönen Virtualisierungserweiterungen gehe ich jetzt nicht mehr näher ein. Man will diesen Post nicht noch weiter aufblähen... Es gibt eine schöne bebilderte Kurzfassung: Brocade 1860 Fabric Adapter

Und ja, die Hardware gibt es schon zu kaufen.
 
Zuletzt bearbeitet:
PCI-X mit 133MHz (erste Version von PCI-X) war oft auch noch mit 5Volt 64bit/33 MHz PCI-Steckplätzen kompatibel, da 66MHz mit 3,3V (ohne 5V) erst später verfügbar war und es einige Mainboards gab, die diese Steckplätze gemischt haben.
PCI-X mit 266MHz war die verspätet erschienene Version die nur noch mit 3,3Volt Steckplätzen kompatibel war. Da es aber so gut wie keine PCI 2.3 kompatiblen 3.3V 32bit 33/66 MHz Steckplätze auf normalen Mainboards gibt, sind diese Karten also nur für entsprechende 64Bit Slots mit 3,3Volt geeignet. Das Datenblatt legt diese geringe Verbreitung dementsprechend auch aus, indem nur die Rede von 64bit PCI-Steckplätzen die Rede ist. Die besagten 32bit 3,3V Steckplätze sind noch seltener als die ohnehin schon kaum verbauten PCI-X 266.
Bei neueren Mainboards sind die PCI-X 133MHz Steckplätze oft übrigens nur unzureichend über einen NEC-Brückenchipsatz an PCIe angebunden. Wenn Stromverbrauch keine Rolle spielen würde, nimm einen alten (2006 wurden die gebaut!) gebrauchten IBM 366 3HE 19" Server, der hat 6x PCI-X 266MHz Steckplätze, braucht aber auch seine 700 Watt im Leerlauf - wie ein X3850.

Ich glaube, du verwechselst PCI-X mit PCI 64Bit.

PCI-X hat seit je her die Forderung, dass es nur 3,3V als Slot hat.

PCI 64Bit, der Vorgänger von PCI-X beruht aber auf dem normalen älteren PCI Standard. Dort bestand die Möglichkeit die Slots wahrweise mit 3,3V oder 5V zu betreiben. Diese Möglichkeit ist mit PCI-X weggefallen. Dort wurde festgelegt, dass nur noch 3,3V als Spannung für einen PCI-X Slot zulässig sind.

Daher muß jede PCI-X Karte min. diese 3,3V Unterstützung mitbringen. Zusätzlich besteht aber die Möglichkeit, um eine Abwärtskompatibilität zu schaffen, dass Karte Multivoltage unterstützen. Diese Karten haben dann 2 Kerben für die Spannungskodierung und passen daher sowohl in den PCI-X Slot, aber auch in den PCI Slot mit seinen 5V.

PCI 64Bit war nur bis 66MHz verfügbar, danach wurde diese Entwicklung vom PCI getrennt und man hat PCI-X als gesonderten Standard spezifiziert.

Leider hat nevertheless die falsche Karte gekauft, diese ist keine Multivoltagekarte und wird daher nur im PCI-X Slot laufen oder aber in alten Server welche noch PCI 64Bit mit 3,3V Slots unterstützen.
 
Zuletzt bearbeitet:
Leider hat nevertheless die falsche Karte gekauft, diese ist keine Multivoltagekarte und wird daher nur im PCI-X Slot laufen oder aber in alten Server welche noch PCI 64Bit mit 3,3V Slots unterstützen.
Die falsch gekauften PCI-X-Karten gehen natürlich zurück...

Würde denn z.B. die Emulex LP9802L 2 Gbit/s FC1020042-04A HBA PCI-X in einen normalen 32-Bit-Steckplatz passen?

Und: Gibt es denn für diese alten FC-Karten überhaupt noch moderne Treiber - z.B. für Windows Server 2008 R2 x64?


@bluesunset: Aus Komponentenwahl o.ä. halte ich mich völlig raus. Hinterher habe ich das auch noch an der Backe.
Mich interessiert mehr, wie das überhaupt funktioniert. Wo sind Unterschiede zu iSCSI z.B. bei der Konfiguration und dem Doing? Wie funktioniert das zusammen mit Hyper-V-Clustering?
Offensichtlich gibt es ja keinen FC-Target für Windows Storage Server (haben wir bisher mehrfach im Einsatz), was ich persönlich ein Riesen-Minus finde - mir aber zeigt, da FC seine Hochzeiten hinter sich hat und von iSCSI sowie 10/40GbE ratzfatz verdrängt wird :)
 
Zuletzt bearbeitet:
@ underclocker
PCI 64bit gab es mit 3,3 und 5Volt, sowie 66 und 33MHz.
Ich hab hier alle Varianten von 64bit PCI-Steckplätzen bis hin zu PCI-X 266MHz.
Einige Hersteller hatten zeitweise den 5Volt 64bit PCI Slots auch eine grünen Farbe spendiert.

Die falsch gekauften PCI-X-Karten gehen natürlich zurück...

Würde denn z.B. die Emulex LP9802L 2 Gbit/s FC1020042-04A HBA PCI-X in einen normalen 32-Bit-Steckplatz passen?
Hatte ich eigentlich schon geschrieben, dass diese Karte passt, wie auch die 3 Euro Qlogic.


Und: Gibt es denn für diese alten FC-Karten überhaupt noch moderne Treiber - z.B. für Windows Server 2008 R2 x64?
Natürlich. Für so was gibt es die Herstellerseite.

@bluesunset: Aus Komponentenwahl o.ä. halte ich mich völlig raus. Hinterher habe ich das auch noch an der Backe.
Mich interessiert mehr, wie das überhaupt funktioniert. Wo sind Unterschiede zu iSCSI z.B. bei der Konfiguration und dem Doing? Wie funktioniert das zusammen mit Hyper-V-Clustering?
Offensichtlich gibt es ja keinen FC-Target für Windows Storage Server (haben wir bisher mehrfach im Einsatz), was ich persönlich ein Riesen-Minus finde - mir aber zeigt, da FC seine Hochzeiten hinter sich hat und von iSCSI sowie 10/40GbE ratzfatz verdrängt wird :)
Es will wohl kein Mensch ein vernünftiges FC-Storage auf Basis von Windows betreiben.... :)
Wie gesagt, lies das Buch. FC ist von je her abwärtskompatibel. Selbst die neuen 16Gbit/sec Module und Karten funktionieren noch mit 2Gbit/sec Gegenstellen.
Bei Ethernet ist (war) offiziell keine Abwärtskompatibilität mehr von 10 zu 1Gbit und 40 zu 10 Gbit/sec geplant. Auch wenn die Hersteller inzwischen Produkte auf dem Markt haben, wo zumindest der Switch mit 1 und 10Gbit/sec oder im Falle von Mellanox mit 10 und 40Gbit/sec gemischt betrieben werden kann, so sind die Kabel für 10, 40 und auch 100Gbit Ethernet (über LWL) doch andere. Du du darfst dir also zwei, drei verschiedene Kabeltypen zulegen.

iSCSI ist mit FC nicht direkt vergleichbar. Beide Protokolle - Ethernet und FC - wurden für verschiedene Anwendungen entwickelt. Ethernet bekommt durch die höheren Anforderungen für ein zuverlässiges (schnelleres) Netzwerk immer neue Standards hinzu um wenigstens einigermaßen nutzbar zu sein.
Bei 4Gbit/sec gab es schon Netzwerke mit ~1500 Ports und die Garantie/Zertrifizierung des Herstellers. Inzwischen ist man ja bei max. 6000 Ports angelangt. Welcher Hersteller kann das bei Ethernet bei dieser Performance, Verfügbarkeit usw. nachweisen und garantieren?
Brocade wirbt ja auch damit, dass in die bisherige FC-Infrastrukturen 50 Milliarden (50 billion) investiert wurden. Die Firmen, welche genügend Geld für einzelne 100k Server übrig haben und ggf. jetzt schon 32Gbit/sec FC HBAs verwenden könnten, kann man wohl an einer Hand abzählen. Entsprechende Rechner haben mehr als nur 7 PCIe Slots (~10-12).

Bezüglich Virtualisierung, guck dir die Infos über den 16Gbit FC HBA an. Und sprich mal deinen Chef an, dass dich das Thema auch interessiert und du mal mit dabei sein möchtest. Dann kannst dich mit den externen Beratern unterhalten.

Zu den Grundlagen, noch einmal, lies das Buch!
 
Ich sage nicht, dass es sowas nicht gibt,ich sage nur,dass du was vermengst, was nicht zusammengehört.
(ich bin btw mit PCI 64 Bit Groß geworden, wenn man das so sagen kann)

PCI-X ist der Nachfolgestandard von PCI 64Bit.
PCI-X war seit je her und ausschließlich mit 3,3V spezifiziert.
PCI 64Bit, war zunächst mit 5V und dann aber auch mit 3,3V verfügbar.

Aus diesem Grund ist die Aussage oben, dass PCI-X mit 5V PCI kompatibel gewesen sein soll einfach falsch. Der Standard spezifiziert die Slots und dort war, wie gesagt, ausschließlich 3,3V zulässig und kein 5V.

Um die Historie mal aufzuzeigen:

1. PCI
2. PCI64 Bit (5V)
3. PCI64 Bit (3,3V)
4. PCI-X (3,3V)
5. PCI 64Bit wurde eingestellt
 
Zuletzt bearbeitet:
Ich sage nicht, dass es sowas nicht gibt,ich sage nur,dass du was vermengst, was nicht zusammengehört.
(ich bin btw mit PCI 64 Bit Groß geworden, wenn man das so sagen kann)

Aus diesem Grund ist die Aussage oben, dass PCI-X mit 5V PCI kompatibel gewesen sein soll einfach falsch. Der Standard spezifiziert die Slots und dort war, wie gesagt, ausschließlich 3,3V zulässig und kein 5V.

Es ging um die Karten, ich habe niemals behauptet, dass es einen 5Volt PCI-X Slot gibt!
Die frühen Intel Gbit Server Karten (MT) sind ein gutes Beispiel dafür, diese sind sozusagen Universalkarten.
Es fehlt am Anfang nur das Wort Karten: PCI-X Karten mit 133MHz (erste ...
Ein Slot kann nicht mit einem anderen Kompatibel sein ;)
PCI-X mit 133MHz (erste Version von PCI-X) war oft auch noch mit 5Volt 64bit/33 MHz PCI-Steckplätzen kompatibel, da 66MHz mit 3,3V (ohne 5V) erst später verfügbar war und es einige Mainboards gab, die diese Steckplätze gemischt haben.

wikipedia
Ein Link auf dieses Bild hätte mir die Tipperei oben erspart.

Zu den Emulex FC HBAs:
EMULEX Fibre Ch. HBA 2 Gbit/s PCI-X LP9002L-E FC1020034 Komponenten Netzwerkkarten Fibre Channel 2 Gbit/s 173 Stück für je 2,49 Euro.
Emulex LP9802-E 2 Gbit/s FC1020042 Fibre Channel PCI-X Komponenten Netzwerkkarten Fibre Channel 2 Gbit/s 166 Stück je 2,99 Euro.

Ich würd wohl eher die günstigste nehmen. Beide sind sehr oft noch vorhanden und wurden wohl gerne eingesetzt. Wenn du die Unterschiede wissen willst, such nach den Datenblättern des Herstellers. Und auch mal im Software Bereich, ob es FC-Target Firmware dafür gibt. Im Handbuch nach BIOS gucken. Man kann mittels FC Karten auch vom Remote Storage booten - ähnlich wie PXE bei NICs.


Schön langsam könnte man diesen Thread zum FC Erklärthread umbenennen?

800px-PCI_Keying.png
 
Zuletzt bearbeitet:
Anhang anzeigen 191536
Datei:PCI Keying.png Ein Link auf dieses Bild hätte mir die Tipperei oben erspart.
Tooles Bild, danke Dir!

Und auch mal im Software Bereich, ob es FC-Target Firmware dafür gibt.
Ein wichtiger Hinweis! Denn wie ich gerade gesehen habe, unterstützt Open-E DSS v6 nur Qlogic HBAs als FC Target.

Somit kommt für mich wohl nur die QLogic QLA2340 in Frage, zumindest für den PC, den ich als FC Target verwenden möchte.
Diese PCI-X-Karte sollte ja in einem normalen PCI-Slot laufen.


Man kann mittels FC Karten auch vom Remote Storage booten - ähnlich wie PXE bei NICs.
Das wäre dann im Betrieb als FC Initiator Mode, richtig?

Schön langsam könnte man diesen Thread zum FC Erklärthread umbenennen?
Wohl eher zum PCI-X- und FC-Thread ;) Ich jedenfalls lerne kontinuierlich dabei.
 
Zuletzt bearbeitet:
Jepp, es gibt zum einen einen FC Target und einen Initator Modus, so wie bei iSCSI auch - irgendwo her mussten Sie es ja nehmen ;)
Die Karten von z.B. itsco kosten 3 Euro/Stück für 1x2Gbit FC (qlogic PCI-X) - ist auch kompatibel mit 32bit 33MHz PCI-Steckplatz.
von http://www.hardwareluxx.de/community/f242/fibre-channel-newbee-fragen-884622.html#post18710288
Es gibt auch noch andere Karten, welche einen Target Modus unterstützen. Aber die genannte qlogic und auch die Karten von emulex sind am verbreitesten und somit inzwischen für nen Apfel und ein Ei zu haben.
Selbst wenn du vier Karten (sofern du noch einen Rechner mit 4xPCI hättest) und zwei Clients mit je zwei Karten kaufen würdest, wärst mit den vier LWL Kabeln gerade mal bei ~50-60 Euro. Theoretisch hättest du somit max. 4x2Gbit/sec jeweils zum Senden und Empfangen. Praktisch begrenzt leider der PCI-Bus (32Bit/33MHz) in normalen Rechnern auf < 1Gbit/sec insgesamt.
 
Nochmal zu den Kabeln: Suche ich z.B. bei Reichelt nach OM2, gibt es einige Treffer.

Aber welche Kabel _genau_ brauche ich? Denn es gibt ja wohl verschiedene Steckerformen: SC/SC, LC/LC, ST/ST, LC/ST, ST/SC, LC/SC :hmm:
Mal ehrlich: Wer denkt sich denn so etwas verwirrendes aus :shake: ?!?
Dagegen ist RJ45 für Ethernet & iSCSI ja unfassbar einfach...


Also, ich schätze mal, es geht darum, welche Enden die FC-Kabel haben. Für mich kommen zwei Arten der Verkabelung in Betracht: FC-Karte zu FC-Karte oder (ist zumindest geplant) FC-Karte auf FC-Switch. Welche FC-Kabel mit welchen Steckern (SC, ST, LC) am einen und anderen Kabelende brauche ich denn dafür nun :confused:???
 
Zuletzt bearbeitet:
Wir setzen in unserer Postproduktion ebenfalls auf eine 4Gb Fibre Channel Infrastruktur mit entsprechender Fabric und SFPs.
Unser großes AXUS Produktionsraid mit 66TB Nutzdaten ist dabei quasi "direct attached."

Bekannterweise geht simultaner Lese-/Schreibzugriff auf einen zentralen Storage in FC Infrastrukturen nicht da der Zugriff block basiert erfolgt.
Dazu benötiogt es dann spezielle Software wie MetaSAN oder Apples XSan die den Zugriff vermittelt inkl. entsprechender Metadatencontroller die
die Metadaten über Ethernet senden. FC SANs sind daher leider teure Angelegenheiten und für KMUs große Investitionen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh