Fibre-Channel (4Gbit) zum kleinen Preis - wo?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Puh, ich erinnere mich wage daran etwas passendes darüber in der BEOWULF-Maillinglist gelesen zu habe.
Wenn du dich etwas in Geduld übst werden dir die anderen hier aber bestimmt etwas genaueres sagen können.

Gruß zKoxx :wink:
 
Nimm einfach vernünftige Intel-NICs mit 4 Ports und lass' iSCSI laufen. Es sei denn, dein SAN kann nur Fibre Channel. Wofür sollen die Karten eigentlich sein?
 
Ich meinte, ob dein Storage FC braucht oder ob das auch nen Rechner ist. Dann könnte man iSCSI fahren. Der Vista-Bug tritt afaik nur bei laufendem WMP auf.
 
Ein Rechner (gleichzeitig Storage).
Also wenn du den Windows Media Player meinst, der ist bei Übertragungen nicht gelaufen. Trotzdem viel weniger Datenrate als mit XP
 
Ich hätte ja 2 x QLogic 2460 Fibre Channel HBA PCIe(4x) 4GBit zu humanen Preisen!

Melde dich einfach wenn du die brauchst! :)
 
Verstehe ich das richtig, du willst 2 Win-Vistakisten über FC miteinander verbinden ?

Öhhm, hat das überhaupt mal einer probiert ?
 
Ich glaube nicht, denn welcher normale Desktop PC schafft es eine 4GB Fibrechannel Karte auszulasten ?

Vielleicht kannst du deine Anforderungen noch etwas genauer ausführen/beschreiben. Dann kann dir ggf. etwas besser geholfen werden.

MfG
 
Hat sich eh erledigt, da die Karten kein ICS unterstützen.
 
Für was sind die Dinger dann?
Ob Kupfer, Luft oder LWL ist eig. egal. Lediglich bei Luft und LWL wird der Strom in Funkwellen oder als Licht übertragen. Heisst aber nicht, dass man kein Netzwerk mit LWL aufbauen kann. Da fehlt nur der richtige Protokoll dafür.
 
Gibt auch Netzwerkkarten mit 10 Gigabit... für ca. 600 EUR pro Stück in der PCI-E 8x Variante. PCI-X kostet nochmal rund 150 mehr. ...Allerdings neu.
Kabel werden wohl auch teuer sein. Und ich habe keine Ahnung, ob man ggf. zwingend über einen Switch gehen muss.
Allerdings sind Vista 64 Treiber verfügbar.

http://www.intel.com/Products/Server/Adapters/10-Gb-AF-DR-DualPort/10-Gb-AF-DR-DualPort-overview.htm

http://www.intel.com/Products/Server/Adapters/10-GbE-CX4-DualPort/10-GbE-CX4-DualPort-overview.htm
 
@ Snoopy69

FC Wird benutzt um Rechenknoten, vorzugsweise Blades, die max. 2 Platten haben mit Speicher aus einem SAN zu versorgen.
Dies ist aber nur eine Anwendung für FC. Man kann sagen, überall wo Performance und Ausfallsicherheit gebraucht wird ist FC Pflicht.

FC läuft auch über Glas, das ist aber auch fast die einzige Gemeinsamkeit mit einem Ethernet.

in der Wikipedia eigentlich ganz gut beschrieben klick mich
 
Naja, ich dachte das wäre eine Alternative zu normalen Netzwerk-Karten.
In GH finde ich aber nur 1Gbit (mit mehreren Ports). Die nächsthöhere wäre 10Gbit. Da kostet aber eine Karte schon ab 500€ aufwärts. Und zwischendrin (etwa 2 oder 4Gbit) gibts nichts :(
 
Klar gibt es nichts zwischen 1Gbit und 10Gbit, da es dazwischen auch keinen Standard gibt.

FC ist sowas wie SCSI, eigentlich die Hardcorevariante von externem SCSI, um eben Storage der nicht zentral stehen muß, mit nen "bisschen" mehr Bandbreite anzubinden.
 
Zuletzt bearbeitet:
Also hab ich keine Alternative zu Netzwerk-Karten, wenn ich ICS nutzen will?

Wie sieht es mit Bündelung mehrerer 1Gbit-Ports aus? Was brauche ich alles dazu?
Und wie teuer würde das werden? Bräuchte eine genaue Aufstellung.
 
Zuletzt bearbeitet:
Nein wie denn, es wird kein Netzwerkprotokoll unterstützt. Es ist ein P2P für Storage, nothing more.

Für Netzwerk ist nunmal eine Netzwerkprotokoll notwendig, meist xyz Ethernet.
 
Mehrport NIC(s) und ein Switch mit Trunking oder 2 multiport NICs mit direktverbindung, wobei ich letztereres nicht bestätigen kann.

Die Multiport NICs müssen trunking unterstützen. ->intel
 
Jo, mit denen sollte es gehen, sind ja Server NICs. Einfach ma in den Tec Docs nachschauen, da muß der Punkt "teaming" auftauchen.

Ich glaube die dualNICs können 8 teaming Cons und die singleNICs nur 4.

Wie gesagt, dazu nochmal die Docs konsultieren.
 
falls irgenwer doch noch 2gbit pci-x fc-karten will, hab hier 4 emulex rum liegen (Stck.15€)

nochmal zum den nics
hab im server ne broadcom 2port und n paar intel singleport nics
die kannste alle über den broadcom manager zusammen in ein team einbinden
d.h. 5 nics nur eine ip
 
Das Switch braucht man aber nur, wenn man mehr wie 2 Rechner mit Teaming verbinden möchte.

Für zwei Rechner lohnt sich Teaming auch nicht, da immer nur ein Pfad verwendet würde. Erst wenn mehrere Workstation auf einen Server mit Teaming zugreifen laufen die Daten über mehrere NICs. Stand so schon oft in der ct.

Wer mehr als 1 GBit/s Cross-Over braucht muss daher zu 10 GBit/s Karten greifen.
 
Zuletzt bearbeitet:
v.a. brauchst du auch erst mal platten die mehr als 1gbit schaffen ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh