jemand mit blade server erfahrung hier ?

bigghost

Enthusiast
Thread Starter
Mitglied seit
28.12.2004
Beiträge
3.754
Ort
Düren
hi, hat hier jemand erfahrung mit blade servern evtl dell erfahrung ?

hätte da ein paar verständnis fragen.mit dieser ganzen fabrics A1 und A2 geschichte.
und die anbindung der lom karte zu einem switch der in A1,A2 steckt.

gruß,
bigghost
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da sollte dir Dell selber weiter helfen können mit ausführlichen Handbüchern. Je nach Alter gibt es doch einige Varianten.
Fabrics hört sich für mich aber eher nach einer FC-Storage Anbindung an.
Ansonsten sind es zwei interne Switche und jedes Blade ist an beide angebunden.
 
ja infos kriege ich ja bei dell. was mich aber interessiert ist die netzwerk verständnis in der praxis.
z.b. der m620 hat minmum ab werk eine 10gbit dualport karte auf dem fabrics A anschluß.
diese 2 ports teile sich auf im m1000 gehäuse auf den slot A1+A2.in diese slots kann ich z.b. einen switch stecken
der intern 16 ports a 1gb hat und für uplink externe ports etc..jetzt frage ich mich ob die geschichte der doppelten switch
je fabrics a,b,c nur einen redundanten zweck haben oder ob ich nur einen switch verbauen kann und evtl auch beide lan ports an diesen betreiben kann.
da unsere produkte normale mit interlinks kommunizieren brauche ich min 3-4 lan ports pro server.
und wenn ich auf fabrics b eine quad port stecke und wieder nur 2 ports effektiv habe bringt mir das nicht viel.
es sei man könnte 10gbit karten für die m1000 backplane in mehrere virtuelle karten splitten sofern möglich ????
 
*puh*, dazu bräuchte man echt das Handbuch.
PowerEdge M1000e Blade-Gehäuse*
Dell Force10 MXL 40/10GbE-Switch
Konvergenter 1/10/40GbE-Switch mit bis zu 56 10GbE-Ports (32 interne Ports), konvergentem iSCSI und FCoE (Übertragung an ToR), 320-Gbit/s-Stacking von bis zu sechs Switches, FlexIO Technologie und PVST+ (Spanning Tree nach Branchenstandard). 32 interne 10GbE-Ports für vollständige Redundanz des M420 Blades in Fabric A.

Dell™ PowerConnect™ M8428-k
Konvergenter 1/10GbE-Switch mit 24 10GbE-Ports (16 interne Ports) und vier nativen Fibre Channel-Ports, konvergentem iSCSI und FCoE (FC-Kabelpeitsche am Blade-Switch). Fibre Channel-Ports unterstützen 2 Gbit/s, 4 Gbit/s und 8 Gbit/s.

PowerConnect M8024-k 10GbE-Switch
Konvergenter 1/10-GbE-Switch mit 24 10GbE-Ports (16 interne Ports), konvergentem FCoE (Übertragung an ToR), Stacking von bis zu sechs Modulen, FlexIO Technologie und Simple-Modus

PowerConnect M6220 1GbE-Switch
1GbE-Switch mit bis zu 24 Ports (16 interne Ports), Stacking von bis zu zwölf Switches, Simple-Modus, vier festen 10/100/1000-Gbit/s-Ethernet-Kupfer-Uplinks und FlexIO Technologie für bis zu vier zusätzliche 10GbE-Uplinks

PowerConnect M6348 1GbE-Blade-Switch
1GbE-Switch mit bis zu 48 Ports (32 interne Ports), Stacking von bis zu zwölf Modulen, Simple-Modus, 16 externen festen 10/100/1000-Gbit/s-Ethernet-RJ-45-Ports zur Unterstützung von 32 internen GbE-Serververbindungen über 1GbE-Adapter mit vier Ports sowie bis zu vier 10GbE-Uplink-Ports

Dell 10GbE-Pass-Through Modul für Switches der -k Serie
Unterstützt 16 10GbE-R-J45-Kupferanschlüsse

Cisco® Catalyst® M 3032 Blade-Switch
Vier feste 10/100/1000-Gbit/s-Kupfer-Ethernet-Uplinks sowie zwei optionale Modulschächte, von denen jeder zwei 1GbE-Kupfer- oder optische SFP-Ports unterstützt

Cisco Catalyst M 3130G Blade-Switch
Vier feste 10/100/1000-Gbit/s-Kupfer-Ethernet-Uplinks, Vollduplex-Stacking-Ports mit 64 Gbit/s (StackWise® Plus) sowie zwei optionale Modulschächte, von denen jeder entweder zwei 1GbE-Kupfer- oder optische SFP-Ports unterstützt

Cisco Catalyst M 3130X Blade-Switch
Vier feste 10/100/1000-Gbit/s-Kupfer-Ethernet-Uplinks, Vollduplex-Stacking-Ports mit 64 Gbit/s (StackWise Plus) und Unterstützung für zwei x2-Module für insgesamt bis zu zwei 10GbE-CX4- oder -SR/LRM-Uplinks

Brocade® M5424 8-Gbit/s-Fibre Channel-Switch
Acht externe SAN-Ports

NPIV Port Aggregator für Dell™ Fibre Channel-SAN-Modul mit 4 Gbit/s oder 8 Gbit/s

Emulex® Fibre Channel-Pass-Through-Modul mit 4 oder 8 Gbit/s

Mellanox® M4001Q QDR, M4001T, M4001Q FDR10 FDR InfiniBand® Switches
16 interne Ports und 16 externe QSFP+- Ports in einem Formfaktor einfacher Breite
Such dir was aus.
Der PowerConnect M6348 1GbE-Blade-Switch hört sich nach dem an was du gerne haben möchtest.
Ansonsten hört sich noch das Dell Force10 MXL 40/10GbE-Switch sowie Mellanox® M4001Q QDR, M4001T, M4001Q FDR10 FDR InfiniBand® Switches interessant an.

Auf der rechten Seite sind übrigens auch ein paar PDFs verlinkt:
PowerEdge Workloads BrochurePDF
Dell PowerEdge Server PortfolioleitfadenPDF
I/O Guide for M-Series Blades (E/A-Leitfaden für Blades der M Serie)PDF
Dell PowerEdge M1000e Technische DatenPDF
Caterham F1 TeamPDF
Simple Switch Mode: Port Aggregator Feature White Paper (Simple Switch-Modus: Port Aggregator-Funktion – White Paper)

Und im Handbuch ist kurz erklärt das jedes Blade drei Erweiterungskarten für die Fabrics A, B und C hat. Du kannst dir als insgesamt drei verschiedene Switche verbauen wo auf jeder Karte max. zwei Ports sind.
Infiniband mit 40 oder 56Gbit/sec wird vornehmlich als Cluster-Interconnect verwendet wenn du entsprechende MPI-Software am laufen hast. Ansonsten sind die neuen Mellanox VPI3 Karten auch recht gute Ethernet Karten mit Virtualisierungssupport.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh