Infrasturktur-Virtualisierung

Furgy

Banned
Thread Starter
Mitglied seit
16.10.2005
Beiträge
5.662
Ort
Ostschweiz
Hallo zusammen,

Ich darf für meine Firma Server-Hardware beschaffen, um die aktuelle Infrastruktur, die aus mehreren Servern und NAS besteht, zu virtualisieren...

Aktuell wären das 6 Windows Server 2003 R2 x86 und 2 NAS.
Auf den Servern läuft einiges: AD/DHCP/DNS/Lotus Notes/Produktion/etc.)

Da viel Geld verloren geht wenn das ganze steht muss es also Hochverfügbar sein und sollte genügend Speicher für die nächsten Jahre bieten.

Lizenzkosten für die Betriebssysteme sind vorhanden und müssen nicht angeschafft werden.

Folgende Richtlinien wurden mir genannt:

  • Hersteller: Dell
  • Budget: Offen, natürlich nur so viel wie auch wirklich nötig ist
  • 19" Rackmontage
  • Alles inklusive (Server, Storage, Backup, etc.)
  • Ausfallsicherheit
Mein Plan:

  • 2 Server mit ESXi, wobei beide in der Lage sind die ganze Last zu tragen (falls wirklich mal ein Server den Dienst komplett verweigert)
  • 1 Zentraler Storage
  • Backup auf externe Festplatten
Meine Gedanken:

  • 2x Dell PowerEdge R410 (2x Xeon E5620, 6x4GB RDIMM DDR3-10667, 2x 500W Netzteil, keine HDD, kein iDRAC, Intel Netzwerkkarte mit 2x1GBit, CD-ROM-Laufwerk, Rackmountkit)
  • Dell PS6000X iSCSI-SAN (24x300GB SAS 10k rpm, 2 RAID-Controller für 2 unabhängige RAID-Arrays, die aber das gleiche an Daten haben)
  • 5 externe HDDs (2TB) für das Backup nach dem Turm von Hanoi Prinzip mit BackupExec
Nun meine Fragen:

  1. Reicht die Dimensionierung der Server?
  2. Reicht die Dimensionierung des SAN, oder sind 2x1GBit bei voller Last zu wenig? Eventuell das PS6010X?
  3. Weite Fragen werden bestimmt noch auftauchen :d

Ich hoffe ihr könnt mir helfen.

Danke im voraus!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie sind denn die jetzigen 6 Server dimensioniert und ausgelastet?
Ob die 2TB HDs für ein Backup reichen kannst auch nur du wissen.

Ich persönlich kaufe bei Dell keine Storage Produkte mehr.
Ob du ein ISCSI-SAN mit 10k platten wirklich brauchst und auf lokale Platten komplett verzichtest solltest du dir gut überlegen.
Vielleicht kannst du ja SAN und ESXI-Server über dedizierte Leitungen verbinden, wenn die Kisten im gleichen Rack stehen. Ohne switch sieht auch 10GB ethernet wieder ganz interessant aus.
 
Wie sind denn die jetzigen 6 Server dimensioniert und ausgelastet?
Ob die 2TB HDs für ein Backup reichen kannst auch nur du wissen.

Ich persönlich kaufe bei Dell keine Storage Produkte mehr.
Ob du ein ISCSI-SAN mit 10k platten wirklich brauchst und auf lokale Platten komplett verzichtest solltest du dir gut überlegen.
Vielleicht kannst du ja SAN und ESXI-Server über dedizierte Leitungen verbinden, wenn die Kisten im gleichen Rack stehen. Ohne switch sieht auch 10GB ethernet wieder ganz interessant aus.

Also die jetzigen Server sind schon recht gut ausgelastet - besonders die älteren davon, die noch keine 4GB RAM haben.
Auch die Netzwerkkarten sind gut ausgelastet zu spitzenzeiten, da sie aktuell nur mit 1GBit angebunden sind, obwohl der Switch eigentlich Multichanneling unterstützen würden.

Ob die 2TB reichen ist ja schnell ausgerechnet: 8 Platten zu 300GB pro Array mit einem RAID5 macht 7x300 = 2100GB, davon geht ja noch einies drauf durch das formatieren, dann reicht das.
Oder meinst du von der Sicherheit des Backups?

Warum soll ich in den Servern noch HDDs verbauen? Die Überlegung hinter dem ganzen ist ja genau das Disaster, wenn ein Server steht (z.B. Mainboard defekt) - dann kann ich von den HDDs, die im Server sind ja nichts mehr kopieren...

Wieso meinst du ob ich 10k Platten im SAN wirklich brauche? Meinst du, 7200er SATA würde auch reichen?

Warum kaufst du keine Storage-Lösungen mehr von Dell, wenn man fragen darf?

Das mit dem 10GBit wäre natürlich auch nicht schlecht, wenn es ohne Switch geht - ich kenne mich da nicht so gut aus. :)
 
Die Direktverbindung würde ohne Switch gehen, das heißt du brauchst dann min. 2 10GbE-Netzwerkkarten in dem SAN.

Wie viele Rechner sind denn im Netzwerk vorhanden?
 
Es sind etwa 80-100 Rechner.

Das mit dem 10GBit Glas schaue ich mir mal an...
 
blablabla
Hochverfügbar
blablabla
ESXi
blablabla

Das wird so nicht funktionieren, da dir der ESXi out-of-the-box keinerlei HA bietet. Ist ja nicht ohne Grund kostenlos.
Und da ich hier was von Produktion(srelevante Daten) lese würde ich von Frickelscripten o.ä. abraten.
 
Das wird so nicht funktionieren, da dir der ESXi out-of-the-box keinerlei HA bietet. Ist ja nicht ohne Grund kostenlos.
Und da ich hier was von Produktion(srelevante Daten) lese würde ich von Frickelscripten o.ä. abraten.

Dann muss ich da wohl zum ESX greifen, oder?

Nein, gefrickel gibts nicht. ;)
 
iSCSI ist bäh.. 4/8gbit fiberchannel über ne IBMDS3400 oder so machen da mehr spaß... da erledigt sich auf die Frage nach dem 10gbit

und warum eig. DELL *urks* aber gut jedem das Seine...

wenn ESX wg. Hochverfügbar genommen wird ist 2008 R2 mit Hyper und CSV auch ne IDee
 
Zuletzt bearbeitet:
Ich dachte iSCSI ist die einzige Speicherlösung, die ESXi verwenden kann? :confused:

Warum Dell - daran kann ich leider nichts ändern ;)
 
ESX wird sterben das ist sicher, das deutet vmware in seinen präsentationen und vorstellungen die ich in den letzten monaten hatte auch schon an. nein, esxi mit vsphere ist schon der richtige weg. was gregor meint ist die tatsache dass esxi in seiner kostenlosvariante relativ stark beschnitten ist. erst durch die nachträgliche lizenzsierung die den esx versionen in nichts nachsteht was den preis angeht, kommen die features hinzu. esxi kann prinzipiell fast alles, was esx kann und vmware bevorzugt dies auch, denn knapp 80% aller vmware patches, die für esx erscheinen, sind patches, die eigentlich eher der linuxdistribution darunter dienen.

ich kenne lotus notes auch und weiss, dass es ein ram und cpu verbrenner vor dem herrn ist. also ich rate zu einem 3er cluster. dann kannst du einen davon auch viel problemloser in den maintenance modus schicken ohne das der andere unter last zusammenbricht. ram dimensionierung dürfte etwas knapp sein.
 
Ich dachte iSCSI ist die einzige Speicherlösung, die ESXi verwenden kann? :confused:

Warum Dell - daran kann ich leider nichts ändern ;)

afaik auch direkte Fiber links, sind ja auch nur Platten aber eben kein support MPIO / DPM / Cluster Volumes
 
Benötigte man für das schnelle umziehen / verschieben von VMs bei VMWare ESXi / ESX nicht noch ein VCenter bzw. VSphere?
Das kostet auch eine ganze Stange Geld.

Gerade ein NAS / einen Fileserver würde ich nicht unbedingt virtualisieren. Dafür käme auch ein dedizierted System mit einem RAID 5 oder RAID 10 in Frage.
Sind 24 GB Ram auf lange Sicht ausreichend?
Unsere (noch) vorhandenen ESX-Server haben alle auch lokale Festplatten, auf denen das Betriebssystem des ESX läuft und .iso-Dateien abgelegt werden. Unser SAN ist ausschließlich für die virtuellen Platten der VMs da.
Und bei DELL den richtigen Support und die richtige Garantie für die Server kaufen.

Beim Backup würde ich je nach gewünschter Sicherheit mal über eine Sicherung auf Band nachdenken, deren Bänder möglichst Brandsicher und weit weg vom RZ gelagert werden.
Wie sieht's mit einer USV aus, um Spannungsschwankungen ausgleichen und die Server bei Stromausfall sauber herunterfahren zu können?
 
ein Angebot wie folgt würde unserer Firma dazu wahrscheinlich entspringen..

2x IBM x3650 M3 (CPU, RAM nach Wunsch[bis zu 2xSC 3,33Ghz/3,46Ghz QC, 48GB RAM-192GB RAM), Server mit dual port FC HBAs und komplettem SAN Boot ohne eigene HDDs

1x DS3400 mit 4gbit FC ( 12 Laufwerke , bis zu 48 Laufwerke mit 3 Erweiterungseinheiten ) hier muss man schauen wieviel Platz man brauch. SAS Laufwerke bieten enorme Performance aber eben wenig Speicher, SATA sollte hier auch reichen. 12x 1TB SATA z.B.


Die Server kann man ohne FC Switch direkt an der DS3400 über kreuz anschliessen. Mit Switch könnte man natürlich noch mehr "Hochverfügbarkeit" herrausholen aber dieser ist halt sehr kostenintensiv.

BACKUP ist Glaubenssache, aber wenn Ihr eure Backupmedien nicht ohne hin in einem separaten Branschott gesicherten Raum habt ist ne Bandsicherung unabdingbar ( LTO3, LTO4 ) mit externem Server. Da habter dann allerdings das Problem das Ihr über Gbit LAN sichern müsstet. Mit der DS3400 könnte man z.B. auch direkt über das SAN und eine Flashcopy Funktion sichern, die erzeugt zu einer festen Uhrzeit einen Klon der entsprechenden Daten. Da bräuchtet Ihr dann aber einen FC Switch.

Und für den Notstrom halt eine APC 3000 Smart UPS o.Ä. damit jeweils ein Netzteil der Stromversorgung da dran hängen kann.

Die DS3400 ist auch erhältlich als iSCSI Variante in Form der DS3300 oder reiner SAS Variante in Form der DS3200 ( hier aber dann nur mit Single Pfad Anbindung ) Diese Storages haben 2 RAID Controller, raucht ein Controller ab kann der andere die Leistung tragen in Sekunden wird alles geswitched und die Hosts sowie die VMs kriegen durch die Mehrpfadanbindung und entsprechende Treiber nichts davon mit. Wäre das ganze geclustered sollte Server B natürlich sofort die VMs von Server A online schalten bzw. direkt übernehmen wenn mit Cluster Volumes gearbeitet wird, falls einer ausfällt.

Aber ob man DAS wirklich brauch bei zwei Servern ( Firma ~= 50Mitarbeiter ? )
 
Zuletzt bearbeitet:
BACKUP ist Glaubenssache, aber wenn Ihr eure Backupmedien nicht ohne hin in einem separaten Branschott gesicherten Raum habt ist ne Bandsicherung unabdingbar ( LTO3, LTO4 ) mit externem Server.

Wieso sollte eine Bandsicherung unabdingbar sein? Ich halte davon nicht mehr viel, gerade in kleinen Firmen mit nicht so einem hohem Budget meiner Meinung nach zu anfällig.
Festplatten laufen an jedem Rechner, die Bänder nur in einem speziellen Laufwerk/Lesegerät.
 
Ich werf auch mal ein, zwei Gedanken in den Raum:

  • Das es hier mit ESXi nicht getan ist wurde bereits erläutert. Es steht aber immernoch die Frage im Raum, wieviel Hochverfügbarkeit es denn nun sein darf. In der "kleinen" VMware Lizenz (Essentials Plus) ist HA (high availability) bereits enthalten, aber damit muss man im Fehlerfall immernoch Downtimes von 10 bis 15min einkalkulieren, je nachdem wie lange ein virtueller Server braucht um wieder neu zu booten. Der Vorteil bei Essentials Plus ist das einfache und vergleichsweise preiswerte Lizenzmodell (bis zu 3Server/6CPUs = 1 Lizenz)
  • Es gibt bei VMware die Funktionalität "fault tolerance", damit wird praktisch 0 Downtime garantiert. Das geht dann aber erst ab der Advanced-Stufe wo man jede CPU einzeln lizensieren muss. Wenn ihr das braucht solltest du dir das unbedingt ansehen.
  • San-Storage. Ich persönlic würde hier nicht unbedingt auf iSCSI gehen. Ja es ist einfacher zu implementieren weil man kein FC-KnowHow braucht. Andererseits macht das wieder nur mit 10Gb richtig Sinn und ist der Praxis selbst dann nicht so performant wie ein 8GBit FC, durch den Protokoll-Overhead geht zu viel verloren. Und seit der vSphere 4.1 hat der Datendurchsatz etwa bei vMotion massiv zugelegt so dass man etwa beim verschieben von VMs auch deutlich davon profitiert.
  • Hardware: Mal ehrlich, ob da vorne IBM, DELL, HP oder sonstwas draufsteht ist erstmal wurscht. Entscheidend ist das die Hardware für vmWare zertifiziert ist und ihr einen kompetenten Dienstleister habt, der euch unterstützt. Unsere Hauptmarke ist (historisch gewachsen) Fujitsu und deren SANs sind im Preis-Leistungsverhältnis auch alles andere als schlecht.

Generell: Steck nochmal genauer die Anforderungen ab, insbesondere in Sachen vmWare dann kann man weiter sehen.

Backbone
 
Der Hersteller der Hardware ist meines Erachtens auch nicht der wichtigsten Faktor. Viel wichtiger ist da, mit welchen Garantie- und Support-Paketen die Hardware gekauft wird.
Denn mit dem "richtigen" Support steht im Falle eines Fehlers in wenigen Stunden ein Techniker mit Ersatzteilen in der Tür.

Gerade wenn virtuelle Maschinen schnell umgezogen werden sollen, würde ich eine schnelles SAN nehmen. Die virtuelle Maschine an sich wird bei einer solchen Anbindung lediglich an einen anderen VM-Host angehängt und muss nicht kopiert werden.

Alternativ zu VMWare kann man auch Microsofts Hyper-V zusammen mit dem Virtual Machine Manager einsetzen.
Je nach aktuellem Lizenzvertrag mit MS und einer eventuellen Lizenzberatung kann man sich vielleicht ein preiswertes Angebot zusammenstellen (lassen).
(Was beim Hyper-V mager ist, ist der Support von Linux-VMs. "Offiziell" werden nur SuSE und Redhat Enterprise Linux unterstützt).

Eine Sicherung auf Band finde ich immernoch sinnvoll. Ein Bandlaufwerk kann man neu kaufen oder auf Lager legen und die Daten liegen auf Bändern, sicher vor Phänomenen wie z.B. Überspannung.
 
Naja, Vergleiche eines Herstellers sind immer mit Vorsicht zu genießen. Wahrscheinlich hat der Vmware auch ein paar Nachteile die da jetzt nicht aufgelistet sind.
Wobei ich auch glaube, das Vmware hier die bessere Lösung ist, da es speziell auf Virtualisierung ausgelegt ist und nicht den ganzen überflüssigen Ballast mitbringt, den Windows Server dabei hat.
 
Zuletzt bearbeitet:
Danke für die Antworten!

Und weiter:

@Freak574:
Solange das Storage den benötigten Durchsatz bringt und die Möglichkeit, dass alle Server auf das Storage zugreifen können, ist es mir eigentlich egal was da rein kommt, aber ich schau mich mal um beim Fibre Channel.

@mhrpcler:
Lizenzkosten have ich noch nicht nachgeschaut, da ich davon ausgegangen bin, da ESXi ja kostenlos ist und es da ja auch einen vSphere dazu gibt.

Ich denke 24GB Ram pro Server dürfte genug sein, da die x86er 2003er Server eh nur 4GB benutzen. Ausserdem sind es 4GB-Module, was heisst, das noch freie Plätze da sind, um später noch mehr Ram einzubauen.

Das mit den lokalen Platten ist mir immer noch nicht wirklich logisch - der ESX(i) kommt auf einen USB-Stick oder eine SD-Karte, und die Installationsmedien liegen auf einer externen HDD, was auch reicht. Man braucht diese ja nicht wirklich täglich…

Das mit dem Support ist halt auch wieder eine Budget-Frage, aber genau da darf man dann ja nicht sparen. Ich habe mich mal für die 3Jahre 4h Critical entschieden. Vielleicht kommt ja bei der Abklärung ob es nun gekauft wird oder nicht noch raus, dass man das ganze lieber 5 Jahre lang hätte, dass sehe ich ja dann. :)

Backup-Lösung denke ich wird auf externe HDDs gemacht, da es um einiges günstiger ist als ein Streamer mit den passenden Bändern...

USV ist schon eine in ausreichender Grösse vorhanden.

@Freak574:
Wieviel mehr Performance bietet denn zum Beispiel ein Array SAS-HDDs mit 10'000rpm gegenüber einem Array mit gleich viel SATA-HDDs mit 7200rpm?
Weil wenn SATA reicht kann ich ein besseres SAN-Gehäuse nehmen, da eine 300GB SAS HDD mit 10'000rpm enorm viel mehr kostet als zum Beispiel eine 1TB SATA mit 7200rpm.
Da ist dann aber wieder zu bedenken, dass die SAS HDDs den gleichen Support haben wie der Server selbst, bei SATA ist nur ein Jahr Standard-Garantie dabei (ok, bei 100Fr. pro HDD kann man dann 2 als Reserve lagern, ist ja auch kein Problem).

Was kostet denn so ein FC-Switch ca.?

Das mit dem Dual-Controller in dem SAN ist auch wieder eine Frage: Reicht 1 SAN mit 1 Array mit 2 Controller, um vollständige Redundanz zu erhalten? Oder bräuchte man statdessen 2 unabhängige Arrays, welche synchronisiert werden?

Und wie kommst du auf 50 Leute? Ist das auf deine Arbeitsstelle bezogen? Wenn nein ist das falsch, denn wir sind gute 200 Leute, etwa 70 im Büro (CAD/Einkauf/Verkauf/Logistik/etc.) und die anderen sind in der Produktion. Aber wenn eben der Produktionsserver stillsteht, können halt über 100 Leute nicht produzieren, und das kostet, wie du dir sicher vorstellen kannst…

@daheym:
Warum brauchen wir über die Kosten nicht reden? :d

@Hummerman:
Exakt meine Meinung!

@Backbone:
Also das mit der Lizensierung muss ich abklären, ebenso die Verfügbarkeit. Wenn HA reicht kann ich ja die Essential Plus nehmen, dann geht ca. 10-20 Minuten nicht mehr wenns mal knallt.
"fault tolerance" ist halt sehr kostspielig, wenn man von 2 Servern (oder sogar 3) ausgeht mit je 2 CPUs, aber danke für die Gedankenstütze!

Du würdest also auf FC-Storage setzen?

Bezüglich Hardware: Richtig - solange der Support stimmt ist es ja egal. :d

@mhrpcler:
Der Support ist auch immer eine Frage des brauchens, aber ich habe ja oben schon geschrieben, dass ich mich für den 4h Reaktionszeit-Vertrag entschieden habe. ;)

Hyper-V kommt weniger in Frage, da man schon viel VMware-KnowHow hat in der Firma...
 
Wenn du auf absehbare Zeit mit 3 Server á 2 CPUs hinkommst und kein fault tolerance brauchst ist die Essentials Plus wahrscheinlich wirklich die beste Wahl. Dort ist eben alles schon mit drin und du kannst einen der alten Server sogar als vCenter einsetzen, das gibts nämlich auch mit inklusive. Der größte Nachteil der Essentials-Versionen ist aber das man die nicht upgraden kann. Sprich wenn du in zwei, drei Jahren feststellst das du doch eine Advanced brauchst, musst du die komplett neu kaufen. Auf der anderern Seite bekommt man da schon eine Menge geboten fürs Geld.

Storage-seitig würde ich hier gleich auf FC setzen. Wenn du mit zwei Servern hinkommst genügt es in beide Server zwei FC-HBAs zu bauen und beim SAN auch ein Modell mit zwei HBAs zu nehmen das hast du schonmal eine sehr hohe Verfügbarkeit. Natürlich ist die Storage dann immer der "single point of failure". SANs gehen aber nur sehr selten kaputt. OK, die Platten können schonmal verrecken, aber dafür macht man ja Raids. Wenn du allerdings komplette Redundanz haben willst mit einer zweiten, synchronen SAN, ok dann wirds teuer, halte ich aber in den meisten Fällen auc für Overkill.

So ein FC-Switch ist natürlich nochmal ein Kostenfaktor, gerade mit Blick aufs Backup würde ich das aber ernsthaft überlegen. Man kann einen kleinen Autoloader direkt an den FC-Switch hängen und der zieht dann das Backup direkt von der SAN aufs Band, sehr elegant.

Backbone
 
zum Thema iSCSI vs FC streiten sich die Geister, gerade was Live Migration im Cluster betrifft ist mit iSCSi unter Volllast des Verbundes nicht viel los.. Ausserdem bietet FC einfach den Vorteil beliebig viele Pfade ( je nach Storage/Switch/Server) bereitzustellen. Unser Storage läuft mit 2x4Gbit(host) über 4x4Gbit(Switch) auf 4x4Gbit (Storage) auf. Jeder Server kann selber Lastenverschiebungen initiieren durch einen Pfadwechsel oder verschieben einer LUN auf einen anderen Controller. Ein Fiber Switch kostet aber eben auch mal 2000 Euro, und je nach Hochverfügbarkeitswahn brauchste davon 2. Soweit stimme ich da Backbone auch zu. Mal ganz davon abgesehen das Glasfaser einfach keine Ethernet-Befindlichkeiten hat. Das sollte man nicht unterschätzen.

SAS und SATA unterscheiden sich bei RAIDs mit hoher Spindelanzahl insofern voneinander das Sie mit steigender Anzahl an IO eine unterschiedliche Performance Kurve zeigen, bis zu einem bestimmten Punkt fallen sie fast gleich aber ab einem bestimmten Punkt fällt SATA eben deutlich schneller als SAS. Aber SATA ist eben nicht unbedingt langsam. Bei uns laufen zweistellige Zahlen an Servern auf einem 11 Platten RAID5 auf SATA ( darunter sind fileserver, Mailserver, Printserver ), diese haben aber auch keine extreme Volllast die Sie handeln müssen, aber es sind eben auch viele Maschine mit vielen keinen Anfragen.

@Hummerman vom reinen Sinn Usability ist eine Bandsicherung einfach immer vorne. Moderne LTO3 oder LTO4 Laufwerke haben eine geringe Fehleranfälligkeit wenn das Laufwerk nicht im Dreck ersäuft ( Staub ). Plattenbackup macht eben nur Sinn wenn das Backup nicht geklaut und nicht verbrennen kann. Und bei einer FIrma mit 200 Mitarbeitern darf einfach nichts schief gehen.

Da könnte man wunderbar im Keller einen Raum einrichten in dem ein Fiberchannel Storage, brandsicher und Diebstahlsicher ein 100% Just in Time Kopie eines Produktivstorages darstellt.
 
Vielen Dank für eure Antworten!

Ich fasse nochmal zusammen, was ich jetzt erfahren habe, damit ich das morgen mit meinem Chef anschauen kann:

Server:
3 Server mit je
2 Quad-Core (Intel? AMD? Cache? Takt? spielt das eine Rolle?)
16-24GB Ram (32GB Ram insgesamt reichen aus, und dass 2 Server gleichzeitig aussteigen halte ich für sehr unwahrscheinlich)
2x 1GBit LAN für das Netzwerk
2x 8GBit FC HBA für das SAN
Redundantes Netzteil
VMware ESX (Essential Plus oder Advanced)

SAN:
2 Controller mit jeweils 3 HBA-Anschlüssen oder mehr
SATA HDDs (denke ich würde 4 oder 5 1TB HDDs zu einem RAID5 oder RAID6 zusammenschliessen, eventuell noch mit Hot-Spare
Redundantes Netzteil

Backup-Lösung 1:
Einer der jetzigen Server + Symantec BackupExec (bereits vorhanden) + externe HDDs (Sichere Lagerung ist garantiert)

Backup-Lösung 2:
Einer der jetzigen Server + ein Streamer (LTO3/LTO4) + passende Bändern (Staub ist kein Problem bei uns)

Habe ich etwas vergessen?
 
bin mir leider grad nicht ganz sicher wie die Lage ist, aber 8gbit FC ist glaube ich noch recht teuer, dual 4gbit sollten da auch locker reichen. Gibt auch glaube ich noch gar nicht soviele Entry Level Storages die 8gbit können.

Dann lieber mehr RAM oder schnellerer RAM falls der jeweilige Hersteller das anbietet, oder mehr Spindeln im RAID des Storages für RAID6, Cache Upgrade des Storages oder ne Software Lizenz des Storages die man nutzen könnte, Flashcopy o.Ä. kommt dann auf den Hersteller an.
 
warum 2? Willst du partou die hohe Bandbreite oder weshalb? Bei uns laufen Produktivserver mit 2x4Gbit und daran hängen pro Host mehr als 20 virtuelle Maschinen... aus dieser Sicht sollte das reichen. bin iwie grad verwirrt, also das Konstrukt ist.


Server hat nen Dual Port 4Gbit Hba ( also 2x4 ) und geht entweder direkt auf 2 ports des Storages ( normalerweise sind 4 Ports vorhanden ) oder auf 2 Ports eines Switches, oder 1 auf jeden Switch, welche wiederrum mit 4x4gbit ( 2 direkt, 2 gekreuzt ) auf das Storage gehen.
 
Zuletzt bearbeitet:
Bei den Dell Storage hat man z.B. eine SAN mit 2 Controllern, jeder davon hat 4x4GBit Anschlüsse. Dann muss ich doch mehr als nur 2 Kabel zur SAN legen, weil ich sonst wie der wie der Esel am Berg stehe, wenn ich beide am gleichen Controller anstecke...
 
jeder Controller des SAN hat vier Ports? Das ist sehr wohlwollend hinsichtlich der Tatsache das man auf einen FC Switch verzichten kann konzipiert. Jeder Host sollte bei weitem mit 2x4gbit auskommen, einer auf Controller A und einer auf Controller B (link pro Server). Die verbleibenen Ports sollte man , wenn man sie denn schon hat und keinen Switch, frei lassen für Migration- oder Erweiterungszwecke.

Es gibt sowieso eine Konstante die man bennenen sollte. Falls Ihr mit einer geringen Anzahl an Volumes ( LUNs ) arbeiten solltet , spielt natürlich die Geschwindigkeit des einzelnen Pfades zum Storage eine große Rolle. Desto weniger Volumes desto weniger Möglichkeiten die Pfade gleichmäßig auszulasten die dem Host zur Verfügung stehen. Ein Volume nutzt genau einen Pfad.

Hat man nur 2 Cluster Volumes an 2 Servern, brauch man natürlich die maximale Bandbreite pro gesteckter Verbindung zum Storage ( wobei auch hier 4gbit ausreichen sollten xD ). Sind es 4 Volumes kann jeder Server 2 Pfade verwenden.

Von daher wenn das Geld da ist, und das Storage mit den insg. 8 ports auch 8gbit hat dann Feuer frei für die 8gbit Strecke :d Insofern der Raid des Storages diese Geschwindigkeit überhaupt zur Verfügung stellen kann, geht das ab wie Schmidts Katze :)
 
Zuletzt bearbeitet:
das habe ich im Rahmen eines Projektes mal zur Verdeutlichung schnell per MSpaint gemacht, ist aber sehr verständlich wie ich finde :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh