Servervirtualisierung, Kaufberatung

Reaper2004

Semiprofi
Thread Starter
Mitglied seit
10.11.2005
Beiträge
1.486
Ort
Paderborn
Guten Morgen,

wir sind für ein mittelständiges Unternehmen auf der Suche nach neuer Serverhardware. Bevor wir uns mit Dell, oder anderen Systemhäusern "zusammensetzen", wollten wir erstmal unabhängige Meinungen einholen ;)

Folgendes Szenario:

Wir haben aktuell zwei Dell Poweredge Server, einer fürs ERP-System und einer für unser CAD-System.

Da es für beide Systeme neue Softwareversionen angeschaft werden und die vorhandene Hardware schon in die Tage gekommen ist, steht eine Neuanschaffung an.

Wir könnten theoretisch auch wieder zwei Eigenständige nehmen, aber bei dieser Lösung werden die Resourcen doch sehr schlecht ausgenutzt.

Deshalb steht die Idee im Raum, einen Server anzuschaffen, der diese beiden Server virtualisiert zur Verfügung steht.

Soweit so gut ;)

Jetzt ist die große Frage, wie man das am besten lösen könnte...

Eine Möglichkeit wäre ein Server mit integrierten Festplatten, oder einen Server + externes Storage.

Auch welche Virtualisierungslösung man wählen sollte ist uns nicht ganz klar, weil wir in dem Bereich nur Hobby-Erfahrung haben.(Hyper V, ESX / ESXi, Vm-ware usw.)


Vorraussetzungen: Tower Server ( kein Rackschrank vorhanden, könnte aber evtl zur Not angeschafft werden)

2 Win 2008 Maschinen

Besonders wichtig ist die Verfügbarkeit, da hier ohne ERP und Cad ca. 30 Mitarbeiter nach hause gehen könnten.
Wegen diesem Punkt stößt mir die virtuelle Lösung ein bisschen auf, denn mit 2 Hardwareservern würde wenigstens bei einem Defekt "nur" eine Anwendung ausfallen.

Gut, bei externen Storage könnte man evtl. mit einem Produktivserver und einen Backupserver, der bei Ausfall von a einspringen würde, planen. Das wird ja meine ich auch Master/Slave Lösung genannt, oder?

Ok, just in dem Moment hat ein Systemhaus angerufen und eine Vm-Ware Lösung vorgestellt, wo auf Server A der Server B virtualisiert wird und anders rum, hört sich soweit auch gut an.

Nachteil sind dann aber hohe (doppelte)Hardwarekosten und auch die doppelten Lizenskosten für die BS.

Budget liegt ca. bei 10k €(Wobei das glaube ich ziemlich knapp wird, dann muss der Vorgesetzte überzeugt werden, mehr zur Verfügung zu stellen).


Gruß,
Michael
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Von der Herangehensweise...
Im ersten Schritt solltest du/ihr prüfen, ob die eingesetzten Softwarelösungen überhaupt virtualisierbar sind (sprich gibt es eine offizielle Freigabe für den VM Einsatz?)

Erst danach kann überlegt werden, was man braucht an Hardware...

Möglichkeiten gibt es hier aber auch eine ganze Menge.
Entweder man baut nen Host mit "großem" (ausreichend schnellem) internem Storage, oder man nutzt nen Host mit externem Storage.
Letzteres ist gleich ne gute Ecke teurer, bietet dir aber die Möglichkeit später weitere Hosts an das System anzuschließen und so auch weitere VMs zu virtualisieren. Je nach Storagelösung lässt sich dieses sogar noch erweitern.
Die Frage sollte halt dort geklärt werden, wie der Zukunftsplan ausschaut.


Zur Hardware selbst. Es wird schwierig ohne Produkte und dessen Anforderungen zu kennen eine klare Hilfestellung zu geben.
Ich würde aber wohl 2xSAS 15k HDDs für die beiden VMs als OS Partition mit ausreichender Größe im Raid 1 vorschlagen. Dazu dann je nach Anforderung 2x2xSAS 15k HDDs im Raid 1 für die Daten. Bei mehr Platzbedarf auch gerne 2x4xSAS 15k...

Nachteil der all in One Host Version ist halt, er bietet keine Möglichkeit für Redundanzen auf Virtualisierer Ebene...
Man könnte zum Beispiel mit einem Dual Host System (zwei Server, ausreichend RAM, externes Storage) dazu ne VMWare ESX 4.1 Essentiel Plus Version schon eine stark erhöhte Verfügbarkeit bereit stellen.
Denn schmiert hier ein Host weg, könnte man via VMotion die VM quasi stressfrei auf dem anderen Host wieder booten.
Vorteil zwei man könnte die physischen Hosts unter Umständen etwas kleiner definieren. Also zum Beispiel zwei Single Sockel Maschinen. Wo dann jede der beiden eine VM ausführt und nur im Bedarfsfall (Beim Patchen der Hosts, im Fehlerfall eines Hosts) eine Maschine beide VMs tragen muss.
Das geht aber wie gesagt nur mit externem Storage... Günstigerweise bei zwei Hosts via iSCSI angebunden...

Es wird dann aber wohl mit den 10k€ schon schwer werden...
Ich finde aber auch die Herangehensweise etwas verkehrt muss ich sagen. Denn ein so geringes Höstbudge beist sich in meinen Augen klar mit der Aussage über die nötige Verfügbarkeit.
Wenn es wirklich High Available sein muss, dann brauchst du theoretisch zwei Hosts und zwei externe Storages, dazu ne doppelt redundante LAN/FC Verkablung zwischen den Hosts und den Storageblöcken. Dazu sollte die VM Lösung so eingerichtet werden, das diese Unterbrechungsfrei die VM zwischen den Hosts shared.
In dem Fall übersteigen aber definitiv die Hardwarekosten zum einen die 10k und zum anderen kommen nochmal annähernd 10k für die virtualisierungs Software dazu...

Das sollte euch bewusst sein ;)
 
Von der Herangehensweise...
Im ersten Schritt solltest du/ihr prüfen, ob die eingesetzten Softwarelösungen überhaupt virtualisierbar sind (sprich gibt es eine offizielle Freigabe für den VM Einsatz?)

Erst danach kann überlegt werden, was man braucht an Hardware...

Richtig, das wird gerade abgeklärt, es geht hier halt um ein Konzept und das Thema virtualisierung interessiert mich halt auch, deshalb sind die Rahmenbedingungen noch nicht abgesteckt.

Bis gestern stand auch nur eine neue Software und Server (CAD)fest, steckt also alles in der frühen Planungsphase.

Möglichkeiten gibt es hier aber auch eine ganze Menge.
Entweder man baut nen Host mit "großem" (ausreichend schnellem) internem Storage, oder man nutzt nen Host mit externem Storage.
Letzteres ist gleich ne gute Ecke teurer, bietet dir aber die Möglichkeit später weitere Hosts an das System anzuschließen und so auch weitere VMs zu virtualisieren. Je nach Storagelösung lässt sich dieses sogar noch erweitern.
Die Frage sollte halt dort geklärt werden, wie der Zukunftsplan ausschaut.

Das mit der Erweiterbarkeit ist der Punkt, der mich auch in diese Richtung lenkt. Exchange(Domain), oder Fileserver wären da Möglichkeiten für die Zukunft.


Zur Hardware selbst. Es wird schwierig ohne Produkte und dessen Anforderungen zu kennen eine klare Hilfestellung zu geben.
Ich würde aber wohl 2xSAS 15k HDDs für die beiden VMs als OS Partition mit ausreichender Größe im Raid 1 vorschlagen. Dazu dann je nach Anforderung 2x2xSAS 15k HDDs im Raid 1 für die Daten. Bei mehr Platzbedarf auch gerne 2x4xSAS 15k...

Die Hilfestellung bezog sich erstmal eher auf das generelle Konzept.
Festplattenkonfig war für den ursprünglich geplanten Einzelserver(CAD/DMS) ähnlich, wie von dir beschriebenm bevor das mit dem 2. Server fest stand.

Urpsrüngliche Planung Cad Server:
Quad mit 12gb ram(reicht dicke inkl. Reserven aus)
2x15k fürs System
6x300 gb 15k als Raid 10 für die "Datenbank", eher Datengrab.(Zeichnungen+DMS(Fotos, PDFs, Videos usw.).

So ähnlich sieht es bei dem noch aktuellen Server auch aus, nur halt mit Dualcore und weniger Festplatten Kapazität 4gb Ram und es läuft soweit prima.

Nachteil der all in One Host Version ist halt, er bietet keine Möglichkeit für Redundanzen auf Virtualisierer Ebene...
Man könnte zum Beispiel mit einem Dual Host System (zwei Server, ausreichend RAM, externes Storage) dazu ne VMWare ESX 4.1 Essentiel Plus Version schon eine stark erhöhte Verfügbarkeit bereit stellen.
Denn schmiert hier ein Host weg, könnte man via VMotion die VM quasi stressfrei auf dem anderen Host wieder booten.
Vorteil zwei man könnte die physischen Hosts unter Umständen etwas kleiner definieren. Also zum Beispiel zwei Single Sockel Maschinen. Wo dann jede der beiden eine VM ausführt und nur im Bedarfsfall (Beim Patchen der Hosts, im Fehlerfall eines Hosts) eine Maschine beide VMs tragen muss.
Das geht aber wie gesagt nur mit externem Storage... Günstigerweise bei zwei Hosts via iSCSI angebunden...

Genau in diese Richtung ging der Anruf eben vom Systemhaus auch, scheint also ganz vernünftig zu sein.


Es wird dann aber wohl mit den 10k€ schon schwer werden...
Ich finde aber auch die Herangehensweise etwas verkehrt muss ich sagen. Denn ein so geringes Höstbudge beist sich in meinen Augen klar mit der Aussage über die nötige Verfügbarkeit.
Wenn es wirklich High Available sein muss, dann brauchst du theoretisch zwei Hosts und zwei externe Storages, dazu ne doppelt redundante LAN/FC Verkablung zwischen den Hosts und den Storageblöcken. Dazu sollte die VM Lösung so eingerichtet werden, das diese Unterbrechungsfrei die VM zwischen den Hosts shared.
In dem Fall übersteigen aber definitiv die Hardwarekosten zum einen die 10k und zum anderen kommen nochmal annähernd 10k für die virtualisierungs Software dazu...

Budget wurde von mir geschätzt auf Grundlage eines Einzelpreises von ca. 5k für den angebotenen Dell Server für die Cad und das ganze x2 ;)

Naja du kennst das ja, wir sind ein Anlagenbauer und bei der EDV wird meistens gespart, bzw. es kommen Kommentare wie " WAAs soo teuer?".
Natürlich überspitzt ausgedrückt.
Als ich vor 6 Jahren die Ausbildung angefangen habe, waren die Server noch normale Desktop Pcs ;) Sprich die It ist schnell am wachsen und deshalb muss man den Chef halt erstmal von teuereren Anschaffungen überzeugen. Sprich die 10k werden wohl definitiv zur Verfügung stehen, alles was dadrüber geht wird man sehen.

Mit deiner beschriebenen Hochverfügbarkeit, wäre bei uns schon nen Overkill, hatte mich da jetzt nicht genau genug ausgedrückt.

Im moment ist ja auch keine Hochverfügbarkeit vorhanden, im Falle eines Ausfalles können die Konstrukteure zur Not Lokal weiterarbeiten, einige ERP- Arbeitsplätze können auch noch andere Dinge erledigen usw.

Es soll aber halt auf jeden Fall eine Lösung her die genauso gut/schlecht wie die jetzige ist, wünschenswert wäre natürlich eine bessere Lösung.


Aso, und schon mal danke für die schnelle Antwort von Dir!
 
ich würde bei 2 Hosts entweder auf einen HA-cluster setzten, oder vlt. sogar Fault-Tolerance überdenken. - beides setzt aber ein zentrales Storage voraus - ich würde hier jedoch von iSCSI absehen und auf NFS setzten, dediziertes FC halte ich dann doch für Overkill.

Generell müsste für die Host-Grundlage auch die Rahmenbedingung für die VMs geklärt werden. - wieviel RAM, wieviel CPU-Zeit/Kerne - wie groß die HDDs?

Wir haben bei uns verschiedene Server 2008R2 laufen, je nach Anforderung mit nur 2GB als auch mit 12GB RAM - das sollte also als erstes feststehen.
 
Genau, HA-Cluster hatte der IBM-Syshaus Mensch vorhin meine ich auch angesprochen, bzw. VSphere, was das ja sein müsste.
Wegen Fault- Tolerance muss ich mir mal anschauen, wo da die genauen Unterschiede liegen. Du kannst es natürlich auch kurz auf den Punkt bringen wenn das geht. Ich sehe auf der schnelle den Unterschied, dass automatisch eine neue sek. Virtuelle Maschine gestartet wird sollte eine ausfallen.

Warum meinst du, dass iscsi nicht zu empfehlen wäre?

Ich hatte mir mal den DELL PowerVault MD1000 angeschaut, weil der noch einigermaßen erschwinglich ist, der hat aber halt iscsi...


Gruß
 
Die Frage ist halt, willst du wirklich jetzt, wo eine Neuanschaffung quasi gewollt ist, nur die gleichen Features haben wie die alte Version bot?

Ich denke bei so einem Umbau (und unter der Vorraussicht, das man derartige Systeme dann für 3-5Jahre ausrichtet) macht es schon Sinn, etwas "mehr" zu nehmen... Oder zumindest die Vorbereitungen zu treffen.


Zum Thema Chef und Budge "aus dem Kreuz leiern"... Das geht oft ganz einfach. Da gibts schöne Rechnungen wie Kostenerzeugung durch Arbeitsausfall usw.
Man rechne ihm zum Beispiel vor, was ein Systemstillstand von sagen wir 12h oder 24h an Kosten erzeugt bzw. durch Arbeitsausfall nicht einbringt.
Da kommen auch in kleineren Umgebungen gern mal drei vier fünf tausend Euro zusammen.

Ich denke man sollte aber auch etwas die Kirche im Dorf lassen... Als sinnvolle Größenordnung würde ich hier vorerst zwei Hosts (also zwei physische Server) sehen, die an einem externen Storage klemmen... Aus Kostengründen würde ich hier iSCSI nutzen.

Mir schwebt hier zum Beispiel folgendes vor:
2x DL360G6 oder DL360G7 von HP, zwei kleine Quadcore CPUs mit ~2,25GHz, 16-24GB RAM, zwei kleine interne SAS oder SATA HDDs für die Virtualisierungssoftware.
Als Storage würd ich ne MSA nutzen, mit Dualcontroller für iSCSI. Als Single Enclosure Version passen dort 12x3,5" SATA/SAS HDDs rein... (Erweiterbar ist das Teil intern auf glaube ich bis 5 Enclosurs, also 12x5x3,5" HDDs)

Dazu würde ich ne VMWare VSphare 4.1 Ess. Plus nutzen. Den VCenter Server kann man auch virtualisieren. Der VCenter ist dann zentrale Managementplattform für die ESX Hosts. Und bietet in der Ess. Plus Version die Möglichkeit bis zu sechs CPU Sockel zu lizensieren. Das heist du kannst so viele Hosts mit aufnehmen in das Produkt, in Summe sechs CPU Sockel aktiv mit CPUs bestückt sind. (also 6xSingle CPU Maschine, oder drei Dual CPU Maschinen usw.)
Zu den Servern würde ich dann noch jeweils ne DualPort 1GBit NIC zuschieben. Dann jeden Host über am besten zwei Switches doppelt Redundant an die MSA anbinden.

Ich würde behaupten, reine Hardwarekosten + Kosten für die VSphare Lizenz liegen dann in Summe bei groben 15-18k €. Je nach Systemhaus bei dem gekauft wird geht das schon als Projekt durch... Und dementsprechend gibts noch mal gut Rabatt.


Mit der Lösung hättest du einzig die HDDs als SinglePoint of Failure. Sprich kloppt es mehr wie eine HDD gleichzeitig weg. Wirds je nach Raidlevel schwer...


Was mir da noch so einfällt. Wie ist das Thema Backup bei der Geschichte gelöst?
Denn die beste Hardware nutzt nix ohne ein anständiges Backup.
Bei den VMWare Lösungen könnte man zum Beispiel mit VCB und nem gebauten Script die Maschinen schnell und effizient Backupen. Und nach diesem Vorgang dann auf ein externes Medium schieben.

PS: ich seh grad, das ihr über Dell nachdenkt. Die HP Produkte die ich nannte gibts natürlich bei Dell auch in ähnlicher Form. ;)

Genau, HA-Cluster hatte der IBM-Syshaus Mensch vorhin meine ich auch angesprochen, bzw. VSphere, was das ja sein müsste.
Wegen Fault- Tolerance muss ich mir mal anschauen, wo da die genauen Unterschiede liegen. Du kannst es natürlich auch kurz auf den Punkt bringen wenn das geht. Ich sehe auf der schnelle den Unterschied, dass automatisch eine neue sek. Virtuelle Maschine gestartet wird sollte eine ausfallen.

HA heist "nur" High Availability... Je nachdem wie schnell der Spaß wieder laufen muss gibts da mehrere Möglichkeiten.
FT ist wohl die größte die VMWare in dem Fall bietet, bringt aber auch starke Nachteile mit sich.
Will man FT nutzen, geht nur ein Core/eine CPU pro VM. Je nach Service kann das zu wenig sein. Des weiteren werden auf allen Hosts, die am FT für die VM teilnehmen die gleichen Ressourcen belegt. Also Bildlich. die VM hat 4GB RAM. Und du hast zwei Hosts. So belegt diese VM auf beiden Hosts eben 4GB RAM und nutzt die CPU Ressourcen beider Hosts.
Du verlierst für das Feature quasi 50% der Ressourcen.

Ich denke in "normalen" Umgebungen reicht es VMotion vollkommen aus. Das heist, ein Host crasht und du startest die VM auf nem anderen Host automatisch (gescriptet) oder händisch einfach neu... Es gibt also definitiv einen Unterbruch, aber je nach Alamierungssystem definiert der zuständige Admin diese Zeit, wie schnell er halt reagiert (reagieren kann)
 
Zuletzt bearbeitet:
Die Frage ist halt, willst du wirklich jetzt, wo eine Neuanschaffung quasi gewollt ist, nur die gleichen Features haben wie die alte Version bot?

Ich denke bei so einem Umbau (und unter der Vorraussicht, das man derartige Systeme dann für 3-5Jahre ausrichtet) macht es schon Sinn, etwas "mehr" zu nehmen... Oder zumindest die Vorbereitungen zu treffen.

Ganz genau, deshalb meinte ich gleich gut, oder besser, wobei das halt in Bezug auf Verfügbarkeit gemeint war.

Gerade weil ich ja was nachhaltiges und professionelleres habe wollte, bin ich ja jetzt auf die Virtualisierung mit externem Storage gekommen. Wie du schon sagtest bringt das ja auch für zukünftige Anschaffungen/Erweiterungen was.
Meine Aussage bezog sich eher auf das redundante Storage und Lan, was mir dann doch ein wenig zu übertrieben vorkam(womit ich nicht sagen will, dass es nicht sinnvoll ist, sondern einfach nur zu teuer).

Zum Thema Chef und Budge "aus dem Kreuz leiern"... Das geht oft ganz einfach. Da gibts schöne Rechnungen wie Kostenerzeugung durch Arbeitsausfall usw.
Man rechne ihm zum Beispiel vor, was ein Systemstillstand von sagen wir 12h oder 24h an Kosten erzeugt bzw. durch Arbeitsausfall nicht einbringt.
Da kommen auch in kleineren Umgebungen gern mal drei vier fünf tausend Euro zusammen.

Genau, er ist auch kein sturer Dickkopf, es sollte halt nur in einem vernünfitgen Verhältnis stehen. Von einem Tag auf den anderen wird er das Budget nicht gleich vervielfachen.


Ich denke man sollte aber auch etwas die Kirche im Dorf lassen... Als sinnvolle Größenordnung würde ich hier vorerst zwei Hosts (also zwei physische Server) sehen, die an einem externen Storage klemmen... Aus Kostengründen würde ich hier iSCSI nutzen.

Exakt, ich denke diese Lösung werde ich versuchen ihm schmackhaft zu machen.


Mir schwebt hier zum Beispiel folgendes vor:
2x DL360G6 oder DL360G7 von HP, zwei kleine Quadcore CPUs mit ~2,25GHz, 16-24GB RAM, zwei kleine interne SAS oder SATA HDDs für die Virtualisierungssoftware.
Als Storage würd ich ne MSA nutzen, mit Dualcontroller für iSCSI. Als Single Enclosure Version passen dort 12x3,5" SATA/SAS HDDs rein... (Erweiterbar ist das Teil intern auf glaube ich bis 5 Enclosurs, also 12x5x3,5" HDDs)


PS: ich seh grad, das ihr über Dell nachdenkt. Die HP Produkte die ich nannte gibts natürlich bei Dell auch in ähnlicher Form.

Zu den Servern würde ich dann noch jeweils ne DualPort 1GBit NIC zuschieben. Dann jeden Host über am besten zwei Switches doppelt Redundant an die MSA anbinden.

Ja genau, wobei Dell kein muss ist. Sind halt unsere alten Server her, womit wir immer zufrieden waren. Und das Systemhaus in der Nähe vertreibt IBM.

Wofür steht das MSA, finde das nirgends :(
Wofür bräuchten wir noch die Netzwerkschnittstelle, wenns per scsi angeschlossen ist? Wegen redundanz?


Würde sowas nicht auch reichen?
Details zum Direct Attached Storage Array Dell PowerVault MD1000 | Dell


Dazu würde ich ne VMWare VSphare 4.1 Ess. Plus nutzen. Den VCenter Server kann man auch virtualisieren. Der VCenter ist dann zentrale Managementplattform für die ESX Hosts. Und bietet in der Ess. Plus Version die Möglichkeit bis zu sechs CPU Sockel zu lizensieren. Das heist du kannst so viele Hosts mit aufnehmen in das Produkt, in Summe sechs CPU Sockel aktiv mit CPUs bestückt sind. (also 6xSingle CPU Maschine, oder drei Dual CPU Maschinen usw.)

Jup.

Was mir da noch so einfällt. Wie ist das Thema Backup bei der Geschichte gelöst?
Denn die beste Hardware nutzt nix ohne ein anständiges Backup.
Bei den VMWare Lösungen könnte man zum Beispiel mit VCB und nem gebauten Script die Maschinen schnell und effizient Backupen. Und nach diesem Vorgang dann auf ein externes Medium schieben.

Ah, gerade nach Vcb geguckt, deshalb auch die Lananbindung?

Wir setzen im Moment Backup Excec ein, dort war eigentlich auch keine Neuanschaffung geplant, wobei ich mich da auch noch schlau machen muss, wg zusätzlichen Agents und ob es überhaupt mit virtuellen Maschinen klar kommt, danke für den Tip! Wegen VCP muss ich auch noch mal schauen wie das genau läuft.

Edit:
Wg. Backup:
Im alten cad server war zusätzlich noch nen raid 1 mit sata als b2d und von dort aus dann auf Band.
Bandlaufwerk muss aber auch ein neues angeschaft werden wegen Kapazitätsgründen.
Backupsoftware muss allerdings doch neu angeschaft werden, ursprüglich war geplant für den Cad mit win 2008 ne extra Instanz zu kaufen, da wir jetzt dann aber 2 Server, oder die virtuelle Lösung habe brauchen wir da auch was neues, sonst wird es viel zu kompliziert.

Jaaja, das wird dann doch schon ne ordentliche Umstellung und Neuanschaffung werden, nen Rackschrank bräuchten wir ultimativ auch noch, im moment sinds halt alles Towerserver...
 
Zuletzt bearbeitet:
Die MD1000 ist quasi wie ne MSA von HP. Aber die MD1000 kannst gleich wieder vergessen. Das zwar ein externes Case, aber diese wird direkt via externem SAS an einen Raidcontroller angebunden. Das dürfte für das Vorhaben nicht gehen. Denn du willst nicht das Storage an nur einem Host nutzen, sondern mehrere Hosts sollen auf das Storage greifen dürften. Dafür nutzt man NFS, iSCSI oder FibreChannel als Verbindung.

iSCSI ist ein über LAN Übertragener Standard um HDDs an eine Maschine anzubinden. FC bietet im Gegensatz zu iSCSI die Möglichkeit das ganze via LWL anzubinden mit bis zu 8GBit/sec. iSCSI und NFS laufen üblicherweise über 1GBit/sec Ethernet. Wobei auch 10GBit/sec möglich wären. Aber dann kosten die Karten + Switches gleich genau so viel wie bei FC, vllt gar noch mehr...


Such mal bei Dell nach ner StorageLibrary iSCSI Dualcontroller anbindung. Dualcontroller deshalb, weil du so zwei Raidcontroller, zwei Management Interfaces und so auch alles doppelt in der Büchse hast, falls da mal was wegbrennt (bei HP ist Kostentechnisch der Unterschied zur Singlecontrollerversion ein Witz)
Das Gerät selbst baut dann intern das Raid auf den HDDs auf, wie du es willst und stellt das Raid in Form von LUNs (also quasi Bereitstellungspunkte) den Hosts bereit...
Der Host/die Hosts mountet/en das LUN und hat/haben Zugriff auf die Platten...


Ne DualPort NIC deswegen, weil du für doppelt Redundante Anbindung der Hosts an die StorageLibrary zwei LAN Strippen brauchst. Willst du das ganze noch Trunken müssen es vier pro Host sein.
Je nachdem wie viele OnBoard Ports der Host mitbringt wirds da schnell gar bei vier OnBoard NICs ganz eng.

Für die HA Features brauchst du ebenso noch ne dedizierte NIC. (also für VMotion um die VMs von Host zu Host zu schieben, wärend der Fahrt)

Und eine Schnittstelle um die VMs mit dem Rest LAN sprechen zu lassen brauchst du ebenso ;)
Da kommen schon einige NICs zusammen.



Zum Thema VCB, es bringt dir den Vorteil die ganze Maschine inkl. OS und allem drum und dran zu sichern. Also nicht nur die Nutzdaten selbst.
Bist du gezwungen zu Restoren geht eine vollständige Wiederherstellung quasi auf jeglichen VMWare Produkten, welche die VM Version unterstützen. (idR VM V7) Was von VMWare Player, der Workstation, den neuen 4er ESX und ESXi Servern definitiv unterstützt wird.


EDIT:
Wenn du sagst, du brauchst ein neues Bandlaufwerk sowieso... Ich empfehle bei der Geschichte gern den Backup Server (also den Server, wo das Bandlaufwerk dran klemmt) als VCenter Server zu nutzen. Denn so hast du das schon in einem Boot und kannst zur Not fix mal ne Maschien backupen oder restoren.
Ebenso wäre ein Befüllen der Bänder mit den von VCB erzeugen Copien möglich. Ne anständige Backupsoftware brauchs aber dennoch um die Bänder zu befüllen. Aber es reicht für die VM Backups ein einziger Agend für Filesystemzugriffe, nämlich den, wo der VCenter Dienst inkl. dem VCB drauf läuft...
 
Zuletzt bearbeitet:
Ok, vielen Dank!

Werde mir das morgen noch mal alles genauer angucken.

Mache jetzt erstmal Feierabend.
 
zwecks Server: du könntest mal bei Thomas-Krenn vorbeischauen.. die server sind super, support auch und du kannst die nur hardware anzeigen lassen die für das entsprechende OS zertifiziert ist...

als Virtualisierung würde ich dir evtl noch XenServer empfehlen, das kann auch so LiveMigration ohne das du dafür geld ausgeben musst im gegensatz zu VMware (meines wissens nach).. und der rest sollte auch so reichen da du keine HA-sachen brauchst..
 
Zuletzt bearbeitet:
schonmal überlegt so ein "projekt" auszulagern?

sprich, dienstleister hosted euch das ganze und ihr geht per kA citrix da drauf? dazu muss halt eine ausreichende Internetleitung vorhanden sein.

weiss ja nicht, wie groß die firma ist, wie viele User das betrifft etc.
 
schonmal überlegt so ein "projekt" auszulagern?

sprich, dienstleister hosted euch das ganze und ihr geht per kA citrix da drauf? dazu muss halt eine ausreichende Internetleitung vorhanden sein.

weiss ja nicht, wie groß die firma ist, wie viele User das betrifft etc.

Schon mal auf die angesprochenen HDDs bzw. dessen Platz geschaut?
Das willst du nicht übers lahme INet "lutschen"
Und der nächste Punkt bei sowas ist immer, ist das Auslagern sicher genug? Denn 100% Sicherheit gibts nicht wenn unbekannte Leute Zugriff auf das System haben...

Cloud Computing bzw. Diensteauslagerung im allgemeinen scheint mittlerweile genau so in Mode zukommen, wie virtualisieren. Dauert nicht mehr lange, dann wollen das alle haben nur weils andere auch machen (das Gefühl hab ich mittlerweile beim Thema virtualisieren)


@Colttt
welche virtualisierungslösung man schlussendlich nutzt, hängt von den genutzten Features und den Kosten ab. VMWare kommt zwar teils am schlechtesten im Preis weg. Bringt aber auch die meiste Marktmacht und dementsprechend auch Zertifizierungen für Produkte mit.
Das würde ich aber erst im nächsten Step festlegen...

Wobei so ne Ess.Plus Version als sechs Host CPU Version inkl. VCenter als zentrales Management mit seinen grob 500-1000€ nun nicht die Welt kostet...
 
zwecks Server: du könntest mal bei Thomas-Krenn vorbeischauen.. die server sind super, support auch und du kannst die nur hardware anzeigen lassen die für das entsprechende OS zertifiziert ist...

als Virtualisierung würde ich dir evtl noch XenServer empfehlen, das kann auch so LiveMigration ohne das du dafür geld ausgeben musst im gegensatz zu VMware (meines wissens nach).. und der rest sollte auch so reichen da du keine HA-sachen brauchst..

Hi, den XenServer werden wir uns auch mal anschauen. Wegen Thomas Kern muss ich mal schauen, weiß auch nicht was mein Vorgesetzter davon hält, weil man die halt nicht so kennt. Denke wir arbeitern eher mit unseren jetzigen Systemhäusern zusammen.


schonmal überlegt so ein "projekt" auszulagern?

sprich, dienstleister hosted euch das ganze und ihr geht per kA citrix da drauf? dazu muss halt eine ausreichende Internetleitung vorhanden sein.

weiss ja nicht, wie groß die firma ist, wie viele User das betrifft etc.

Ne, sowas kommt nicht in Frage. Exchange auszulagern geht ja vielleicht noch, aber selbst da wäre der Chef und auch ich skeptisch. Ist halt immer so eine Sache Geschäftskritische Daten auszulagern... Ausserdem geht es bei uns alleine aufgrund der Internetanbindung nicht, denn im Moment haben wir ne 16000er Leitung und hier ist im Moment leider auch nicht mehr möglich.
Aber selbst wenn wir hier 100mbit hätten wäre das für die Cad wahrscheinlich zu langsam. Wir haben vor ein paar Jahren nicht ohne Grund auf Gigabit Lan umgestellt, weil wir geschwindigkeitsprobleme beim laden von Zeichnungen hatten(Ich muss dazu sagen, dass es sich teilweise um rießige Anlagen über komplette Hallen handelt).


Schon mal auf die angesprochenen HDDs bzw. dessen Platz geschaut?
Das willst du nicht übers lahme INet "lutschen"
Und der nächste Punkt bei sowas ist immer, ist das Auslagern sicher genug? Denn 100% Sicherheit gibts nicht wenn unbekannte Leute Zugriff auf das System haben...

Cloud Computing bzw. Diensteauslagerung im allgemeinen scheint mittlerweile genau so in Mode zukommen, wie virtualisieren. Dauert nicht mehr lange, dann wollen das alle haben nur weils andere auch machen (das Gefühl hab ich mittlerweile beim Thema virtualisieren)

Jup, das Gefühl habe ich allerdings auch...

welche virtualisierungslösung man schlussendlich nutzt, hängt von den genutzten Features und den Kosten ab. VMWare kommt zwar teils am schlechtesten im Preis weg. Bringt aber auch die meiste Marktmacht und dementsprechend auch Zertifizierungen für Produkte mit.
Das würde ich aber erst im nächsten Step festlegen...

Wobei so ne Ess.Plus Version als sechs Host CPU Version inkl. VCenter als zentrales Management mit seinen grob 500-1000€ nun nicht die Welt kostet...

Ja, wenn diese Lösung mit Vmware super funktioniert, fände ich den Preis durchaus angemessen.

Wie sieht das allgemein eigentlich mit Support bei den virtualisierungs Firmen aus? Kann man da auch mal mit nem allgemeinen Problem anrufen und einem wird geholfen, oder brauchts da schon Programmfehler?


Noch mal wegen iscsi:

Hatte mich damit noch nicht vorher beschäftigt, leider. Aber warum wird das so gemacht, dachte es gäbe auch sowas wie ich vorher meinte, also mit sas nur mit 2 Anschlüssen, denn das wäre doch von der Bandbreite her viel schneller. Bei einer 1gbit Anbindung bremse ich doch alles extrem aus, oder nicht? Ich meine wenn die Clients mit 1gbit zugreifen und die Server auf die Platten nur mit 1gbit zugreifen können, gerade bei mehreren gleichzeitigen Anfragen. Da ist man ja schon fast gezwungen auf lwl zu gehen, oder nicht?

Edit:

Ok, das was ich meinte gibt es auch, aber die Teile kosten zumindest bei Dell auch ne Menge:
http://www.dell.com/de/unternehmen/p/powervault-md3200/pd

Gruß,
Michael
 
Zuletzt bearbeitet:
Hallo, kommt immer drauf an, was Du dort zur Verfügung stellst, nen Fileserver würde ich so nicht virtualisieren.

FC bietet neben der Geschwindigkeit durch das dedizierte SNetzwerk auch ein gewisses Maß an Sicherheit, das denke ich ist bei einer relativ kleinen Firma aber vernachlässigbar.

Wenn es wirklich um hohe IOPs geht, nimm SAS-Platten und NFS - ist der Datendurchsatz relativ egal, nimm SAS-Platten und iSCSI

NFS ist übrigens auch die Empfehlung von NetApp und VMware ;)
SATA-Platten halte ich für Serveranwendungen unangebracht! - Wenn man reine Log-Daten sichern möchte ist der Platz im Vergleich zum Preis sicher hier die bessere Wahl, aber alles andere kann man mit den SAS-HDD's doch performanter lösen.

Wie wäre es, wenn man erstmal die genauen Anforderungen absteckt, bevor man eine Umgebung plant und sich über das Design Gedanken macht?

- machen wir bei unseren Kunden auch so.
 
Hi, den XenServer werden wir uns auch mal anschauen. Wegen Thomas Kern muss ich mal schauen, weiß auch nicht was mein Vorgesetzter davon hält, weil man die halt nicht so kennt. Denke wir arbeitern eher mit unseren jetzigen Systemhäusern zusammen.
Was die kennt man halt nicht so?? Guckst selten in Zeitungen oder? Und diverse Auszeichnungen haben sie auch schon erhalten, davon abgesehn nur weil du oder chefe sie nicht kennt heisst das noch länmgst nicht das sie "unbekannt" sind(ohne es böse zu meinen), aber genug der "Werbung" ;)

Ja, wenn diese Lösung mit Vmware super funktioniert, fände ich den Preis durchaus angemessen.
guck dir an ob du die dinge dort brauchst und evtl bei einem Konkurrenten(XenServer) nicht billiger bzw für das gleiche Geld mehr bekommst.

Noch mal wegen iscsi:

Hatte mich damit noch nicht vorher beschäftigt, leider. Aber warum wird das so gemacht, dachte es gäbe auch sowas wie ich vorher meinte, also mit sas nur mit 2 Anschlüssen, denn das wäre doch von der Bandbreite her viel schneller. Bei einer 1gbit Anbindung bremse ich doch alles extrem aus, oder nicht? Ich meine wenn die Clients mit 1gbit zugreifen und die Server auf die Platten nur mit 1gbit zugreifen können, gerade bei mehreren gleichzeitigen Anfragen. Da ist man ja schon fast gezwungen auf lwl zu gehen, oder nicht?
nunja.. du kannst auch 10Gb-NICs nehemen.. dann sollte das reichen mit der Performance, muss der switch allerdings unterstützden.. oder du kaufst 4x10GB-NICs in den beiden Virtualisierungsservern jewals eine und auf dem Storage 2x und dann vie crossoverkabel verbinden.. aber keine garantie das das geht..:hmm:
 
Wenn's um nen HA-Cluster geht, kann ich dir eine Alternative empfehlen, die von den Lizenzkosten her günstiger als VMware ist. Wir implementieren das im Automotiv Bereich für Oracle DB Server, im Mittelstand für DC,Exchange, TerminalServer etc. Produkt ist Stratus Avance. Bei interesse PN an mich.
 
Hi, den XenServer werden wir uns auch mal anschauen. Wegen Thomas Kern muss ich mal schauen, weiß auch nicht was mein Vorgesetzter davon hält, weil man die halt nicht so kennt. Denke wir arbeitern eher mit unseren jetzigen Systemhäusern zusammen.

Wie gesagt ich würde mich nun nicht zwingend auf irgendwas versteifen zu Anfang. Sondern erstmal abklären, was benötigt wird. Danach kann man verschiedene Systemhäuser anfragen.
Auch macht es Sinn, wenn man bei einem Serverhersteller ist, bei diesem auch zu bleiben.

Wie sieht das allgemein eigentlich mit Support bei den virtualisierungs Firmen aus? Kann man da auch mal mit nem allgemeinen Problem anrufen und einem wird geholfen, oder brauchts da schon Programmfehler?

Du kaufst quasi nen mindest ein Jahres Supportvertrag mit... Kannst dehnen also auf den Sack gehen in der Zeit ;)
Im normal Fall wirst du aber bei irgendwelchen Problemchen oder Wewechen idR bei der Community am schnellsten und einfachsten eine Lösung finden.


Noch mal wegen iscsi:

Hatte mich damit noch nicht vorher beschäftigt, leider. Aber warum wird das so gemacht, dachte es gäbe auch sowas wie ich vorher meinte, also mit sas nur mit 2 Anschlüssen, denn das wäre doch von der Bandbreite her viel schneller. Bei einer 1gbit Anbindung bremse ich doch alles extrem aus, oder nicht? Ich meine wenn die Clients mit 1gbit zugreifen und die Server auf die Platten nur mit 1gbit zugreifen können, gerade bei mehreren gleichzeitigen Anfragen. Da ist man ja schon fast gezwungen auf lwl zu gehen, oder nicht?

Grundsätzlich schon. Aber du kannst den Spaß ja nach oben Skallieren.
Also Dual Anbindung (bei Dualcontroller je zwei Ports) getrunkt an den Switch.
Das gleiche für die Hosts...
Bei mehr Bumms brauch es dann 10GBit Netzwerkinfrastruktur oder eben Fibrechannel (8GBit)

Dennoch wie gesagt, die Kirche sollte im Dorf bleiben...
Es ist ja nicht so, das bei dem beschriebenen 30 Mann Betrieb diese 30 Mann gleichzeitig GB-weise die Files vom Server saugen.
Gut ich kenne das Verhalten der Nutzer nun nicht. Aber ich behaupte, ne 1GBit iSCSI Anbindung reicht vollkommen aus und wird nicht zum Limit... Zur Not den Spaß eben Trunken und gut ist...

Man sollte sich auch vor Augen halten, lass mal so nen Plan im CAD 100MB oder von mir aus auch 500MB sein. Bei vollem 1GBit Speed dauert ersteres zu laden genau eine Sekunde, letzteres halt grob 5 Sekunden.
Der nächste Knackpunkt, die Clients müssen den Speed auch aufnehmen können. Es nutzt nix den Server dick anzubinden und die Clients per SingleHDD als Flaschenhals zu lassen ;)


Zum anderen, iSCSI, NFS oder FC Anbindung bringt dir dazu noch den Vorteil, eben mehr wie ein paar Hosts anbinden zu können. In deinem Fall sinds zwar vorerst nur zwei Hosts. Aber lass mal noch ein paar Monate ins Land gehen. Dann kommt hier noch ein Server und da noch einer dazu... Und schon stehst du bei so ner fix eSAS Verkablung vor einem Problem.
iSCSI, NFS oder FC lässt sich je nach Anzahl der Switchports bis quasi fast ins unendliche Skallieren ;) Du könntest also übertrieben gesagt auch 100 Hosts an dieses eine Storage Array anbinden. Man bekommt extreme Flexibilität. Und das sollte man sich nicht verbauen. Gerade wenn du sagst, vielleicht später noch weitere Systeme zu virtualisieren.

Wenn es wirklich um hohe IOPs geht, nimm SAS-Platten und NFS - ist der Datendurchsatz relativ egal, nimm SAS-Platten und iSCSI

NFS ist übrigens auch die Empfehlung von NetApp und VMware ;)
NFS ist nahezu identisch mit iSCSI, was die Performance angeht. Je nach Produkt und implementation... Ich sehe da keine Unterschiede...

Zum Thema Sicherheit. Es bietet sich natürlich an ein dediziertes iSCSI/NFS VLAN zu nutzen ;) Oder gar eigene Switchtechnik dafür, je nach Performancebedarf und "Bumms" der Switches/Backplanes...


Wie wäre es, wenn man erstmal die genauen Anforderungen absteckt, bevor man eine Umgebung plant und sich über das Design Gedanken macht?

- machen wir bei unseren Kunden auch so.

Das seh ich auch so...

Was die kennt man halt nicht so?? Guckst selten in Zeitungen oder? Und diverse Auszeichnungen haben sie auch schon erhalten, davon abgesehn nur weil du oder chefe sie nicht kennt heisst das noch länmgst nicht das sie "unbekannt" sind(ohne es böse zu meinen), aber genug der "Werbung" ;)

Wo ist dein Problem?
Wenn er die nicht kennt muss man ihm sicher nix aufschwatzen... Und seien die Konditionen noch so gut. Am besten fährt man mit seinem bewährten Systemhaus. Dort kennt man die Ansprechpartner usw. Das ist oft mehr Wert als ein paar Euro zu sparen und sich in unbekanntes Fahrwasser zu begeben...
 
Was die kennt man halt nicht so?? Guckst selten in Zeitungen oder? Und diverse Auszeichnungen haben sie auch schon erhalten, davon abgesehn nur weil du oder chefe sie nicht kennt heisst das noch länmgst nicht das sie "unbekannt" sind(ohne es böse zu meinen), aber genug der "Werbung"

Ist ja gut ;)

Ich meinte nur, dass wir die nicht kannten, nicht das die allgemein unbekannt, oder in irgendeiner Art und Weise schlecht sind.
Blos gehe ich davon aus, dass sich mein Chef dann nicht so wohl damit fühlen würde. Ich stelle mir nur mal die Situation vor, dass was kaputt geht, dann heist es wieder, hätten wir doch wo anders gekauft, auch wenn das dann nur Vorurteile sind. Als ich mal nen paar Amd Desktops gekauft habe und einer davon war für den Chef, war auch immer Amd schuld wenn der Rechner/Software abgestürtzt ist.

Ausserdem finde ich es auch übersichtlicher, wenn man nicht so viele verschiedene Lieferanten hat.

Aber wie gesagt, danke für den Tip, anschauen werde ich mir das auf jeden Fall mal genauer. Ich gehe davon aus, dass Support usw. gut sind? Das war halt bei Dell und dem anderen Systemhaus immer ausgezeichnet.

guck dir an ob du die dinge dort brauchst und evtl bei einem Konkurrenten(XenServer) nicht billiger bzw für das gleiche Geld mehr bekommst.

Das werden wir auf jeden Fall machen, wobei es auch davon abhängt, was uns von den Systemhäusern für Lösungen angeboten werden.
Klar könnten wir das dann auch auf eigene Faust aufsetzen, aber dann ist die Kacke am dampfen, falls irgendwas nicht wie gewünscht läuft. Wie gesagt mit Virtualisierung wurde hier vorher noch nichts gemacht und wir haben hier auch nicht so viel Erfahrung mit. Aber das wird sich in den nächsten Tagen zeigen.

nunja.. du kannst auch 10Gb-NICs nehemen.. dann sollte das reichen mit der Performance, muss der switch allerdings unterstützden.. oder du kaufst 4x10GB-NICs in den beiden Virtualisierungsservern jewals eine und auf dem Storage 2x und dann vie crossoverkabel verbinden.. aber keine garantie das das geht..

Muss man sehen, ganz zur not kann man sich ja noch nen Switch mit lwl zulegen, oder oder auf die von mir verlinkte sas 6gbit Lösung mit mehreren Anschlüssen. Das mit dem Crossvertest lassen wir mal lieber ;)
 
Muss man sehen, ganz zur not kann man sich ja noch nen Switch mit lwl zulegen, oder oder auf die von mir verlinkte sas 6gbit Lösung mit mehreren Anschlüssen. Das mit dem Crossvertest lassen wir mal lieber ;)

Wie gesagt, die eSAS Version ist unflexibel. Das macht Sinn wenn du einen Host mit nem externen Storage erweitern willst. Aber auch nur dann...

Zum LWL, bedenke, FC nicht gleich Ethernet über LWL. Das sind zwei verschiedene Sachen. Für FC brauch es FC Switches und die sind nicht ganz günstig ;) Da kosten die Ports quasi einmalig "Lizenzkosten"...
 
Edit:

Wegen den Anforderungen:

Natürlich sollten die abgesteckt sein, die frage ist wer macht das hier in der Firma, leider keiner.
Die einzige Vorgabe war, neue Cad Software, neues Erp-System und jeweils ein Server. Die Serverhardware für dedizierte steht auch fest, bzw. die Hardwarevorraussetzungen. Das war es dann aber auch schon.
Wenn ich jetzt gar nichts anderes anstoßen würde, deshalb auch der Thread hier, würde es darauf hinauslaufen, dass ich einfach 2 dedizierte Server kaufe und gut ist.
Nur wollte ich jetzt halt mal über den Tellerrand schauen und mich nach besseren Konzepten umschauen, deshalb auch morgen noch mal nen Gespräch mit nem Systemhaus um die Ecke.

Der Mitarbeiter die vom Erp Hersteller hier waren, meinten das Virtualisierung kein Problem sei, bei dem Cad Hersteller hatte ich gestern niemanden mehr erreicht.

@fdsonne

Hatte deinen letzten Post noch nicht gelesen als ich das geschrieben habe, mit der unflexibilität ist wirklich nen wichtiger Punkt.

Und das mit Fc auch ;)
 
Zuletzt bearbeitet:
@ Reaper, dann gib doch mal die Anforderungen (CPU-Cores, RAM und HDD-Größe) bekannt!

Denn wenn das alles ist, seh ich in der Gigabit-Anbindung ans Storage kein Problem ;)
Die Frage ist und bleibt halt, wieviel IO-Last die VMs erzeugen - nen normaler Server, der meist nur rumidelt, den kann man getrost auch auf kleinen langsamen platten laufen lassen, nen TerminalServer, der ständig benutzt wird, ist schon was anderes.
 
Jup, kommt sofort :)

Soviel vorweg, die meiste Zeit ideln die Server wirklich rum, deshalb auch die idee einem Server und virtualisierung.

Also im Moment haben wir für die Cad:

Dual Core Xeon ~ 3ghz cpu last liegt unter 10%, ne Minute beobachtet, weis nicht wie hoch es bei spitzen geht
4gb Ram|| verfügbar aktuell 1gb
kleines raid 1 sas 15k fürs System
raid 10 4x 15k 136 gb
oracle datenbank auf dem Systemlaufwerk

Für den neuen brauchen wir jetzt auch nicht viel mehr Leistung, die alten Server sind nur alt und Service läuft aus.

Neuer Cad Server, so habe ich es mal geplant.

Quad Core Xeon
12gb Ram
2x15k raid 1 fürs System
6x 300gb Raid 10 fürs Datengrab(Zeichnungen/ DMS)
Sql 2008 wird mit auf die Systemplatte gepackt, alternativ ginge auch aufs raid 10
Win Server 2008r2

Hatte da gerade noch mal angerufen , andere Kunden setzen auch Vmware ohne Probleme ein.
Mindestvorraussetzung waren 4gb ram, aber bei den Preisen habe ich mal 12gb genommen.

Der zweite Server wird ähnlich sein, bloß nicht mit so einem großen raid 10
Statt dem Raid 10 ist aktuell ein Raid 5 im Einsatz für die Datenbank. Und ein Raid für logs.
Cpu war ein quad xeon mit 1,6 ghz.

Diese Angaben beziehen sich natürlich auf dedizierte Server ohne Vm.

Und noch mal vielen Dank für die rege Teilnahme an alle!
 
Zuletzt bearbeitet:
Die DB auf keinen Fall auf das Systemlaufwerk... ;)

Warum eigentlich 6x300GB im Raid 10?
Das macht in meinen Augen absolut gar keinen Sinn...
Ich würd hier klar größere Platten nutzen. mindestens 450er, besser gar 600er... Und nur vier nutzen.

ok ist evtl etwas OT, aber warum Raind 10 und nicht Raid6?

Weil Raid 6 absolut ungeeignet für Datenbanken ist. Dazu noch die Problematik der hohen Last für den Controller durch die doppelte Paritätsdatenberechnung.
 
Zuletzt bearbeitet:
Gute Frage!

Damals erschien es als guter Kompromiss aus Leistung und Sicherheit.
Habe mir das mit Raid 6 gerade mal durchgelesen und scheint auch ne gute Option zu sein.
Komisch damals wurde nur zwischen 5 und 10 gependelt, ich kann jetzt ehrlich gesagt nicht mehr sagen warum das nicht in Frage kam.
Ich hatte jetzt nur was von längerer Wiederherstellung und geringe Schreibperformance gelesen, wobei der erste Punkt kritischer wäre.

Was mir aber jetzt noch einfällt wäre die Erweiterung des Raids, kann man bei 6 auch einfach zusätzliche Festplatten dran hängen um die Kapazität zu erhöhen?
Ausserdem meinte der von Dell noch das sich bei raid 10 auch die Leseperformance mit Anzahl der Platten erhöht.

@fd

Die 6x 300 hatten wir jetzt erst gemacht, weil die größeren überproportional teurer waren.
Hm, gerade noch mal geschaut, stimmt so gar nicht, vielleicht wars auch nen Fehler bei dem im System.
Wie oben geschrieben, meinte er aber auch noch dass mehrere Platten perfomanter sind.

Also so langsam verliere ich den glauben...
Die vom Cad Hersteller hatten das damals so eingerichtet mit der Datenbank auf dem Systemraid. Die dahinterliegenden Daten liegen auf dem Raid 10.

So noch mal:

Cad Server:

C:\ :
System
oracle

d:\ heliosvaultserver

Hier liegen Zeichnungen, und Dms(Dokumente usw)
Diese haben zusätzlich auch noch mal ne kleine Datenbank.
Der Ordner wird auch mit externen Konstrukeuren repliziert.

Ich werde aber hier auch noch mal nach den Hintergründen fragen.
 
Zuletzt bearbeitet:
Leseperformance erhöht sich auch bei Raid5 und 6 mit der Anzahl der HDDs ;)
Nachteil ist aber, kleine Files, gleichzeitige Zugriffe usw. schmecken Raidlevel mit Paritätsdatenberechnung nicht wirklich, dort nutzt man ganz klassisch Raid 1 oder 10 mit hot- oder coldspare.

Zum Speed, klar sind sechs HDDs schneller als vier. Aber bedenke, durch 1x1GBit Netzwerkinterface bekommst du genau 125MB/sec maximal durch. Realistisch wenns gut ist sind so um die 120MB/sec.
Das schafft eine einzelne 15k SAS Platte von heute schon allein... Alles was an Platten hinten noch dran hängt bringt intern riesen Performance, die nicht genutzt werden kann...

Auch spielen Zugriffszeiten für gleichzeitige Zugriffe viel mehr ne Rolle als sequenzielle Datenraten. (bei Datenbanken ganz extrem) Und die Zugriffszeiten werden mit steigender HDD Anzahl nicht geringer im Raid. ;)
 
Wie ist denn das read/write Verhältnis eurer DB? Wenn mehr in die DB geschrieben wird, ist das RAID 10 vorzuziehen, da dort mehr IOPS möglich sind. Wird hauptsächlich von der DB gelesen, könnte man auch ein RAID 5 nehmen, da beim lesen das RAID 5 und das RAID 10 die gleiche Anzahl an IOPS hat (unter Berücksichtigung, dass man das RAID mit der gleichen Plattenanzahl vergleicht).
Um die Performance zu steigern, würde ich die DB und die Logs auf unterschiednliche Platten/RAID legen.
 
So,

da bin ich wieder ;)

Wobei so ne Ess.Plus Version als sechs Host CPU Version inkl. VCenter als zentrales Management mit seinen grob 500-1000€ nun nicht die Welt kostet...

Kann das sein, dass du dich hier vertan hast?
So wie ich das sehe kostet die Plus Version um die 3000€, die Version ohne Plus liegt bei <1000€...

Die größeren Platten werde ich auf jeden Fall beachten, dann bleibt auch mehr Platz für Erweiterungen.


Wie ist denn das read/write Verhältnis eurer DB? Wenn mehr in die DB geschrieben wird, ist das RAID 10 vorzuziehen, da dort mehr IOPS möglich sind. Wird hauptsächlich von der DB gelesen, könnte man auch ein RAID 5 nehmen, da beim lesen das RAID 5 und das RAID 10 die gleiche Anzahl an IOPS hat (unter Berücksichtigung, dass man das RAID mit der gleichen Plattenanzahl vergleicht).
Um die Performance zu steigern, würde ich die DB und die Logs auf unterschiednliche Platten/RAID legen.

Also nach Rücksprache mit dem Konstrukeursleiter wird wohl eher mehr gelesen als geschrieben, Zwischensicherungen werden lokal auf den Clients gespeichert. Wobei das eher gefühlte Aussagen sind.
Beim Erp-System sollte es ähnlich aussehen, dort wird wohl auch mehr gelesen als geschrieben.

Was ich allgemein noch dazu sagen muss, gleichzeitig arbeiten max. 15 Leute mit dem Erp-System und beim Cad System siehts ähnlich aus. Also die Wahrscheinlichkeit, dass mehrere Leute gleichzeitig schreiben ist nicht so hoch, beim lesen natürlich schon, aber das sind jetzt nicht so hohe Zahlen.
 
... Aus Kostengründen würde ich hier iSCSI nutzen.

Ich würde eher die SAS Variante (HP P2000sa) bevorzugen. Sollte fürs gleiche Geld wesentlich mehr Performance bieten.
Ich weiß grad nicht ob du das geschrieben hast oder jemand anderes, aber die P2000sa kann man meiner Meinung nach sehr wohl an mehrere Host klemmen, genau das planen wir hier.

Den VCenter Server kann man auch virtualisieren. Der VCenter ist dann zentrale Managementplattform für die ESX Hosts.

Ganz gefährlich und FALSCH! Das Vcenter ist für die Überwachung und das automatische HA/Vmotion zuständig. Wenn du das auf den Hosts mit virtualisierst und diese ausfallen, wars das mit HA :rolleyes:
 
Mehrere Hosts vllt. Aber wie viele denn?
Was machst du wenn du nen weiteren Server dran klemmen musst/willst?

Und zum Thema VC virtualisieren. Das ist absolut kein Problem... Es ging um die Ess.Plus Version und da gibts sowieso kein HA. Mal ganz davon ab, kann man das VC auch auf nem anderen Host (beispielsweise nem Single ESXi virtualisieren oder wie auch immer)
Machen wir hier auch so... ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh