Neue Serverlösung gesucht

passat3233

Urgestein
Thread Starter
Mitglied seit
01.05.2007
Beiträge
4.383
Hallo,

ich suche eine neue Serverlösung für unsere Firma.
Aktuell ist vorhanden ein Server von 2008 mit Quad-Core Xeon, Raid 5 mit 4 SAS-Platten und einem LTO Bandlaufwerk.
BS ist ein SBS 2003, darauf läuft ein Exchange 2003 SP2 und diverse Lizenzserverprogramme, die die Lizenzen für diverse Software im Netz verteilen. Die Maschine macht neben dem DC auch den Job als Fileserver
Daneben läuft noch ein alter Server, der aktuell aber nur noch als Printserver für 11 Drucker dient.
Daran hängen aktuell ca. 30 Clients.

Der DC hatte inzwischen 2 schwerere Ausfälle: vor 2 Jahren Netzteil defekt und vor einigen Wochen war das Mainboard defekt.
Dazu kam ein kleinerer Defekt durch eine defekte Festplatte, was aber dank HotSpare kein Problem war.

Gewünscht ist von der GL eine ausfallsichere Lösung, d.h. auch 1 Stunde Stillstand will die GL nicht mehr.
Die GL ist auch bereit, dafür etwas mehr Geld auszugeben. Das Budget liegt bei 10.000-20.000 €.

Angedacht hatte ich 2 Rackserver mit Windows Server Enterprise 2008R2 oder Windows 2012 Standard, da das die kleinsten Versionen sind, die Failover-Clustering unterstützen.
Dazu ein externes Festplattensubsystem und Bandlaufwerk für die Datensicherung.
Exchange muß natürlich auch wieder vorhanden sein.

Als integrierte Lösung ist mir da der Dell VRTX ins Auge gefallen.
Das Teil ist rel. kompakt (5 HE) und hat hardwaremäßig eigentlich alles, was man braucht.
Das Teil hat standardmäßig 2 Bladeserver drin (kann bis zu 4 Bladeserver ausgebaut werden), die mit einer zweiten CPU aufgerüstet werden können.
Jeder Bladeserver hat 1 oder 2 eigene Platten, zusätzlich gibt es ein Festplattensubsystem mit bis zu 25 Platten, das von allen Servern gleichzeitig genutzt werden kann.
Standardmäßig sind 2 redundante Netzteile eingebaut, bis zu 4 sind möglich.
Ein 8 Port Switch ist da auch schon eingebaut, kann aber auch umgangen werden.

Was ist von dem System zu halten?

Gibts andere Alternativen?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
weis nicht... würde ich wohl nicht nehmen...
So ein Teil bietet dir vielleicht recht hohe Leistung auf kleinem Raum, ist aber auch der single point of failure... -> sprich zerlegt es in dem Ding irgendwas essentiell wichtiges, ist vorbei!



Da du viele verschiedene Dienste bereit stellen willst, würde sich aus meiner Sicht eine virtualisierte Umgebung anbieten. Diese sollte dann die Failover Funktionen übernehmen um möglichst unterbruchsfrei die VMs bereit zu stellen.
Man kann natürlich auch auf Serviceebene die Geschichten clustern, aber das ist ein deutlicher Mehraufwand -> und kost dazu auchnoch Lizenzen, speziell bei Windows.

20k€ ansich sind ja schonmal "mehr" als die üblichen Anfragen hier :fresse: da sollte definitiv was machbar sein...

Mal als grober Richtwert:
- 2x Dual Xeon S2011 fähige Pizzableche mit folgenden Sachen bestückt:
-> genügend RAM pro Node (64GB+)
-> eine CPU dürfte reichen (Hexacore Xeon E5 26xx oder größer)
-> ausreichend NICs für eure Bedürfnisse
-> je nach eingesetztem virtualisierer minimales internes Storage ala Raid 1 von zwei kleinen SAS HDDs (Hyper-V) oder auch ne Flashspeicherbasierte Lösung ala USB Stick, internem Flash Modul usw. für ESXi ohne internem Storage (spart Raidcontroller und Disks)

Das ganze gepaart mit nem Dual Controller externem Storage.
Je nach Anforderung und Wünschen wird es da wohl auf maximal eine iSCSI Lösung raus laufen. Ggf. NFS.
Das Ding ausgestattet mit genügend performanten HDDs (SSDs dürften zu teuer werden) und geshared für beide Pizzableche als gemeinsames Storage... -> dort liegen die VMs drauf.

Worauf man je nach dem, was für Geld hinten noch über bleibt, nachdenken könnte, wäre eine 10G LAN Infrastruktur für die Storageanbindung sowie den beiden Hypervisor Hosts...
Bringt gut Performancepunkte beim Storagezugriff, kost aber auch ne Stange Geld... Mit 1G wirds aber auch laufen und ist deutlich günstiger... Ggf. bei zu knappen Restbudget eher die LAN Infrastruktur redundant aufbauen, sprich zwei "Server"-Switches und sowohl das Storage als auch die Hosts doppelt redundant an beiden Switchen anbinden. Je nach Switchtyp geht dann ne "teaming" Lösung, sprich mehr als 1G bei entsprechend gleichzeitigen Zugriffen.

Wartungsverträge mit anständigen Servicezeiten!! nicht vergessen.
Die Backupgeschichte müsste man sich dann dediziert ansehen, wenn der grobe Leitfaden für das Livesystem steht -> denn je nachdem steht und fällt die Backuplösung.

Wie schaut es mit den Lizenzen aus? Der Support für SBS2003 dürfte wohl ebenfalls 2014 auslaufen. Sprich man sollte hier definitiv wechseln!
-> gut und günstig ist der SBS2011... Weil er quasi alles vom 2003er mitbringt (außer den ISA). inkl. Exchange...
-> auch würde ich alle unnötigen Lasten, sprich Programme und Dienste vom SBS fernhalten und auf ner dedizierten VM auslagern.
-> ein zweiter DC auf dem anderen Node ist ebenso nicht verkehrt. Ggf. sogar ne physische Maschine. Wobei physisch nicht zwingend ein muss ist, da der SBS sowieso Master im AD sein will/muss. Hier sollte man sich vorher definitiv noch einlesen, was den Betrieb des DCs in virtuellen Umgebungen angeht. -> da gibt es einiges zu beachten und von ein paar Sachen tunlichst die Finger zu lassen!!
-> Printserver kann auf ne dedizierte VM oder mit auf die VM für die Lizenzserver!?



PS: "d.h. auch 1 Stunde Stillstand will die GL nicht mehr."
Das könnt ihr euch abschminken ;) Für eine derart hohe Verfügbarkeit über den Jahresdurchschnitt von nichtmal einer Stunde Ausfallzeit müsste man deutlich mehr wie 20k€ investieren...
Man kann die Verfügbarkeiten stark erhöhen durch den virtuellen Unterbau -> fliegt dir ein Server um die Ohren, gehts auf dem anderen weiter, aber je nach eingesetzter Lösung muss man dabei immernoch Kompromisse eingehen.
Sprich kaufen, einschalten und nie wieder anfassen wird nicht funktionieren... Das heist auch, im Problemfall sind je nach dem ggf. händische Eingriffe gefragt. Je eher man dort agieren kann, desto geringer der Unterbruch!
 
Mahlzeit,

afaik kann SBS aber nur 25 User bedienen (oder 50 ?!) und lässt sich nicht mehr erweitern !!!
Deswegen sind die 2008/2012-Versionen vorzuziehen.
Weiterhin kann der SBS wohl auch kein Failover (wenn gewünscht).
Ansonsten hat fdsonne schon gute Tipps gegeben (vor allem auf den Service nicht verzichten!!!!).
Wichtig ist dabei, ob du einen 24/7-Support mit 4 Stunden Reaktionszeit benötigst, oder ob es auch was kleineres sein kann (da kommen richtig dicke Summen zusammen)!!!

Gruß

Carsten
 
75 müssten das beim SBS2011 Standard sein ;)

Und Failover kann man sich halt schenken auf Anwendungsebene, wenn man das ganze virtuell quasi mit "100%" Verfügbarkeit in der eigenen "Cloud" hostet... Wenn dir ein Host ganz stirbt, ist die "Cloud" ja immernoch verfügbar... Dafür hast du zwei Hosts minimum... je nach Lizenz und Features geht das sogar soweit, das die VMs auf beiden Hosts doppelt Ressourcen benötigen, du aber auch den Stecker ziehen kannst, ohne überhaupt nur nen Pingaussetzer zu bekommen!


Bei Single 2008R2/2012 Lizenzen sehe ich eher das Problem, das es viel teurer wird... Und die Redundanz eben an der Stelle auch irgendwie geschaffen werden muss. Selbst wenn man die Redundanzen via VMs abbildet oder eben auf HA auf der Virtualisierungsebene setzt, wäre es wohl deutlich teurer als ein SBS.
Der doppelte DC, der Exchange (ggf. zwei) + die Kiste für die Lizenzservergeschichten/Printer wären dann in Summe schon 4 Lizenzen (5 mit doppeltem Exchange) für das Server OS. Also 5x ~550€ (2008R2) bzw. 5x ~800€ für 2012.
Der SBS2011 kost in der Standard gerade mal ~600€. Teilweise je nach Shop was mehr...

Die Frage ist halt, ob die Lizenzen in den 20k€ mit enthalten sein müssen!? Oder gar überhaupt Lizenzen gekauft werden müssen für ein Update (was definitiv Ratsam wäre bei der 2003 SBS Basis)?
Gelten die 20k€ für die Hardware allein, könnte man es sich durchaus überlegen, ob getrennte Systeme nicht besser sind. Flexibler auf jedenfall ;) Man muss halt wissen was man macht. Der SBS ist mehr "klicki bunti" und mit Assistenten bestückt...
 
Angedacht hatte ich 2 Rackserver mit Windows Server Enterprise 2008R2 oder Windows 2012 Standard, da das die kleinsten Versionen sind, die Failover-Clustering unterstützen.
Da ich mit Windows keinerlei Erfahrung habe, muß da jemand anderes was zu schreiben.

Zur Hardware
  • CPUs nach Leistungsbedarf, aber mindestens 2xE5-2603v2
  • RAM nach Bedarf, aber mindestens alle Kanäle mit mindestens einem Modul bestückt. D.h. min 8 Module
  • je einer 10GbE Karte
  • je ein SAS HBA mit 8 Ports für das externe JBOD
  • eine SAS HBA 4 Port an einem Server für LTO
  • GbE Switch mit 2x10GbE Uplink Ports
  • JBOD mit RAID Controller und 2x8Ports redundant, so daß man beide Server kreuzverkabelt anschließen kann
Die Server müssen dann per Software das RAID jeweils mounten. Mit passenden FileSystem kann man das gleichzeitig mounten, aber keine Ahnung ob das Windows kann.
 
Und Failover kann man sich halt schenken auf Anwendungsebene, wenn man das ganze virtuell quasi mit "100%" Verfügbarkeit in der eigenen "Cloud" hostet... Wenn dir ein Host ganz stirbt, ist die "Cloud" ja immernoch verfügbar... Dafür hast du zwei Hosts minimum... je nach Lizenz und Features geht das sogar soweit, das die VMs auf beiden Hosts doppelt Ressourcen benötigen, du aber auch den Stecker ziehen kannst, ohne überhaupt nur nen Pingaussetzer zu bekommen!

Das musst du mir mal näher erklären, wie da die Ausfallsicherheit gewährleistet ist.
Mit der Virtualisierung von Servern habe ich mich noch nicht näher beschäftigt.
Und bisher gabs bei uns ja nur Hardwareprobleme und da ist gewünscht, das es mit minimalster Ausfallzeit weiter gehen kann, wenn mal z.B. die Hardware eines Servers stirbt.

Ich hatte noch etwas vergessen: Der derzeitige Printserver spielt auch noch WSUS.
Was die Printserver/WSUS und Lizenzservergeschichte angeht: Das belastet den Server lt. Lastanalyse nur minimalst.

Zu den Lizenzen und den 20k€:
Die sollten da schon drin sein und neu kaufen werden wir die wohl auch müssen.
Ich glaube nicht, das man die Clientlizenzen des alten 2003 SBS auch für z.B. einen 2011er SBS nutzen kann/darf.
 
Wenn dir ein Host ganz stirbt, ist die "Cloud" ja immernoch verfügbar... Dafür hast du zwei Hosts minimum... je nach Lizenz und Features geht das sogar soweit, das die VMs auf beiden Hosts doppelt Ressourcen benötigen, du aber auch den Stecker ziehen kannst, ohne überhaupt nur nen Pingaussetzer zu bekommen!

Nur das Fault Tolerance immernoch die nervigen Beschränkungen hat. Gut bei zwei Hosts fällt es nicht ins Gewicht das man kein vMotion machen kann, aber die Beschränkung auf 1 vCPU ist immernoch drinnen und bei den meistens Systemen die man gerne HA hätte dann das K.O.-Kriterium. Mehr vCPUs werden wohl erst in einer der zukünftigen Versionen unterstützt werden.

Wo ich mich vorher wirklich nochmal genau drüber informieren würde ist die Lizenzierung. Das ist das was bei der Virtualisierung meiner Meinung nach das meiste Geld verschlingt und oft unterschätzt wird. Würde vorher das mit einem Systemhaus, welches sich mit MS Lizenzierung auskennt, zusammensetzen und prüfen was man da wirklich braucht.
 
evtl. kann man sich mal Stratus Avance anschauen. Habe ich selber noch nicht getan, hab nur irgendwann mal Werbung von denen gesehen. Kostet aber sicher gut Geld.
 
esxi 5.5 ?
2 Hosts mir red psu etc. local disk im raid1 os drauf oder eben usb stick ( mir sind allerdings schon zuviele falshspeicher gestorben... )
1x iscsi storage subsystem mit sata platten und red controller und psu.
bei 10G oder 1G netz kreuzverkabel über 2 switche und dann fertig?
sollte mit 20k machbar seien

Grüße
MAFRI
 
Mit der Virtualisierung von Servern habe ich mich noch nicht näher beschäftigt.
Das lohnt sich für dich in jedem Fall.
Um den Vorschlag von MAFRI aufzugreifen:

Du hättest dann zwei Virtualisierungsserver und ein Storage System.
Beide Server greifen auf das Storage zu und starten da ihre VMs.
Fällt ein Server aus, fährst du den die VM einfach auf dem anderen Server wieder hoch (Ausfallzeit 10 Minuten?)

Ich werf einfach mal konkrete Produkte in den Raum:
2x HP DL360 Gen8
1x HP MSA 2000
vSphere 5.5 Lizenz
Alternativ Hyper-V
Windows Server 2012 Datacenter (lohnt sich ab 5~6 Server)

Damit stichst du aber eine Materie an, für die man sich am besten beraten lassen sollte.

Und bisher gabs bei uns ja nur Hardwareprobleme und da ist gewünscht, das es mit minimalster Ausfallzeit weiter gehen kann, wenn mal z.B. die Hardware eines Servers stirbt.
Und du wirst auch weiterhin Ausfälle haben, der Punkt ist nur, mit welchen Mitteln man den verursachen Ausfall kompensieren kann und da kann Virtualisierung sehr hilfreich sein.
 
Danke erst einmal für die Vorschläge.

Bei einem einzelnen Storagesystem steht und fällt aber das ganze System mit der Verfügbarkeit des Storagesystems.
Was ist, wenn das ausfällt?
Dann nützen mir auch die beiden Server rein gar nichts.
Damit wäre der von mir erwähnte Dell VRTX auch aus dem Rennen.
Er ist übrigens gegenüber einer vergleichbaren Lösung aus Einzelsystemen sogar etwas teurer.

Die Geschichten mit der Virtualisierung klingen schon sinnvoll, nur das hier
Fällt ein Server aus, fährst du den die VM einfach auf dem anderen Server wieder hoch (Ausfallzeit 10 Minuten?)

scheitert in der Praxis, wenn es einen Ausfall gibt, während ich z.B. krank oder im Urlaub bin.

Daher hatte ich ja die Clusterlösung angedacht, bei der das Failover quasi automatisch läuft.

Ich habe aber einmal ein paar Clusterlösungen durchgerechnet.
Da kommt man mit den 20k€ auch rein für die Hardware kaum hin, wenn man möglichst alle SPOFs eliminieren will.
Von der Clusterlösung habe ich mich schon weitgehend verabschiedet, oder die GL ist bereit, sehr deutlich mehr Geld zu investieren.

Ich bin daher für weitere Vorschläge offen.
 
Zuletzt bearbeitet:
[...]

scheitert in der Praxis, wenn es einen Ausfall gibt, während ich z.B. krank oder im Urlaub bin.

Daher hatte ich ja die Clusterlösung angedacht, bei der das Failover quasi automatisch läuft.
In kleinen Umgebungen nimmt man deshalb auch vmware Essentials Plus. Die darin enthaltene HA Funktionalität macht genau den Neustart auf dem anderen Server automatisch. Voraussetzung ist freilich entweder ein externes Storage oder man nimmt Vmware Essentials Plus mit VSA. Damit täten es beispielsweise zwei Server mit internen Platten...
Ordentliche Storages sind natürlich in sich selbst redundant (doppelte Controller etc.pp.) und gehen nur extrem selten kaputt. Selbst im LowEnd-Bereich, beispielsweise einer HP MSA oder einer Fujitsu Eternus DX80 ist sowas selten. Einzelne Komponenten können durchaus mal sterben, das aber das ganze System steht sieht man nur sehr sehr selten.

Wem das nicht genügt, der nimmt eben ein verteiltes Storage. Das kann im LowEnd z.Bsp. auch eine Lefthand oder eine Equalogic sein (bei gibts von sehr klein bis sehr groß). Alternativ kann man auch über Storagevirtualisierer wie Datacore nachdenken

Wers freilich ganz sicher haben will, betreibt eh zwei Serverräume (natürlich überwacht und in getrennten Brandabschnitten) und stellt in jeden Beispielsweise ne kleine Lefthand (oh ich vergas die heißen ja jetzt StoreVirtual ;) ), ein, zwei Server und natürlich gestackte Switche.... man kann das Thema beliebig weit treiben wenn man denn will.

Backbone
 
Das musst du mir mal näher erklären, wie da die Ausfallsicherheit gewährleistet ist.
Mit der Virtualisierung von Servern habe ich mich noch nicht näher beschäftigt.
Und bisher gabs bei uns ja nur Hardwareprobleme und da ist gewünscht, das es mit minimalster Ausfallzeit weiter gehen kann, wenn mal z.B. die Hardware eines Servers stirbt.

Das wäre halt klar ein pro Argument für virtualisierung... Da du dir eine zusätzliche Abstraktionsschicht schaffst, die die Hardware unten drunter quasi uninteressant macht.
Du kannst fast jegliche Hardware drunter stellen, der VM wird es egal sein, solange sie ihre Ressourcen nutzen kann, die sie benötigt.
Stirbt dir nun ein Teil der Hardware, also ein Server, so hast du immernoch Reserven in deiner virtuellen Umgebung -> ergo, die VM kann einfach andere Ressourcen weiter nutzen oder auf nem anderen Server gestartet werden.

Dabei gibt es dann noch verschiedene Arten. Von simpem HA -> also einfaches verteilen der VMs auf die Hosts -> stirbt ein Host, übernimmt ein anderer deren VMs und fährt diese wieder neu hoch. Bis hin zu voller Redundanz, was sich bei VMware eben Fault Tolerance schimft, da belegt eine VM Ressourcen auf mehreren Hosts, schmiert der Host ab, gehts vollständig unterbruchfrei weiter, also ohne reboot auf einem anderen Host, sondern live, wärend der Fahrt!
Letzteres geht aber aktuell nur mit der Einschränkung, das nur eine vCPU pro VM unterstützt wird, hier wird wohl erst in ESXi Version 6.x mehr unterstützt werden... (wurde so zumindest mal angesprochen seitens VMware)
Das ist zwar ein Nachteil für fette VMs ala den SBS, aber hier muss man rechnen und schauen, was man genau will, was man sich leisten kann und was man schlussendlich am besten zum laufen bekommt...

Die Geschichten mit der Virtualisierung klingen schon sinnvoll, nur das hier


scheitert in der Praxis, wenn es einen Ausfall gibt, während ich z.B. krank oder im Urlaub bin.

Daher hatte ich ja die Clusterlösung angedacht, bei der das Failover quasi automatisch läuft.

Wie gesagt, je nach Art und Weise IST die VMware Clusterlösung vollredundant und geht absolut ohne Unterbruch...
Ob man das ganze dann 100% in die 20k pressen kann, muss schlussendlich nachgelesen werden. Über genaue Preise zu sprechen macht aber auch wenig Sinn hier, da derartige Anschaffungen gern auch in "Projekten" bündelbar sind, da gibts je nach Händler auch mal nen sehr sehr anständigen Projektpreis mit 50%+ Vergünstigung ;)
Nur dafür muss man halt erstmal wissen, wohin die Reise geht...


Thema Storage, also so ne Storagelösung bekommst du idR auch nicht wirklich kaputt. Da müssen schon einige Zufälle zusammen spielen, damit da wirklich mal was extrem in die Hose geht...
Denn die Dinger sind im Grunde auch wie bei der Virtualisierung aufgebaut. Es gibt entgegen des normal bekannten Internen Storage an nem Raidcontroller idR ne zusätzliche Abstraktionsschicht, die zwischen den Platten und den Verbinderports hinten steht. Bei so Teilen ala HP MSA oder auch den hier genannten Fujitsu Etherus DX Teilen hast du idR die Möglichkeit eine Dual Controller Version zu ordern. Das ist wie ein doppelter Raidcontroller. Beide Controller arbeiten zwar in diesen Preisklassen idR nur active/backup, sprich immer nur ein Controller managed ein Raidarray, aber das geht trotzdem sehr gut.
- Fällt eine HDD aus, hast du das Raid, im bestenfall mit Hotspare
- Fällt ein Controller aus, übernimmt der zweite
- Fällt ein Verbindermodul ala iSCSI/NFS/FC Port aus, hast du idR nen zweiten pro Controller (im active/active oder active/backup Betrieb)
- Fällt ein NT von der Kiste aus, hast du minimum ein zweites
So viel mehr ist da nicht drin, was irgendwie Logik bereit stellt und was zum Totalausfall führen kann.
Die Dinger haben ja oftmals sogar doppelte Firmwarespeicher, falls du so ein Ding mal beim Update zerschießt...
Es ist also fast egal, was an dem Ding kaputt geht, es wird idR nicht so ausfallen, das dir deine Daten auf den Disks nicht mehr verfügbar sind und somit die Hosts nicht mehr auf das Storage drauf kommen...

Und wenn einem das immer noch nicht genug ist, kann man sich noch ne zweite bzw. geclusterte Storagelösung hinstellen -> kostet imho aber dann auch mehr. Beispielsweise gibts voll redundante Clusterlösungen. Das geht dann soweit, das die Daten teilweise auf mehreren Storageclusternodes gehalten werden um die Verfügbarkeit nochmals zu steigern.


PS: was das Thema krank usw. angeht... Wie viele Leute sind das denn da bei euch mit technischer Bewandniss in diesem Bereich?
Weil man sollte sowas definitiv nicht auf die leichte Schulter nehmen ;)
Speziell, wenn jemand in Foren wie hier nach solchen Lösungen fragt, läuten bei mir schnell die Alarmglocken... Vor allem der Part Betrieb der Endlösung erfordert doch schon ein wenig Hintergrundwissen... Hier sollte man sich definitiv schulen bzw. schulen lassen. Und wenn das nicht geht, eine externe Firma hinzuziehen, die sowas maßgeschneidert verkaufen bzw. Services bei den verkauften Lösungen erbringen.
Ich mein, wir können dir hier viel erzählen. Und die Masse davon wird auch Hand und Fuß haben. Wenn es aber Hart auf Hart kommt, bist DU ALLEIN Mode um den Spaß wieder zu richten...
Und ich lehne mich mal etwas weiter aus dem Fenster, der jenige, der Wissen in solchen Bereichen hat, und so eine Lösung betreiben kann und weis was er da tut und macht, der hat auch Wissen im Bereich sizing und design einer solchen Geschichte, fragt also auch hier nicht nach, wie sowas aussehen kann/könnte. :wink:
Ich kann von der Warte her nur klar empfehlen, such dir da Jemanden, auf den du da im Notfall auch wirklich zählen kannst anstatt es einfach fix zusammen zu schustern, weil sieht ja einfach aus und am Ende dann auf die Nase zu fallen, weil im Ernstfall keiner da ist, der da durchsieht ;)
 
Thema Storage, also so ne Storagelösung bekommst du idR auch nicht wirklich kaputt. Da müssen schon einige Zufälle zusammen spielen, damit da wirklich mal was extrem in die Hose geht...
Alles geht kaputt.

- Fällt eine HDD aus, hast du das Raid, im bestenfall mit Hotspare
Das passiert bei größeren Installationen regelmäßig, problematisch wird es nur, wenn man ständig critical rebuilds hat. Wenn man das ständig hat, hilft nur noch ein declustered RAID. Aber für die Diskussion hier im Thread ist das irrelevant.
- Fällt ein Controller aus, übernimmt der zweite
Wir hatten nun schon mehrere Controllerausfälle, nie kam es zu einem Totalausfall, sondern zu einem schleichenden Sterben des Controllers, der sich in kaputten Filesystemen äußerte.
So viel mehr ist da nicht drin, was irgendwie Logik bereit stellt und was zum Totalausfall führen kann.
Uns ist schon einmal ein JBOD gestorben, Backplane bzw. Expander kaputt. Seit dem haben wir ein Ersatz JBOD herumstehen.
Und wenn einem das immer noch nicht genug ist, kann man sich noch ne zweite bzw. geclusterte Storagelösung hinstellen -> kostet imho aber dann auch mehr. Beispielsweise gibts voll redundante Clusterlösungen. Das geht dann soweit, das die Daten teilweise auf mehreren Storageclusternodes gehalten werden um die Verfügbarkeit nochmals zu steigern.
Das ist das einzige, was wirklich funktioniert. Aber da werden keine Standardfilesysteme mehr benutzt, denn die unterstützen kein Clustering. Und man sollte erwähnen das der Spaß teuer wird, und zwar so richtig. Für die Firma von passat3233 ist das sicherlich keine Lösung.
 
Dazu kam ein kleinerer Defekt durch eine defekte Festplatte, was aber dank HotSpare kein Problem war.

Gewünscht ist von der GL eine ausfallsichere Lösung, d.h. auch 1 Stunde Stillstand will die GL nicht mehr.
Die GL ist auch bereit, dafür etwas mehr Geld auszugeben. Das Budget liegt bei 10.000-20.000 €.

?

Habt Ihr eine eigene IT Abteilung mit redundantem Personal oder ein kompetentes IT Haus auf der anderen Straßenseite? Anders wäre das mit 1h gar nicht machbar. In zweiterem Fall wohl auch nicht in dem Preisrahmen.

Hinzu kommt bei ausfallsicheren Systemen das AKW Syndrom (Tschernobyl, Fukushima).
Ausfallsicherheit bedeutet, alles redundant und fehlertolerant aufzubauen. Bei nur kurz erlaubten Ausfallzeiten wird sehr viel Automatismus benötigt und es gibt sehr viele Abhängigkeiten die bedacht werden müssen.

Das hat zwei Konsequenzen
- Das System wird sehr komplex. Wird im Betrieb etwas übersehen, kann das ganze System ausfallen, wenn ein Bediener einen Fehler macht wie z.B. bei dem Testlauf in Tschernobyl. Fehler in komplexen Systemen sind nur schwer vermeidbar und beherrschbar.

- Tritt ein Problem auf, das bei der Konzeption nicht bedacht wurde (Notstromaggreggate im Überflutungsbereich wie in Fukushima) so droht ein Totalausfall. Bei komplexen Systemen ist eine schnelle Reparatur immer schwer, da das ursprüngliche System sehr viele Abhängigkeiten hatte die im Poblemfall gar nicht überschaubar sind.

Ich würde daher erst mal festlegen
- welche Ausfallzeit ist maximal erlaubt
- wie ist unser KnoW How, was können wir selber im Betrieb und Fehlerfall leisten
- bei externen Dienstleistern: realistisch einschätzen, wie schnell die im Fehlerfall helfen können

zur Hardware:
eine möglichst hohe Grundstabilität bereitstellen, also keine Hardwarabhängigkeiten=alles virtualisieren,
keine single point of failures bzw immer ein Reservesystem (hot or cold) zur Verfügung haben.

zur Konzeption
Nie nur punktuelle Redundanz haben, also z.B. eine zweite Festplatte oder einen zweiten ESXi Server bei nur einem gemeinsamen Storage.

Ich würde zwei Systeme bereitstellen, die komplett autark die Funktion übernehmen können, also z.B. ein ESXi Server mit einem shared NFS/SMB/iSCSI Storageserver und ein zweites identisches System an einem anderen Platz/Raum.

Man kann sich jetzt überlegen, wieviel Ausfallsicherheit man auf ESXi abwälzen kann und will (Komplexität, Kosten) bzw welche Auswirkungen das auf die Performance hat, wenn beide Storagesysteme syncron sein müssten oder ob es reicht, für Wartungsarbeiten die VMs auf die zweite Maschine zu verschieben (Vmotion/Storagemotion) oder einfach nachts umzukopieren (kostenloses ESXi)

Eine Nixcost Alternative wäre durchaus, neben den Backups auf die zweite Maschine (die halt nie wirklich Up to Date sind), das System so auszulegen, dass man im Falle eines Crashes den Daten-Plattenpool in die Reservemaschine stecken kann, um dort den Pool und die VM zu importieren und hochzufahren.

Diese Duale ESXi + SAN Konfiguration läßt sich auch mit nur zwei Maschinen konfigurieren wenn man das Storage auch Hardware-virtualisiert (per pass-through, All-In-One).

Auf jeden Fall muss die Lösung so sein, dass man selber das System noch überblickt und auch im Fehlerfall bedienen kann, also so simpel wie möglich und mit vielen autark arbeitenden Funktionen wie z.B. ESXi und Storage funktionell zu trennen, nicht alles auf eine virtuelle Maschine legen sondern mehrere bereitstellen etc.

Das Outsourcen einer Wunschlos-Glücklich Lösung geht auch nur bedingt. Auch da arbeiten Menschen. Ein guter externer Hardwareservice und Software-Support ist aber ein Muss sofern keine eigene dedizierte IT Abteilung da ist.
 
Zuletzt bearbeitet:
PS: was das Thema krank usw. angeht... Wie viele Leute sind das denn da bei euch mit technischer Bewandniss in diesem Bereich?
Weil man sollte sowas definitiv nicht auf die leichte Schulter nehmen ;)
Speziell, wenn jemand in Foren wie hier nach solchen Lösungen fragt, läuten bei mir schnell die Alarmglocken... Vor allem der Part Betrieb der Endlösung erfordert doch schon ein wenig Hintergrundwissen... Hier sollte man sich definitiv schulen bzw. schulen lassen. Und wenn das nicht geht, eine externe Firma hinzuziehen, die sowas maßgeschneidert verkaufen bzw. Services bei den verkauften Lösungen erbringen.
Ich mein, wir können dir hier viel erzählen. Und die Masse davon wird auch Hand und Fuß haben. Wenn es aber Hart auf Hart kommt, bist DU ALLEIN Mode um den Spaß wieder zu richten...
Und ich lehne mich mal etwas weiter aus dem Fenster, der jenige, der Wissen in solchen Bereichen hat, und so eine Lösung betreiben kann und weis was er da tut und macht, der hat auch Wissen im Bereich sizing und design einer solchen Geschichte, fragt also auch hier nicht nach, wie sowas aussehen kann/könnte. :wink:
Ich kann von der Warte her nur klar empfehlen, such dir da Jemanden, auf den du da im Notfall auch wirklich zählen kannst anstatt es einfach fix zusammen zu schustern, weil sieht ja einfach aus und am Ende dann auf die Nase zu fallen, weil im Ernstfall keiner da ist, der da durchsieht ;)

Ich bin da leider alleine.
In der Firma sind sonst keine Leute, die sich wirklich mit EDV auskennen.
Das sind alles nur Anwender, die gerade einmal halbwegs mit ihrer Software (CAD, Office, Warenwirtschaft) klar kommen.
Die sind sogar zu blöd, mal z.B. nach dem Stromkabel ihres PCs zu schauen, wenn der am Montag nicht startet weil die Putzfrau das Kabel aus versehen rausgezogen hat.
Und mein Wissen bzgl. Server etc. ist leider schon etwas veraltet (Stand Windows Server 2003R2/Exchange 2003), daher die Fragen bzgl. Virtualisierung etc.
 
Wir hatten nun schon mehrere Controllerausfälle, nie kam es zu einem Totalausfall, sondern zu einem schleichenden Sterben des Controllers, der sich in kaputten Filesystemen äußerte.
Kannst du sagen welcher Hersteller das war?
Ich hab etwas über >100 Storages im Überblick die meisten dabei von HP, NetApp, EMC und Fujitsu, einige Billigheimer (Eonstore) sind freilich auch dabei. Aber das hier Controller aussteigen ist extrem selten. Ich müsste sehr drüber nachdenken mich an mehr als 2 oder 3 Fälle in den letzten 5 Jahren zu erinnern.
Das in Installationen mit mehr als 500 Platten (in einem Storage) auch mal ab und an welche sterben kommt vor, ist aber auch nicht die Regel. Nach 5 Jahren gehen die Ausfallraten sicher hoch, aber zu daramatischen Szenen ist das bislang noch nirgends gekommen. Die Storages sind aller Erfahrung nach eine der robustesten Komponenten, wenn richtig gebaut. Natürlich können bei steigenden Anforderungen schnell mal Flaschenhälse entstehen, etwa wenn einfach mal beschlossen wird auf virtuelle Desktops umzusteigen und der Controller bei den vielen IOPs in die Sättigung läuft. ;)

Das ist das einzige, was wirklich funktioniert. Aber da werden keine Standardfilesysteme mehr benutzt, denn die unterstützen kein Clustering. Und man sollte erwähnen das der Spaß teuer wird, und zwar so richtig. Für die Firma von passat3233 ist das sicherlich keine Lösung.
Tjoa, wer maximale Sicherheit will, musses auch zahlen (können). Völlig utopisch sind die Preise dabei gar nicht mal mehr:
HP StoreVirtual 4130 600GB 2,4 TB (4x 600GB) - Hardware,
Mit zwei Stück davon die man auf zwei Räume verteilt hat man schonmal eine superrobuste Lösung. Das schöne daran ist auch, dass das Management im LefthandOS vergleichsweise simpel gestrickt ist...
 
Alles geht kaputt.


Das passiert bei größeren Installationen regelmäßig, problematisch wird es nur, wenn man ständig critical rebuilds hat. Wenn man das ständig hat, hilft nur noch ein declustered RAID. Aber für die Diskussion hier im Thread ist das irrelevant.

Wir hatten nun schon mehrere Controllerausfälle, nie kam es zu einem Totalausfall, sondern zu einem schleichenden Sterben des Controllers, der sich in kaputten Filesystemen äußerte.

Uns ist schon einmal ein JBOD gestorben, Backplane bzw. Expander kaputt. Seit dem haben wir ein Ersatz JBOD herumstehen.

Das ist das einzige, was wirklich funktioniert. Aber da werden keine Standardfilesysteme mehr benutzt, denn die unterstützen kein Clustering. Und man sollte erwähnen das der Spaß teuer wird, und zwar so richtig. Für die Firma von passat3233 ist das sicherlich keine Lösung.

Was willst du uns jetzt damit sagen!?
A) habe ich nicht ausgeschlossen
B) steht nicht geschrieben, welches Raidlevel. Höhere Paritätslevel und/oder in Kombination mit Mirroring lässt sich bis zur Vergasung treiben
C) ?? eher uninteressant hier
D) ?? ebenso uninteressant
E) sehe ich klar nicht so... Denn die Anforderung definiert, was "wirklich" funktioniert. Die 100% und mehrfach vollredundante Lösung ist mit dem Budget schlicht nicht drin. Und das ganze ohne eigenes KnowHow in dem Bereich über "Software" zu lösen ist ebenso fast ausgeschlossen...

zur Konzeption
Nie nur punktuelle Redundanz haben, also z.B. eine zweite Festplatte oder einen zweiten ESXi Server bei nur einem gemeinsamen Storage.

Das sehe ich grundsätzlich genau so, beim Storage aber kommt es stark drauf an, was es für eine Lösung ist...
Eine insich geschlossene, aber geclusterte Lösung ist alle mal mehr wert als das 0815 NFS/iSCSI QNAP NAS für 1000€... Denn das bietet keine Redundanzen.
So ein Teil ala HP MSA kommt da schon in ganz andere Verfügbarkeitsregionen.
Das Problem ist eher, will man hier vollredundant, also wirklich 100%, sind die 20k€ Gesamtbudget für das Storage allein schon zu wenig.
Abstriche sind also nötig, und das nicht zu knapp ;) Und da hört es ja nicht bei der reinen Storage Hardware auf, sondern geht bei der Infrastruktur des SANs weiter. Ob nun FC, oder über LAN bzw. ganz andere Methoden/Wege... Kostet alles Geld, speziell bei Redundanzen.

Selbst "virtuelles" Storage ala Passthrought finde ich da nicht so wirklich passend... Denn es erzeugt an der Stelle eine Abhängigkeit zum Host, die ich ja im Grunde vermeiden will.
Das verhinderte ich erst, wenn ich wiederum genügend Aufwand betreibe um hier abermals Redundanzen einzubauen bzw. wenn ich genügend Investiere um mich mit Softwarelösungen auseinander zu setzen, die mir diese Funktionen Redundant bieten.

So ne Geschichte wie ne HP MSA ist insich da schon fast perfekt. Da geht das Signal von beiden Controllern bis zur HDD. Diese ist zwar SPOF, aber dafür gibts diese im Array. Der Rest ist schon doppelt und dreifach drin... Kostet halt dafür auch etwas und geht im Budget von 20k€ durchaus mit 30-40% rein...

Kannst du sagen welcher Hersteller das war?
Ich hab etwas über >100 Storages im Überblick die meisten dabei von HP, NetApp, EMC und Fujitsu, einige Billigheimer (Eonstore) sind freilich auch dabei. Aber das hier Controller aussteigen ist extrem selten. Ich müsste sehr drüber nachdenken mich an mehr als 2 oder 3 Fälle in den letzten 5 Jahren zu erinnern.

Ich kenne einen Defekt bei ner Netapp. Frag mich nicht nach der genauen Nummer, müsste ich gucken, aber ein kleineres und vor allem älteres Modell :wink:
Bei uns hat sich das Teil beim take over bzw. give back in die Ecke gestellt und dabei alle Aggregates zersägt.
Das Dingens hatte aber irgendwie nen schleichenden Defekt über die Laufzeit hin... Und diente bei uns nur noch als "Spielekiste" für mal hier und dort ne VM auf den LUNs... Definitiv nix weiter wildes passiert. Und wäre noch Wartung drauf gewesen hätten wir da lange schon jemanden antanzen lassen, da sich das Problem angedeutet hat. (das gute Stück hat manchmal von Kopf zu Kopf geswitcht, aus heiterem Himmel ohne erkennbare Fehlerquelle)
 
Kannst du sagen welcher Hersteller das war?
3ware - mit den Original LSI haben wir bisher keine Probleme.

Das in Installationen mit mehr als 500 Platten (in einem Storage) auch mal ab und an welche sterben kommt vor, ist aber auch nicht die Regel.
Es sterben bei uns regelmäßig Platten, aber bisher kommen wir mit RAID6 problemlos aus. Problematisch ist da eher die Tatsache, daß die einfachen ClusterFS es nicht erlauben Server zu spiegeln. Fällt ein Server aus, verliert man den Zugriff auf einen Teil der Daten. Aus Performancegründen sind bei einem ClusterFS mehrere Storageserver zu einer Art Server RAID0 zusammengefaßt.

Mit zwei Stück davon die man auf zwei Räume verteilt hat man schonmal eine superrobuste Lösung. Das schöne daran ist auch, dass das Management im LefthandOS vergleichsweise simpel gestrickt ist...
Bei uns wäre eher so etwa angesagt: IBM GSS. Ideal wären zwei GSS (oder entsprechend mehr), so daß der komplette Storage gespiegelt wäre. Der von Dir angesprochene iSCSI Storage löst so einige Probleme nicht, die mit einem GSS gelöst werden können. Wenn man ein iSCSI Storage hat, kann man diesen Storage mit dem passenden Filesystem (z.B. GFS2) zwar von zwei Server aus mounten, aber es ist nicht möglich diesen Storage mittels Storage Protokoll (NFS) von mehr als einem Server zu exportieren. So kann man nur einen Server aktiv betreiben, der andere ist im Hot Standby. Meines Wissens ist da Windows auch nicht weiter, oder täusche ich mich da?

- - - Updated - - -

Was willst du uns jetzt damit sagen!?

Die 100% und mehrfach vollredundante Lösung ist mit dem Budget schlicht nicht drin.
Exakt darum ging es mir. Unserer Erfahrung nach stirbt jede Komponenten irgend wann einmal, und die totale Absicherung ist extrem teuer.
 
Generell würde ich eine Lösung alla fdsonne bevorzugen (sowas in der Richtung setze ich auch im Betrieb ein)
jedoch befürchte ich dass das mit dem Budget von 20k€ eng wird.

Die Virtualisierung ist ne super Sache, und richtig umgesetzt verhilft sie so manchem Admin und IT-Verantwortlichen sicherlich zu einem besseren Schlaf aber eine gewisse Anfangsinvestition ist eben damit verbunden.

Bei dem relativ knappen Budget würde ich zu 2 Physischen Maschinen raten, beide mit nem aktuellen SBS wobei einer als Backup Exchange konfiguriert wird
Wenn dann noch Budget über ist, kann man in ne iSCSI SAN investieren
Damit hätten man eine Basis, die nächsten Jahre einen, und dann zwei ESX aufzusetzten, ganz wichtig Erfahrungen damit zu sammeln (zb mal nur unkritische redundante Vorgänge auslagern) und dann die gesamte Infrastruktur zu virtualisieren.
Ein upgrade auf 10GBe wär zwar nett, aber bei ~30-40 Clients nicht wirklich notwendig
Die 10-20k€ sind einmalige Investition, Service für 1 Jahr muss nicht includiert sein richtig?
 
Bei uns wäre eher so etwa angesagt: IBM GSS. Ideal wären zwei GSS (oder entsprechend mehr), so daß der komplette Storage gespiegelt wäre. Der von Dir angesprochene iSCSI Storage löst so einige Probleme nicht, die mit einem GSS gelöst werden können. Wenn man ein iSCSI Storage hat, kann man diesen Storage mit dem passenden Filesystem (z.B. GFS2) zwar von zwei Server aus mounten, aber es ist nicht möglich diesen Storage mittels Storage Protokoll (NFS) von mehr als einem Server zu exportieren. So kann man nur einen Server aktiv betreiben, der andere ist im Hot Standby. Meines Wissens ist da Windows auch nicht weiter, oder täusche ich mich da?

Zwischenfrage wenn auch leicht OT:
Wie meist du das genau mit dem Exportieren!?

Exakt darum ging es mir. Unserer Erfahrung nach stirbt jede Komponenten irgend wann einmal, und die totale Absicherung ist extrem teuer.

Das ist doch aber auch vollkommen logisch und steht wohl außer Frage...
Interessanter ist doch, die Frage nach der best möglichen Sicherheit FÜR sein Budget zu beantworten?
Und da meine ich, kommt so ne HP MSA, Fujitsu DX oder wie die anderen Dinger noch alle heißen schon ziemlich nahe an das mögliche Optimum... Vor allem ist der Spaß mehr oder weniger "daufreundlich" sprich muss sich nicht in Unmengen Softwarematerie einlesen um das Konstrukt überhaupt erstmal zu verstehen... ;)

Bei dem relativ knappen Budget würde ich zu 2 Physischen Maschinen raten, beide mit nem aktuellen SBS wobei einer als Backup Exchange konfiguriert wird
Wenn dann noch Budget über ist, kann man in ne iSCSI SAN investieren

Das geht übrigens so nicht, wenn mich nicht alles täuscht.
Es darf nur ein SBS um LAN aktiv sein, und der SBS muss dabei noch die AD Masterrollen usw. inne haben. Ist das nicht der Fall, rennt ein Timer und nach irgendwo 20 oder 30 Tagen ist Ende mit Betrieb :wink:

Mal ganz davon ab, das Clustering auf Anwendungsebene erfordert aus meiner Sicht deutlich mehr Aufwand und Ressourcen sowohl im Betrieb, als auch Design und Konzept usw. als das zwischenschieben auf eine virtuelle Infrastruktur.
Heute noch auf physische Maschinen/Installationen zu setzen ist für viele Fälle einfach rausgeschmissenes Geld.

PS: auch der letzte Part macht aus meiner Sicht keinen Sinn.
Denn wenn du physisch da ein Windows OS auf die Hosts knallst, brauchst du kein shared Storage mehr hinten... NTFS ist nicht Clusterfähig. (kann man das so nennen!?)
Es kann nicht von zwei OSen aktive/aktive gemountet und benutzt werden.
Was du machen kannst, du kannst jeweils zwei iSCSI oder NFS Pools anlegen und diese den Installationen zuteilen. -> dann ist aber keine Redundanz mehr vorhanden und es verhällt sich wie intern/lokal.
Auch das Booten von iSCSI/NFS ist sooo ohne weiteres nicht (ohne Basteln definitiv nicht, ich glaube aber sowieso ohne Support seitens MS)
 
Zuletzt bearbeitet:
ich hab leider keinen SBS im Einsatz, aber ich glaube mich zu erinnern, dass man 2 SBS 2011 im selben Netz betreiben kann, einer allerdings nur aktiv ist, und die Aufgaben übernimmt, wenn der Primary failed.

Das SAN würde Anfangs nur für die Exchange DB und die Userdatas da sein.

Ich weiss dass man einen Failover Cluster mit 2008R2 als Cluster Node und SBS als Client erstellen kann, und das Failover dann funktioniert, aber das wär dann wieder "etwas" aufwändig.

Ich glaube nicht, dass man mit 20k für ne relativ Sichere ESX+SAN Lösung incl Lizenzen bekommt, wäre Leasing ne Alternative wäre es sicher die beste Lösung...

Ich an Stelle von passat würde mir nen kostenvoranschlag für 2 ESX + ne iSCSI SAN
sowie für 2 klassisch getrennte Systeme machen lassen. Wobei die 2. Variante halt ne gewisse downtime bei ausfällen erfordert. Wobei diese mit SAN, vorkonfiguriertem Exchange (ledigliches mounten der DBs) sicherlich nicht soo hoch sein würde. Dann Soll die GL entscheiden, ob sie das mehr Geld ausgeben wollen oder nicht :)




Boot von iSCSI wird mittlerweile offiziell unterstützt
About iSCSI Boot
 
3ware - mit den Original LSI haben wir bisher keine Probleme.
?? Klingt arg nach selbst gebastelt.


Es sterben bei uns regelmäßig Platten, aber bisher kommen wir mit RAID6 problemlos aus.
Dann läuft was grundsätzliches falsch. Wenn ihr nicht gerade mehrere hundert oder tausend Platten aktiv betreibt kann das eigentlich gar nicht sein.
Ich hatte mal ne HP EVA die einmal pro Woche eine Festplatte versägt hat (bei >100 Stück gesamt). Das hat der Hersteller übrigens ohne Probleme als Fehler anerkannt....

Problematisch ist da eher die Tatsache, daß die einfachen ClusterFS es nicht erlauben Server zu spiegeln. Fällt ein Server aus, verliert man den Zugriff auf einen Teil der Daten.
???
Hast du dir mal angesehen wie verteilte Storagelösungen arbeiten? In einem vmware-Konstrukt das von einer Lefthand oder einem Datacore-Cluster seinen Plattenplatz zugewiesen bekommt können sowohl ESX-Hosts als auch Storage-Knoten ausfallen, auch gleichzeitig, ohne das es Probleme gibt. Man kann das sogar soweit treiben, dass die Anwendungen den Ausfall nicht mal bemerken.

Aus Performancegründen sind bei einem ClusterFS mehrere Storageserver zu einer Art Server RAID0 zusammengefaßt.
Das mag vielleicht bei einigen HighEnd-Anwendungen noch so sein, aber bei den allermeisten Anwendern reichen normale Storagelösungen völlig aus. Die schon mehrmals erwähnte Lefthand skaliert leistungsmäßig sehr gut mit. Ich kenn aus eigener Anschauung eine Umgebung in der 80Gigabit Durchsatz bereit stehen. Da müssen die Anwendungen auf den Servern erstmal hinkommen ...
Auch Anwendungen die mehr als 100.000IOPs konstant fordern sind kein Problem über das man allzulang philosophieren muss.

Der von Dir angesprochene iSCSI Storage löst so einige Probleme nicht, die mit einem GSS gelöst werden können. Wenn man ein iSCSI Storage hat, kann man diesen Storage mit dem passenden Filesystem (z.B. GFS2) zwar von zwei Server aus mounten, aber es ist nicht möglich diesen Storage mittels Storage Protokoll (NFS) von mehr als einem Server zu exportieren. So kann man nur einen Server aktiv betreiben, der andere ist im Hot Standby. Meines Wissens ist da Windows auch nicht weiter, oder täusche ich mich da?
eine Lefthand ist nur iSCSI richtig, aber da gibts mehr als genug Lösungen aus denen alle möglichen Protokolle rauskommen können. Aber nochmal. Niemand schließt eine Lefthand direkt am Applikationsserver an. Erst mit der Virtualisierungsschicht dazwischen machts ja Sinn. Vmware "sieht" nur einen Pool an Speicherplatz und weis gar nicht, dass dahinter zwei oder mehr verteilte Knoten hocken. Und in der Vmware die Server auf denen die Applikationen laufen wissens schon gleich zweimal nicht.

Exakt darum ging es mir. Unserer Erfahrung nach stirbt jede Komponenten irgend wann einmal, und die totale Absicherung ist extrem teuer.
Man wählt die Absicherung die für den eigenen Geschäftsbetrieb notwendig ist. "Teuer" kann es daher gar nicht geben, höchsten "zu groß dimensioniert". Wenn ein Produktionsausfall einige Millionen kosten kann, sind 100.000€ gut angelegtes Geld. Es ist daher völlig falsch nur über die Technik zu reden, man MUSS imho auch die Kosten kennen die man mit der neuen Lösung reinholen will. Ein Geschäftsführer wird nie zum Spaß in IT investierend, ist ja auch völlig richtig so.
 
ich hab leider keinen SBS im Einsatz, aber ich glaube mich zu erinnern, dass man 2 SBS 2011 im selben Netz betreiben kann, einer allerdings nur aktiv ist, und die Aufgaben übernimmt, wenn der Primary failed.

Das SAN würde Anfangs nur für die Exchange DB und die Userdatas da sein.

Zum ersten, nein das geht definitiv nicht...
Und wird auch nicht supportet geschweige denn, das es lizenztechnisch drin wäre :wink:
Der SBS ist eine one-box solution.

Zum SAN, was macht das für einen Sinn!?
Die Exchange DB auszulagern? Macht so gar keinen Sinn... Zumal du nicht mal eben so munter mit einem Server die DB erstellst und nutzt und im Totalcrash diese DB simpel auf irgend ner anderen Exchangekiste wieder einklinkst...
Das erfordert ne ganze Menge Sachen, die bedacht werden müssen...

Ich weiss dass man einen Failover Cluster mit 2008R2 als Cluster Node und SBS als Client erstellen kann, und das Failover dann funktioniert, aber das wär dann wieder "etwas" aufwändig.

Und was wird da dann geclustert!?
Da kannst du die Printserver Rolle Clustern, oder die Fileserverrolle. Aber das macht doch heute kein Mensch mehr solche Steinzeitrelikte zu nutzen :wink:
Das herkömmliche Clustering bei MS war nie wirklich rosig. Und man hat sich mittlerweile bei sehr vielen Diensten dafür entschieden, anstatt echtem HA Cluster simple Multinode Absicherungen zu bauen. Sprich da gibts dann einfach mehrere Front/Backend Server im Verbund, fällt einer weg, wird ein anderer angesprochen. Wie eben bei Sharepoint, SQL?, Exchange, ADDS, DNS, RDS usw.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh