Kleine Beratung Server Umbau

Spawn182

Enthusiast
Thread Starter
Mitglied seit
25.10.2006
Beiträge
618
Ort
Berlin
Hallo, ich bräuchte mal einen Wink. Habe den Auftrag für ein kleines Architekturbüro plus Mini-Renderfarm plus IT Abteilung eine neue Serverstruktur aufzubauen. Arbeitsplätze momentan 15-25, plus 4 Renderknechte. Es läuft ein eigener Exchange. Momentan wird das über eine SBS2008 Whitebox 4U 24x3,5" (E5520 / 36GB RAM / 8TB RAID6 Fileserver / 10TB RAID5 Sicherungen, die dann extern abgelegt werden) befeuert. Die Box läuft seit 4,5 Jahren rund ist nun aber in die Jahre gekommen und soll/muss ausgetauscht werden.

Softwareseitig sind wir in einer Windowswelt unterwegs, mit ein paar Mac Arbeitsplätzen für Grafik und Softwareentwicklung. Wir haben als Basis ein MS Actionpack und wollen nach Möglichkeit auch dieses weiter nutzen.

Momentanes Budget ist 5000 EUR plus minus und in den nächsten 12 Monaten denke ich nochmal ein solcher Happen. Meine Auftraggeber haben nichts gegen eine Whitebox Lösung, wenn sie dafür mehr Leistung einkaufen. Ausfallzeiten 24h sind Ok (dann muss Exchange wieder laufen, in der Zwischenzeit ist der Empfang und Versand über einen RelayHost möglich), Fileserver wird auf ein MiniNas gespiegelt insgesamt sind wir damit glaube ich ganz gut aufgestellt.

Ziele
  • Tausch der alten Hardware gegen eine aktuelle Plattform
  • Virtualisierung der Server (Hyper-V, da wir dafür die nötigen Lizenzen haben)
  • Umstellung Exchange 2013/2016
  • Neueinrichtung DC Exchange Fileserver auf 2012R2 Basis oder aktueller
  • Umstellung auf Raoming Profiles (jeder soll an jeder Maschine arbeiten können)
  • Phase 2 ?? Aufsplitten in SAN und Server für Hyper-V
  • Phase 3 Zweiter Hyper-V Server für entsprechende Ausfallsicherheit (neues Budget)
  • Phase 3 Einbindung eines zweiten Büros (3-6 Arbeitsplätze), mit einem Server auf dem auch ein DC / Exchange / Fileserver Instanz läuft) (neues Budget)

Wichtigstes Augenmerk ist die Performance, es läuft viel über Exchange, entsprechend groß sind die Postfächer (20-50GB pro Nase) und die Workstations müssen Flux auf ihre Daten zugreifen können. Projektgrößen so zwischen 1 und 2 GB, die dann beim öffnen bewegt werden. Der Serverschrank ist mit einem 10GBase Switch ausgestattet, insofern sollte zumindest dort kein großer Flaschenhals sein. Und nun kommt noch die Last der Roaming Profiles hinzu.

Meine Idee war es die 5000 EUR jetzt erst mal in einen soliden Hyper-V Server zu stecken (dual Sockel 2011-3 plus viel RAM), der auch zukünftigen Aufgaben gewachsen ist. Denke aber, der muss vorübergehen auch die Fileserver Aufgaben übernehmen, da die alte Kiste möglichst schnell aufs Abstellgleis soll und genau da liegt momentan mein Problem, denn die von der Stange Server haben meist nur 2U und da komme ich mit unserem Storageansprüchen nicht unter. Im zweiten Schritt käme dann für weitere 5000 EUR ein SAN dazu.

Wie seht ihr das, sollte ich in die 5000 EUR ein SAN und Hyper-V stopfen oder ist das SAN wichtiger? Ist das utopisch für die Ansprüche. Muss ich auf 10000 EUR bestehen. Würde mich über eure Erfahrungen freuen. Habe da finanziell einen Spielraum, wenn ich es gut begründen kann. Wie gesagt, Whitebox und auch Software wie FreeNAS etc. ist OK, da wir Phasen durchmachen, in denen es finanziell nicht so gut läuft und da werden dann eh alle Serviceverträge gekündigt ;)

Gruß der Spawn
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also ohne mich auf irgendwelche anforderungen oder das budget zu beziehen, nen SAN macht gar keinen sinn (kostenmässig) bei weniger/gleich 3 hosts (wenn alle im selben rack sind!), da ist ein DAS system mit SAS für virtualisierung am kosteneffizientesten.
2 (3) hosts ohne HDDs via SAS an die storagebox, booten von der storagbox, virtualisierer drauf, lizenzen gekauft, fertig ist das HA system (zumindest hardware-seitig).

billig ist auch das nicht, jedoch im vergleich zu SAN viel günstiger.

whitebox wirst du ja mit sicherheit heutzutage nicht mehr machen, das ist (bei der grössenordnung) steinzeit wenn man kosten von ausfallzeiten in betracht zieht (oder legst du dir alle komponenten des neuen whitebox servers unters kopfkissen, damit du die innerhalb von 24h auswechseln kannst?)



5000euro für EIN server UND die storagebox (ohne festplatten!) reicht vielleicht GRADE SO ca., wenn du was mit "nur" 64GB ram und EINEM standard server processor wie e5 2620 v3 nimmst...
MIT festplatten o.g. kapazität? -> du träumst... für die HHDs kommen noch mal ca. 3000euro für das RAID6 (gleiche kapazität, "günstiger" 10k speicher) hinzu. für das raid5 entsprechend 3500euro ca.
DUAL 10GBit -> +400euro.


ansonsten, willst du die low-budget-7,2k-speicher variante, bauste dir nen whitebox host mit server hardware vom online distri (am besten das supermirko-mainboard gleich 2x kaufen...) mit nem SAS-raidcontroller (2x kaufen) mit ext. anschluss und redundantem NT, und ne whitebox DAS mit redundantem NT in die du dann die billig desktop HDDs schieben kannst. mit hardware-seitigem HA wirds dann aber nix, und ausfall bedeutet du fährst hin und tauschst h/w aus, und wenn was kaputt ist was du nicht hast, dann biste am arsch und es gibt ausfallzeit, von der neuconfig des (evtl. defekten) raidcontrollers (JA!! das kommt vor das die dinger kaputt gehen...) inkl rebuild etc. ganz zu schweigen... naja, also DARAUF hätte ich ja nun sowas von keinen bock mehr, aber ich bin ja auch alt und sehe entspannt zu wie meine VMs auf dem backup wieder online gehen während ich die nummer des VoS wähle um dann am nächsten tag kaffee-trinkend dem OEM-techniker zuzusehen, statt früh um 8 nach meinem schraubendreher zu suchen und mich an die heizung zu ketten und 3x pro stunde gen silicon valley zu beten das der controller die raids nicht abgefucked hat und ich eine 10TB wiederherstellung vom backup machen muss... :xmas:

ausserdem macht das ganze dann recht wenig sinn, weil so viel speicher braucht ihr nun dann auch nicht, dann kannste auch gleich alles in einem server machen, in ein 4HE whitebox passen 24 3,5" oder 36 2,5" HDDs...
DAS wäre dann wieder konsequent und sehr günstig zu realisieren mit viel leistung! und wie gesagt, vielleicht läuft das ding 5 jahre durch (war bei meinem letzten verwalteten xenserver auch so der in der form auch "production" bis letztes jahr noch lief...) - vielleicht geht er dir aber auch eine woche nach IBN kaputt (war bei einem neuen esxi host erst vor 3 monaten bei mir der fall, jedoch in einem 3-host HA verbund, war ein netter test...)

PS:

viel glück! :cool:
 
Zuletzt bearbeitet:
Danke für deine Sicht, am Ende ist es das Budget das den Umbau mehr oder minder definiert. Klar möchte sich jeder das Leben so leicht machen wie es geht und am besten wäre es überall "Enterprise grade" Hardware aufzustellen mit entsprechenden Verträgen, aber das ist eben nicht drin. Der letzte Server hat damals <5000 EUR gekostet (inkl. Storage). Das ganze als Fertiglösung mit den Eckdaten hätte locker das dreifache und mehr gekostet, aber das weißt du ja selbst.

Ich schaue mir das DAS Thema mal an. Ansonsten läuft es wohl fürs erste auf eine Eierlegendewollmilchsau hinaus, sprich erneut 4U Whitebox plus Ersatzteile im Schrank.

Ich werde das Thema Roaming Profiles so weit es geht abblocken. Es würde reichen, wenn Outlook läuft und der Rest lokal definiert ist und das was ansonsten gebraucht wird auf einem User zugeordnetem Bereich auf dem Storageserver liegt. Momentan liegen eh alle relevanten Projekt Daten auf dem Server und ob nun der Hintergrund und deine Icons immer an der gleichen Stelle sind, ist mir wurscht. Die Hardware ist eh zu unterschiedlich, wir haben ein paar Office Systeme, Laptops und eben ca. 10 fette Workstations, die aber auch noch mal verschieden ausgelegt sind, für CAD, Visualisierung und Video. Denke diese Profil Geschichte ist super in einem Unternehmen mit 100 Mitarbeitern, die alle auf identischer Hardware/Software arbeiten.
 
Was bitte ist eine "whitebox"??
(höre/lese ich zum ersten mal)
Ist das eine Umschreibung für "Selbstbau"?

'ne Black Box kenne ich. (Kasten wo man nicht weiss was drin ist)
 
also ohne mich auf irgendwelche anforderungen oder das budget zu beziehen, nen SAN macht gar keinen sinn (kostenmässig) bei weniger/gleich 3 hosts (wenn alle im selben rack sind!), da ist ein DAS system mit SAS für virtualisierung am kosteneffizientesten.
2 (3) hosts ohne HDDs via SAS an die storagebox, booten von der storagbox, virtualisierer drauf, lizenzen gekauft, fertig ist das HA system (zumindest hardware-seitig).

billig ist auch das nicht, jedoch im vergleich zu SAN viel günstiger.

whitebox wirst du ja mit sicherheit heutzutage nicht mehr machen, das ist (bei der grössenordnung) steinzeit wenn man kosten von ausfallzeiten in betracht zieht (oder legst du dir alle komponenten des neuen whitebox servers unters kopfkissen, damit du die innerhalb von 24h auswechseln kannst?)



5000euro für EIN server UND die storagebox (ohne festplatten!) reicht vielleicht GRADE SO ca., wenn du was mit "nur" 64GB ram und EINEM standard server processor wie e5 2620 v3 nimmst...
MIT festplatten o.g. kapazität? -> du träumst... für die HHDs kommen noch mal ca. 3000euro für das RAID6 (gleiche kapazität, "günstiger" 10k speicher) hinzu. für das raid5 entsprechend 3500euro ca.
DUAL 10GBit -> +400euro.


ansonsten, willst du die low-budget-7,2k-speicher variante, bauste dir nen whitebox host mit server hardware vom online distri (am besten das supermirko-mainboard gleich 2x kaufen...) mit nem SAS-raidcontroller (2x kaufen) mit ext. anschluss und redundantem NT, und ne whitebox DAS mit redundantem NT in die du dann die billig desktop HDDs schieben kannst. mit hardware-seitigem HA wirds dann aber nix, und ausfall bedeutet du fährst hin und tauschst h/w aus, und wenn was kaputt ist was du nicht hast, dann biste am arsch und es gibt ausfallzeit, von der neuconfig des (evtl. defekten) raidcontrollers (JA!! das kommt vor das die dinger kaputt gehen...) inkl rebuild etc. ganz zu schweigen... naja, also DARAUF hätte ich ja nun sowas von keinen bock mehr, aber ich bin ja auch alt und sehe entspannt zu wie meine VMs auf dem backup wieder online gehen während ich die nummer des VoS wähle um dann am nächsten tag kaffee-trinkend dem OEM-techniker zuzusehen, statt früh um 8 nach meinem schraubendreher zu suchen und mich an die heizung zu ketten und 3x pro stunde gen silicon valley zu beten das der controller die raids nicht abgefucked hat und ich eine 10TB wiederherstellung vom backup machen muss... :xmas:

ausserdem macht das ganze dann recht wenig sinn, weil so viel speicher braucht ihr nun dann auch nicht, dann kannste auch gleich alles in einem server machen, in ein 4HE whitebox passen 24 3,5" oder 36 2,5" HDDs...
DAS wäre dann wieder konsequent und sehr günstig zu realisieren mit viel leistung! und wie gesagt, vielleicht läuft das ding 5 jahre durch (war bei meinem letzten verwalteten xenserver auch so der in der form auch "production" bis letztes jahr noch lief...) - vielleicht geht er dir aber auch eine woche nach IBN kaputt (war bei einem neuen esxi host erst vor 3 monaten bei mir der fall, jedoch in einem 3-host HA verbund, war ein netter test...)

PS:

viel glück! :cool:


Kann dem nur so zustimmen!
 
Was bitte ist eine "whitebox"??
(höre/lese ich zum ersten mal)
Ist das eine Umschreibung für "Selbstbau"?

'ne Black Box kenne ich. (Kasten wo man nicht weiss was drin ist)

Ja, whitebox oder auch white box, heißt nichts anderes, als dass außen auf der Kiste eben kein namhafter Hersteller prangt. Ist nichts neues und muss einer Lösung von Dell HP und Konsorten auch in keinem Merkmal nachstehen, außer eben im Support, den man ja letztendlich bei denen auch mitbezahlt. Kommt eben sehr auf das Einsatzgebiet an.
 
Ansonsten läuft es wohl fürs erste auf eine Eierlegendewollmilchsau hinaus, sprich erneut 4U Whitebox plus Ersatzteile im Schrank.

ich sag ja. das kann man auf jeden fall so machen, wenn der AG damit EINverstanden ist und das auch vollständig VERstanden hat... weil dann isses für den verwalter (dich) im falle eines serverdefektes auch nicht so stressig.
aber aus langjähriger erfahrung kann ich sagen, das sich billig-storage schnell recht. ich würde jedem, egal wie kosteneffizient er arbeiten muss, von desktop- (und auch von nearline-) storage abraten
-> 10k serverdisks einbauen, immer, und GANZ BESONDERS bei parity-raids!! auch wenn es quasi das 6-8fache kostet.
7.2k "billigstorage" verwende ich nur noch bei backupservern (die dann aber natürlich noch mal auf ext. medien weiter sichern), und da ist das dann ja auch einfach wenn man quasi raid1/raid10 arrays mit 2/4 HDDs bauen kann die schon die gesamtkapazität abdecken (gibt ja bereits 8TB hdds im kosteneffizienten bereich...)

und bei der IBN des neuen servers würd ich peinlichst darauf achten, die H/W vor live gut zu testen, weil wie gesagt, kommt nicht selten vor das irgendwas von dem zeug DOA oder fehlerbehaftet geliefert wird, und wenn du dass dann erst im betrieb merkst, ist das dann richtig unkühl wenn das system schon live ist... :cool:
 
Also bevor man 10K Server HDDs (10.000 U/Min) verbaut, würd ich den Storage eher auf SSDs aufbauen, das bringt dann deutlich mehr als der Sprung von 7.200 auf 10.000 U/Min.
Zumindest den Storage für die VMs, Exchange Postfächer und Logs, Profile und Arbeitsdaten gehören auf ein oder mehrere SSD Storages, wenn Performance gefragt ist, Für "Cold Data" kann man weiterhin auf HDDs setzen.
Ich kann aus deiner Ursprungsanfrage nicht erkennen, wieviel Plattenkapazität zukünftig benötigt wird! 18 TB gesamt ist nun heutzutage keine Grösse mehr :)

Ich habe gerade was ähnliches in der Mache (allerdings nicht mit 24 HDD Plätzen sondern nur 10x2,5" SSDs):

Mainboard ASRock Rack EP2C612D8-2T8R
Dual CPU-Sockel (wird vorerst 1x bestückt)
LSI 3008 SAS/SATA Controller
2x 10 GBE (Intel X540)
1x GB-LAN IPMI
Intel Xeon E5-2630 v4, 10x 2.20 GHz
CPU Kühler
4x LRDIMM 32GB, DDR4
10x SSDs (2x128 GB /4x 256 GB /4x 512GB)

Die SSDs teilen sich wie folgt auf:
1x 128 GB an SATA: ESXI und Storage VM (NAS4Free) (1x 128 GB wird als Cold Mirror "gespiegelt", wenn alles löppt)
2x 256 GB an SAS im ZFS Mirror per NFS an die ESXI als VM-Storage
2x 256 GB an SAS im ZFS Mirror per iSCSI an Exchange-VM für Postfächer
2x 256 GB an SAS im ZFS Mirror per iSCSI an Exchange-VM für Logs
2x 512 GB an SAS im ZFS Mirror per CIFS/SMB als Datenablage für alle VMs

NAS4Free als Stroage-VM ist noch nicht in Stein gemeisselt, eventuell wechseln wir da noch auf OmniOS mit Napp-It, wir sind noch am Testen.
(Zur Zeit müssen wir offenbar eSXi erstmal auf Version 6U3 hochziehen - eSXi 5.5 unterstützt möglicherweise den Broadwell-EP nicht so ganz - daß suggeriert mir zumindest ein Blick in die Kompatibilitätsmatrix von VMWARE!
Habe Probleme mit dem durchreichen einer BRI-ISDN Karte an eine VM. Beim Installieren der Treiber in der VM friert die VM ein und reißt sogar den ganzen eSXi Host mit. vSphrere kann den nicht mehr erreichen. Selbst ein Reboot auf der Konsole initiiert scheitert grandios.)
 
Zuletzt bearbeitet:
@Spawn182
Hast du was in dieser Größenordnung schon mal gemacht?
Ich sehe hier eine Riesenwelle auf dich zurollen und da sind die Hardwarekosten noch das geringste.
Kannst du nach Aufwand abrechnen oder gibts dafür auch ein Budget?
Was ist mit Lizenzen, Server 2012, Exchange , Antivirus, CAL ?
Ich würde allein für die Projektierung samt Zeitplan schon mal 2-3000€ veranschlagen, bist du sicher das du das Ding komplett überblickst?

cu
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh