Meinung zu Serverkomponenten

xXMariusXx

Neuling
Thread Starter
Mitglied seit
19.09.2018
Beiträge
12
Ort
Dortmund
Moin zusammen,
ich bin dabei für unsere Firma einen neuen Server zu bauen.

Kurze Vorstellung:
- Wir sind Galabauer und nutzen ca. 10 Clients. Es wird nicht virtualisiert. Auf dem Server laufen ein paar Datenbanken, Exchange, Webserver, Mailserver etc. Nichts aufregendes.
- Ich bin ein 21-Jähriger Student der praktischen Informatik an einer FH

Nun habe ich folgende Komponenten ausgewählt, und würde mich über eure Einschätzungen freuen, in wie weit die Komponenten zusammen passen, oder ob ihr einzelne Teile durch Alternativen austauschen würdet. Kompatiblitätslisten habe ich soweit ich gefunden habe, berücksichtigt.
Die SSD's sollen im RAID 1 laufen.

Ich bitte um keine Grundsatzdiskussion, ob man den Server selbst errichten und verwalten sollte! Über die Gefahren und Risiken sind wir uns im Klaren.

Bildschirmfoto 2018-10-28 um 19.10.47.png

Vielen Dank für eure Hilfe! :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zu dickes Netzteil, einfache Sata Ssds tuns auch, ansonsten doch ganz ok. Würde aber ein Supermicro Board bevorzugen.
 
Zuletzt bearbeitet:
Da reichen 300W dicke aus.
M2 ist nur rausgeworfenes Geld. Habt ihr nicht nen Serverschrank wo du das Ding als 19" unterbringen kannst?
 
Da reichen 300W dicke aus.
M2 ist nur rausgeworfenes Geld. Habt ihr nicht nen Serverschrank wo du das Ding als 19" unterbringen kannst?

Eventuell eine Empfehlung für Netzteil Modell + Hersteller? Langen die Desktop Teile?

19" Rack wäre super, bin bisher aber noch auf keine passenden gestoßen. Wenn mir jemand eins empfehlen könnte, wäre das genial.
Hätte diese vorzuschlagen: 2U 2129-N - Inter-Tech GmbH oder https://shop.yakkaroo.de/19-Zoll-2HE-Server-Gehaeuse-IPC-G238-38cm-kurz
 
Zuletzt bearbeitet:
Das ASUS P10S-WS ist ein Workstationboard und benötigt zwingend eine CPU mit iGPU oder dedizierte Grafikkarte >> Kein IPMI (oder ähnliches), Keine Fernwartung!
(IntelAMT/vPro sollte prinzipiell gehen, sofern nicht von vornherein deaktiviert, da WS-Board)
Ansonsten schliesse ich mich oben geschrieben an :-)

Gehäuse:
Nanoxia Deep Silence 3 schwarz, schallged69,90 (2018) | heise online Preisvergleich / Deutschland
Deutlich preiswerter (wozu braucht man bei einem Server eine Plexiglas Seitenwand?)

CPU Kühler:
Das ist ein Server, der wird nicht übertaktet (geht meist auch gar nicht), da reicht z.B. ein Ben Nevis.
EKL Alpenf22,63 (2018) | heise online Preisvergleich / Deutschland


Zu Netzteil und SSDs ist oben schon alles gesagt


Zum Thema 19", da müßten wir erstmal wissen, was für ein Rack/Schrank vorhanden ist - insbesondere die Tiefe desselben und welche Bauhöhe noch frei wäre (1-4HE).
Soll es leise sein, fallen 1 oder 2 HE eigentlich schon von vornherein raus., selbst 3 HE ist schon schwierig, da hier meist nur Servernetzteile verbaut werden können und die i.d.R. kleine "Kreischlüfter" haben.

BTW - zu wenig SSDs!
2 SSDs (Raid1) für OS und Programme
2 SSDs (Raid1) für Exchange Datenbank
2 SSDs (Raid1) für Exchange Datastore
2 SSDs (Raid1) für Nutz-Daten (z.B. weitere Datenbanken, zentrale Datenablage/freiggebener Netzwerkshare etc.)
Optional: 1 SSD als Temp/Scratch Laufwerk - Tempverzeinchnis(se), Auslagerungsdatei (kann natürlich auch als Raid 1 aus 2 SSDs gebildet werden)

Größen sollten natürlich an die tatsächlichen Gegebenheiten angepaßt werden. Eine derartige Aufteilung bringt dir mit Sicherheit mehr Performance als 2 große NVME-SSDs
Als Bonus nimmt man dann zumindest für Exchange-DB & Datastore Enterprise-Class SSDs mit hoher Steady State Performance, die auch unter Last nicht so stark einbrechen, wie die meisten Consumer SSDs.
Dieses Mainboard hat dafür genügens Anschlüsse (6xSATA & 8xSAS/SATA)
Supermicro X11SSL-CF retail (MBD-X11SSL-CF-O) ab 254,78 (2018) | heise online Preisvergleich / Deutschland
Oder nur 8x SATA, dann ohne dediziertes Scratch/Temp Laufwerk
Supermicro X11SSM-F retail (MBD-X11SSM-F-O) ab 203,92 (2018) | heise online Preisvergleich / Deutschland


P.S. Auch mit 8 SSDs sollte ein 300W Netzteil noch ausreichend sein, da SSDs nicht den relativ hohen Anlaufstrom von ca. 2A auf der 12 V Schiene von HDDs benötigen.
 
Zuletzt bearbeitet:
@Digi-Quick: ist mir das -WS doch tatsächlich durch die Lappen gegangen, von den P10s Boards gibt es ja doch einige. Gutes Finding!

Die Tips mit den Ssds sind auch ne gute Idee, Backupspace habt ihr ja schon, oder?
 
Es wird nicht virtualisiert. Auf dem Server laufen ein paar Datenbanken, Exchange, Webserver, Mailserver etc. Nichts aufregendes.

Nur so aufregend, das MS empfiehlt, Exchange nicht auf einen Domänencontroller zu installieren. Die einzige Ausnahme davon war der SBS und der EBS.
Den Exchangeserver noch für andere Webserver zu ge(miss)brauchen ist auch sehr mutig. Kann nach Updates extrem in die Hose gehen. Wenn ihr nicht gerade den inzwischen 7 Jahre alten SBS2011 einsetzen wollt sollte man das Konzept ernsthaft überdenken.
 
Das ASUS P10S-WS ist ein Workstationboard und benötigt zwingend eine CPU mit iGPU oder dedizierte Grafikkarte >> Kein IPMI (oder ähnliches), Keine Fernwartung!
(IntelAMT/vPro sollte prinzipiell gehen, sofern nicht von vornherein deaktiviert, da WS-Board)
Ansonsten schliesse ich mich oben geschrieben an :-)
Meine ausgewählte CPU verfügt über eine integrierte GPU. IPMI benötigen wir nicht, Remote Desktop Zugriff ist ausreichend. Spricht in diesem Fall etwas gegen das Board?


CPU Kühler:
Das ist ein Server, der wird nicht übertaktet (geht meist auch gar nicht), da reicht z.B. ein Ben Nevis.
EKL Alpenf22,63 (2018) | heise online Preisvergleich / Deutschland
Alles klar ich werde etwas kleineres wählen danke!

Zum Thema 19", da müßten wir erstmal wissen, was für ein Rack/Schrank vorhanden ist - insbesondere die Tiefe desselben und welche Bauhöhe noch frei wäre (1-4HE).
Soll es leise sein, fallen 1 oder 2 HE eigentlich schon von vornherein raus., selbst 3 HE ist schon schwierig, da hier meist nur Servernetzteile verbaut werden können und die i.d.R. kleine "Kreischlüfter" haben.
10-15 HE sind mindestens noch frei. Es ist ein Serverschrank mit 70cm Tiefe und integriertem Belüftungssystem. Lautstärke ist egal, da wir eh einen separaten Serverraum haben, bin aber nicht abgeneigt etwas Platz zu verschwenden und dafür in 3 oder 4 HE zu bauen.

BTW - zu wenig SSDs!
2 SSDs (Raid1) für OS und Programme
2 SSDs (Raid1) für Exchange Datenbank
2 SSDs (Raid1) für Exchange Datastore
2 SSDs (Raid1) für Nutz-Daten (z.B. weitere Datenbanken, zentrale Datenablage/freiggebener Netzwerkshare etc.)
Optional: 1 SSD als Temp/Scratch Laufwerk - Tempverzeinchnis(se), Auslagerungsdatei (kann natürlich auch als Raid 1 aus 2 SSDs gebildet werden)

Größen sollten natürlich an die tatsächlichen Gegebenheiten angepaßt werden. Eine derartige Aufteilung bringt dir mit Sicherheit mehr Performance als 2 große NVME-SSDs
Als Bonus nimmt man dann zumindest für Exchange-DB & Datastore Enterprise-Class SSDs mit hoher Steady State Performance, die auch unter Last nicht so stark einbrechen, wie die meisten Consumer SSDs.
Dieses Mainboard hat dafür genügens Anschlüsse (6xSATA & 8xSAS/SATA)
Supermicro X11SSL-CF retail (MBD-X11SSL-CF-O) ab 254,78 (2018) | heise online Preisvergleich / Deutschland
Oder nur 8x SATA, dann ohne dediziertes Scratch/Temp Laufwerk
Supermicro X11SSM-F retail (MBD-X11SSM-F-O) ab 203,92 (2018) | heise online Preisvergleich / Deutschland


P.S. Auch mit 8 SSDs sollte ein 300W Netzteil noch ausreichend sein, da SSDs nicht den relativ hohen Anlaufstrom von ca. 2A auf der 12 V Schiene von HDDs benötigen.

Ist die Aufteilung auf solch eine Anzahl von SSD's in unserem Fall von Nöten? Wie groß ist der Performancezuwachs, im Vergleich zum höheren Aufwand?
Auf der Suche nach vernünftigen Enterprise SSD's bin ich leider nicht sehr fündig geworden, hättest du empfehlenswerte Modelle?

Vielen Dank für die umfangreichen Infos

- - - Updated - - -

@Digi-Quick: ist mir das -WS doch tatsächlich durch die Lappen gegangen, von den P10s Boards gibt es ja doch einige. Gutes Finding!

Die Tips mit den Ssds sind auch ne gute Idee, Backupspace habt ihr ja schon, oder?

Das hört sich so an als ob es passendere Versionen des P10S Boards für uns gibt?
Ja Backupspace haben wir, soll aber auch was neues her. Das sind externe 500GB HDD.
Stand jetzt lässt unsere Internetverbindung keine Backups auf Online Storage zu, weshalb wir vorerst noch auf externe Lösungen zurückgreifen müssen.
 
Warum bist du auf das Board fixiert? Nachteil an IGPU ist, dass du dann immer nen Monitor im Schrank stehen haben musst wenn du mal nicht über Remote drauf kommst. Bei dem ASUS gibt es noch so nen optionales Board dafür: ASMB8-iKVM
 
IPMI willst du genau dann haben wenn RDP nicht mehr geht.
Und alles auf einem physikalischen zu installieren finde ich nicht zeitgemäß.
Zumindest einen freien Hypervisor würde ich einsetzen und den Kerndiensten ihre eigene OS Instanz spendieren.
 
Ich versteh auch nicht, warum das eine Bastellösung werden soll, bei dem Budget, holt man sich doch eher was fertiges, zumal der Exchange sicher Geschäftsrelevant sein wird. - wenn es denn ein Exchange sein muss, kost ja schließlich auch Geld...
Und wenn im Rack noch Platz ist, versteh ich nicht, warum das so ein "Designer" Case statt nem Rackgehäuse sein soll...
 
70 cm ist für ein Serverrack/-Schrank leider nicht viel und schränkt die Auswahl an möglichen Gehäusen ein (80 cm gilt eigentlich als minimaler Standard)
Daraus resultiert eine maximale Gehäusetiefe von 60 cm (jeweils ca. 5cm vorn und hinten sollte man mind. für die Lufzirkulation und die Kabel einplanen.

Meine Empfehlung:
https://www.xcase.co.uk/collections/4u-rackmount-cases/products/x-case-x445-c8-lcd-4u-with-8-hotswap-bay
+ es gehen normale ATX Netzteile
- leider nur 2 80mm Lüfter hinten (keine dedizierten Lüfter für die HDDs/SSDs)
- muß in England bestellt werden (noch geht das ja - bin mal gespannt was X-Case nach dem Brexit macht)

Alternative (teurer):
Chenbro RM42300 2 T142,96 (2018) | heise online Preisvergleich / Deutschland
Plus Einbaurahmen/Backplane für SSDs, z.B.
Supermicro Mobile Rack CSE-M28SACB-OEM ab 153,98 (2018) | heise online Preisvergleich / Deutschland
RaidSonic Icy Box IB-2281MSK (60268) ab 127,95 (2018) | heise online Preisvergleich / Deutschland
+ es gehen normale ATX Netzteile (PS/2 = ATX von der Bauform)
+ Die Backplane hat eigene Lüfter

- - - Updated - - -

IPMI willst du genau dann haben wenn RDP nicht mehr geht.
THIS!
Das ASUS kostet mit ASMB8-iKVM fast genausoviel wie ein Supermicro....

Und alles auf einem physikalischen zu installieren finde ich nicht zeitgemäß.
Zumindest einen freien Hypervisor würde ich einsetzen und den Kerndiensten ihre eigene OS Instanz spendieren.

- - - Updated - - -

Nur so aufregend, das MS empfiehlt, Exchange nicht auf einen Domänencontroller zu installieren. Die einzige Ausnahme davon war der SBS und der EBS.
Den Exchangeserver noch für andere Webserver zu ge(miss)brauchen ist auch sehr mutig. Kann nach Updates extrem in die Hose gehen. Wenn ihr nicht gerade den inzwischen 7 Jahre alten SBS2011 einsetzen wollt sollte man das Konzept ernsthaft überdenken.
Von einem DC steht in der Anforderung nichts.
Aber Grundsätzlich wäre eine Virtualisierung der verschiedenen Dienste durchaus zeitgemäß und streßfreier
 
Nur so aufregend, das MS empfiehlt, Exchange nicht auf einen Domänencontroller zu installieren. Die einzige Ausnahme davon war der SBS und der EBS.
Den Exchangeserver noch für andere Webserver zu ge(miss)brauchen ist auch sehr mutig. Kann nach Updates extrem in die Hose gehen. Wenn ihr nicht gerade den inzwischen 7 Jahre alten SBS2011 einsetzen wollt sollte man das Konzept ernsthaft überdenken.

Habe schon überlegt eventuell auf die Windows Server Standard Version zurückzugreifen, um Exchange von dem Rest zu trennen, also eine Virtualisierung

- - - Updated - - -

Ich versteh auch nicht, warum das eine Bastellösung werden soll, bei dem Budget, holt man sich doch eher was fertiges, zumal der Exchange sicher Geschäftsrelevant sein wird. - wenn es denn ein Exchange sein muss, kost ja schließlich auch Geld...
Und wenn im Rack noch Platz ist, versteh ich nicht, warum das so ein "Designer" Case statt nem Rackgehäuse sein soll...


19“ Rackgehäuse wurde ja bereits angesprochen und wird gewünscht, habe ich nicht dran gedacht.

- - - Updated - - -

Warum bist du auf das Board fixiert? Nachteil an IGPU ist, dass du dann immer nen Monitor im Schrank stehen haben musst wenn du mal nicht über Remote drauf kommst. Bei dem ASUS gibt es noch so nen optionales Board dafür: ASMB8-iKVM

Bin durchaus bereit jedes andere Board zu nehmen, und offen für jegliche Empfehlungen.

- - - Updated - - -

IPMI willst du genau dann haben wenn RDP nicht mehr geht.
Und alles auf einem physikalischen zu installieren finde ich nicht zeitgemäß.
Zumindest einen freien Hypervisor würde ich einsetzen und den Kerndiensten ihre eigene OS Instanz spendieren.

Klingt sinnvoll. Würde eine Aufteilung in 2 Teile, physikalisch und softwaretechnisch ausreichen?
 
Ist die Aufteilung auf solch eine Anzahl von SSD's in unserem Fall von Nöten? Wie groß ist der Performancezuwachs, im Vergleich zum höheren Aufwand?
Auf der Suche nach vernünftigen Enterprise SSD's bin ich leider nicht sehr fündig geworden, hättest du empfehlenswerte Modelle?
Exchange ist relativ Zugriffsintensiv, sowohl auf dem Datastore als auch der Datenbank. Dedizierte Laufwerke/Volumes die Exchange exklusiv zu Verfügung stehen steigern selbstredend die Performance. Es kommt hier natürlich auch darauf an, wie hoch ist das Mailaufkommen und wie viele Clients greifen gleichzeitig zu.
z:B.
Intel® SSD DC S3610 Series
Intel® SSD DC S4600 Series
 
70 cm ist für ein Serverrack/-Schrank leider nicht viel und schränkt die Auswahl an möglichen Gehäusen ein (80 cm gilt eigentlich als minimaler Standard)
Daraus resultiert eine maximale Gehäusetiefe von 60 cm (jeweils ca. 5cm vorn und hinten sollte man mind. für die Lufzirkulation und die Kabel einplanen.

Meine Empfehlung:
https://www.xcase.co.uk/collections/4u-rackmount-cases/products/x-case-x445-c8-lcd-4u-with-8-hotswap-bay
+ es gehen normale ATX Netzteile
- leider nur 2 80mm Lüfter hinten (keine dedizierten Lüfter für die HDDs/SSDs)
- muß in England bestellt werden (noch geht das ja - bin mal gespannt was X-Case nach dem Brexit macht)

Alternative (teurer):
Chenbro RM42300 2 T142,96 (2018) | heise online Preisvergleich / Deutschland
Plus Einbaurahmen/Backplane für SSDs, z.B.
Supermicro Mobile Rack CSE-M28SACB-OEM ab 153,98 (2018) | heise online Preisvergleich / Deutschland
RaidSonic Icy Box IB-2281MSK (60268) ab 127,95 (2018) | heise online Preisvergleich / Deutschland
+ es gehen normale ATX Netzteile (PS/2 = ATX von der Bauform)
+ Die Backplane hat eigene Lüfter

- - - Updated - - -


THIS!
Das ASUS kostet mit ASMB8-iKVM fast genausoviel wie ein Supermicro....



- - - Updated - - -


Von einem DC steht in der Anforderung nichts.
Aber Grundsätzlich wäre eine Virtualisierung der verschiedenen Dienste durchaus zeitgemäß und streßfreier

Gehäuse schaue ich mir heute Abend am PC mal in Ruhe an.

Ob einzelne Teile 100€ mehr oder weniger kosten ist irrelevant, Hauptsache sie entsprechen den Ansprüchen.

Würde eine Virtualisierung mit 2VM ausreichen? Dann müsste ich zumindest nicht auf die Datacenter Editionen von Windows Server zurückgreifen. Diese würde ich dann auch physikalisch aufteilen.

Entschuldigt die knappen Antworten, ich bin noch unterwegs

- - - Updated - - -

Exchange ist relativ Zugriffsintensiv, sowohl auf dem Datastore als auch der Datenbank. Dedizierte Laufwerke/Volumes die Exchange exklusiv zu Verfügung stehen steigern selbstredend die Performance. Es kommt hier natürlich auch darauf an, wie hoch ist das Mailaufkommen und wie viele Clients greifen gleichzeitig zu.
z:B.
Intel® SSD DC S3610 Series
Intel® SSD DC S4600 Series

Das sehe ich im jetzigen Fall. Viele Probleme hängen mit Exchange zusammen, seien es nur unnötig gefressene Ressourcen die dann woanders zu Problemen führen.
 
Zuletzt bearbeitet:
IPMI hab ich dieses Wochenende erst wieder schätzen gelernt, als ich meinen ESXI neu aufgesetzt hab und die Kiste verrammelt im Abstellkammerl steht. Mir kommt kein Server ohne mehr ins Haus.

Grundsätzlich gilt: so wenig Dienste wie möglich zusammen in eine Instanz, damit das ganze modular und einfach wartbar bleibt als auch Amok laufende Services möglichst wenig anrichten kann. Bzgl. Verfügbarkeit als auch bzgl. Datenintegrität. Im Interesse des Adminaufwandes und auch um des Geschäftsbetriebes.
 
Zuletzt bearbeitet:
:popcorn:
Mag ja sein, das man mit 21 die notwendige Erfahrung hat, hier genau das zu finden, was eine FIRMA, die damit in irgendeiner Art und Weise GELD verdient auf ne Bastellösung steht, aber ganz ehrlich, für das Geld, was hier gesucht und gefunden wird, holt man sich doch einen entsprechenden Server inkl. 3/5 Jahre NBD-Wartung vor Ort bei nem Systemhaus seiner Wahl...
 
Meine Empfehlung:
https://www.xcase.co.uk/collections/4u-rackmount-cases/products/x-case-x445-c8-lcd-4u-with-8-hotswap-bay
+ es gehen normale ATX Netzteile
- leider nur 2 80mm Lüfter hinten (keine dedizierten Lüfter für die HDDs/SSDs)
- muß in England bestellt werden (noch geht das ja - bin mal gespannt was X-Case nach dem Brexit macht)

Die XCase Racks scheinen ganz passend zu sein. Das von dir verlinkte Produkt kommt definitiv in die engere Auswahl.

- - - Updated - - -

:popcorn:
Mag ja sein, das man mit 21 die notwendige Erfahrung hat, hier genau das zu finden, was eine FIRMA, die damit in irgendeiner Art und Weise GELD verdient auf ne Bastellösung steht, aber ganz ehrlich, für das Geld, was hier gesucht und gefunden wird, holt man sich doch einen entsprechenden Server inkl. 3/5 Jahre NBD-Wartung vor Ort bei nem Systemhaus seiner Wahl...
Wir können darüber gerne per PN diskutieren, aus diesem Thread soll das Thema aber bitte rausgehalten werden.

- - - Updated - - -


Wenn ich das richtig sehe, bietet die DC S4600 Series nur TLC, während die von mir gewählten SSD's auf MLC aufgebaut sind. Sollte ich die Intel SSD's trotzdem bevorzugen?

- - - Updated - - -


Mit dem Supermicro X11SSM-F kann ich mich anfreunden.
Sollte ich beim Prozessor in diesem Fall auf den e3 1280 ohne integrierte GPU zurückgreifen, oder "stört" die Grafikfähigkeit des 1285 nicht? KANN das MB zusätzlich IMPI, oder fällt dadurch die normale Grafikfähigkeit weg? VGA Anschluss ist ja dran..

- - - Updated - - -

Von einem DC steht in der Anforderung nichts.

Selbstverständlich wird auch ein DC eingesetzt :d
 
Wenn ich das richtig sehe, bietet die DC S4600 Series nur TLC, während die von mir gewählten SSD's auf MLC aufgebaut sind. Sollte ich die Intel SSD's trotzdem bevorzugen?
Die Speichertechnologie ist ja nur ein Faktor von vielen, DC steht im übrigen für "DATA Center", da kann man eine gewisse Erwartung dranhängen.

Gibt natürlich noch mehr
Intel® SSD Data Center Family
Einige sind für Read, andere für Write optimiert, die beiden von mir ausgesuchten sind für Mixed Load optimiert.
Intel SSDs im Überblick – Thomas-Krenn-Wiki
Die 3710 sind wohl auch ganz interessant (Nachfolger der 3610?)


Mit dem Supermicro X11SSM-F kann ich mich anfreunden.
Sollte ich beim Prozessor in diesem Fall auf den e3 1280 ohne integrierte GPU zurückgreifen, oder "stört" die Grafikfähigkeit des 1285 nicht? KANN das MB zusätzlich IMPI, oder fällt dadurch die normale Grafikfähigkeit weg? VGA Anschluss ist ja dran.
Der 1280 ist etwas langsamer - Basistakt/Turbotakt, die iGPU wird schlicht und einfach nicht genutzt.
Der VGA-Port wird vom ASPEED2400 BMC genutzt, der auch für IPMI zuständig ist

Selbstverständlich wird auch ein DC eingesetzt :d
Gut das wir drüber gesprochen haben :)
 
Zuletzt bearbeitet:
Moin,
ich verwerfe mal folgendes als Fertig-Server in den Raum. https://www.klarsicht-it.de/pc-server/computersysteme/server/server-8-core/312475/dell-emc-poweredge-t440-server-tower-5u-zweiweg-1-x-xeon-silver-4110/2.1-ghz gibt es auch mit 16 2,5" Hot-Swap Schächten.

Ist ein Dell EMC T440. Habe ich selber hier stehen. Dazu holst du dir noch 32GB oder 64GB RAM und hast schoneinmal eine super Grundlage. Hast direkt IPMI/iDrac mit an Board. Zu den SSDS wurde ja schonviel gesagt hier würde ich entweder auf die Samsung PM Serie oder halt Intel DC Serie gehen. Virtualisierer ala Esxi auf einen gescheiten USB-Stick das reicht aus da Esxi im Betrieb komplett im RAM arbeitet und nur die Logs auf USB zurück schreibt und dann 6 SSD´s verbauen. Entweder als RAID5 auf alle SSD´s und eine Hotspare oder als eigene RAID 1 Verbünde. Als OS würde ich auf Windows Server 2016/2019 gehen mit 2 mal Standard Lizenzen. Da DC, Exchange und FileServer nie kombiniert werden sollen hast du hier schon drei VM´s die sauber lizenziert werden wollen. Dazu noch die entsprechenden CALS. Webserver und solche Dinge kann man dann gerne mit Linux oder ähnlichem machen.

Nur kleine Info von mir. Ich mache dieses Feld beruflich und bin selber IT-Administrator für knapp 400 Leute man will einfach keine Bastellösungen den hier hast du das große Probleme wer garantiert dir das die Teile in 2 Jahren noch verfügbar ist? Keiner genau und da kommen die Support-Verträge der anderen ins Spiel du kannst bei 5 Jahren NBD-Wartung selbst in diesem Zeitraum dir 100% sicher sein das der Hersteller das Teil auf Lager hat. Vielleicht möchte dein Chef nicht mehr ausgeben mag alles sein aber wenn die Kiste ausfällt musst du erstmal den Fehler eingrenzen passende Teil bestellen und einbauen. In den meisten Fällen gehen dabei 2-3 Tage ins Land wo die Leute nur sehr uneimgeschränkt arbeiten können. Den Arbeitsausfall mal gegenrechnen und dann kann man sowas dem Chef auch mal vorlegen.

Hängt der Server an einer USV? Wie sieht das Backup Konzept aus?

Gruß Niklas
 
Wir können darüber gerne per PN diskutieren, aus diesem Thread soll das Thema aber bitte rausgehalten werden.

Selbstverständlich wird auch ein DC eingesetzt :d

--
Warum per PN? - es ist immer das gleiche.
Niklas hat das ja schön ausführlich erklärt.
Ich selber bin seit >11 Jahren als IT-System & Netzwerkadministrator tätig und habe hier echt schon viel erlebt. Davor habe ich mich ausschließlich um Netzwerke gekümmert.
Bei meinem vorherigen Arbeitgeber war das eine Umgebung mit rund 800 PC-Arbeitsplätzen - von Vertrieblern über Konstrukteure hin zu Servicetechnikern draußen beim Kunden, inkl. angebundener Niederlassungen.

Aktuell ist es etwas kleiner, aber auch hier muss die IT natürlich mit Augenmaß administriert und beschafft werden.
Während wir vorher zu 11. waren, stemmen wir das hier zu 2. - und da will keiner eine Bastellösung, weder vorher, noch hier jetzt.
Bastellösungen hat man am Ende im Softwareumfeld mehr als genug, die auch ordentlich administriert werden sollen...

Geräte ohne Service kommen mir nicht ins Haus, auch wenn der Acer-Desktop vlt. 3€ billiger ist... - spätestens bei einem Defekt (und die können echt die unterschiedlichsten Außmaße annehmen) bewährt es sich, wenn der Techniker vor Ort kommt, anstatt auf das Gerät verzichten zu müssen, weil man es einschickt. - und dann weiß man ja noch nicht, wann man es zurück bekommt...

Und wenn ihr schon Geld ausgebt, vorallem für den Server und auch die Software (Exchange...) dann kann man doch direkt auch etwas vernünftiges kaufen.
zumal Du mit der Bastellösung am Ende nicht günstiger kommst.
Für die Datenablage würde ich garkeine SSDs verwenden, sonder 600GB 10k SAS Platten - 4 Stück im Raid5 sollten euch doch erstmal genügen.

Generell darf man eben einen Server nicht als Standalone Gerät betrachten - hier kommt immer die Umgebung mit dazu! - Es muss schließlich ein ganzheitliches Konzept sein. - und auch für Schmalbandige Anschlüsse gibt es Cloudbackup-Lösungen.

:popcorn:
 
Die Speichertechnologie ist ja nur ein Faktor von vielen, DC steht im übrigen für "DATA Center", da kann man eine gewisse Erwartung dranhängen.

Gibt natürlich noch mehr
Intel® SSD Data Center Family
Einige sind für Read, andere für Write optimiert, die beiden von mir ausgesuchten sind für Mixed Load optimiert.
Intel SSDs im Überblick – Thomas-Krenn-Wiki
Die 3710 sind wohl auch ganz interessant (Nachfolger der 3610?)



Der 1280 ist etwas langsamer - Basistakt/Turbotakt, die iGPU wird schlicht und einfach nicht genutzt.
Der VGA-Port wird vom ASPEED2400 BMC genutzt, der auch für IPMI zuständig ist


Gut das wir drüber gesprochen haben :)

Danke, durch die Intel SSD‘s wühle ich mich dann nochmal in Ruhe durch.

- - - Updated - - -

@konfetti, @niklasschaefer
Ihr dürft gerne einen neuen Thread auf machen, in welchem ich mich aktiv beteilige und mit euch diskutieren. Hier werde ich darauf nicht eingehen.
 
Bin mal gespannt wie du das Ding mal restoren willst wenn was in die Hose geht.
Exchange + Webserver, evtl WSUS und alles auf einem physischem (bastel)Blech.

Finger weg von so nem brennendem Fass, du verbrennst dich :-)
 
p4n0, lass ihn - ich les hier mit und :popcorn:
Ich versteh auch nicht, warum wir (niklas und ich) einen Thread für dieses Thema aufmachen sollen, ich mein, genau so etwas nicht zu tun ist ja unser täglich Brot.
Wenn er möchte, und wirklich daran interessiert ist, kann er ja einen Thread eröffnen, aber er schreibt ja, er ist praktischer Student der Informatik an der FH und kann das... - Sein Boss wird ihm das dann schon erklären, wenn es mal passiert...
 
p4n0, lass ihn - ich les hier mit und :popcorn:
Ich versteh auch nicht, warum wir (niklas und ich) einen Thread für dieses Thema aufmachen sollen, ich mein, genau so etwas nicht zu tun ist ja unser täglich Brot.
Wenn er möchte, und wirklich daran interessiert ist, kann er ja einen Thread eröffnen, aber er schreibt ja, er ist praktischer Student der Informatik an der FH und kann das... - Sein Boss wird ihm das dann schon erklären, wenn es mal passiert...

So sehe ich das auch. Verstehe es nicht da hängen geschäftskritische Prozesse dran die würde ich selbst nicht auf einer selbstgebauten Lösung laufen lassen warum auch fertige Lösungen sind preislich auch dort wo er ist. Beim ersten Aufall hat er ein richtiges System wieder drin und sein Chef wird ihm danken. Im Homeuse sage ich zu einem solchen Szenario nichts da ist das ok. Allein weil das Lizenztechnisch auch alles passen muss. Und ich will ihm ja nicht unterstellen das er das nicht kann aber einen Server zusammen zustellen und zu warten ist halt was anderes als sich eine Gamingkiste daheim zusammen zubauen und darauf Windows zuinsallieren. Von Firewall und Netzwerksichherheit für den Webserver will ich mal garnicht anfangen.
 
und selbst @home läuft (wenn auch schon etwas betagter) ein richtiges Serversystem - n DL380 G7, nen 360G7 und ein 380G8 liegt zur Zeit noch offen rum, der is aber für was anderes gedacht ^^

Die einzigste Frickelkiste neben den Gaming-PCs is der Backup-Spiegel, der 1x in der Woche paar Stunden läuft.
 
Toll. Und jetzt? Geht halt dein mögliches Erbe flöten. (wobei ich bei einem GaLa-Betrieb die IT auch nicht für kriegsentscheidend halte, E-Mail wäre halt gut, aber die Geschäftsprozesse dürften doch noch sehr analog sein)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh