File Server

Antic

Enthusiast
Thread Starter
Mitglied seit
21.05.2006
Beiträge
84
Ort
Japan
Guten Tag,

in unserer Firma ist es Zeit für einen kleineren Umbau an dem Server.
Die Eckdaten:
Windows Server 2012 R2 mit 32 GB Ram
1x Raid 1 500GB
1x Raid 1 3000GB
1x Raid 1 2000GB

2x1GB Lan trunced auf einen HP 1910V

Er dient im moment nur als Domain Controller und Fileserver.
Dazu ist ein Hyperview installiert und 1 VM, welche den DC und den Fileserver bereitstellt.
Die Hardware ist total oversized, soll aber weiterhin verwendet werden.

Alle Dateien werden auf dem Server gelagert und auch von dort benutzt. Bei knappen 80 Leuten wird es
langsam eng mit den 2Gbit, da auch unsere Designer jetzt mehr und mehr Datein dort ablagern.
Es sind im moment auch nur 1.5TB an Daten vorhanden.
Backup wird täglich durchgeführt, intern und offsite.

Meine Idee ist einen 2. Server zu kaufen, um einen Backupserver zu haben und um den jetzigen Server zu entlasten.
Hardware denke ich spielt da nicht so gross die Rolle.

Was ich brauche ist Load balancing und Redundance.
Was ist die beste Lösung um das zu bekommen?

Danke im Vorraus
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,
hast du analysiert was zu langsam ist, die Festplatten oder die Netzwerkperformance?
Am einfachsten wäre es sicherlich noch eine weitere Netzwerkkarte einzubauen oder ggf. auf 10Gbit umzusteigen, vorausgesetzt die Platten sind noch schnell genug.
Wie willst du das den mit Loadbalancing machen? Das wäre dann schon ein aufwendigerer Umbau.

Gruß,
linuxadmin
 
Vor allem würde ich mal mit den Designern sprechen, was die so an Speicherplatz brauchen. Je nach dem kann das schnell SEHR viel werden und dann stehst du in einem Jahr wieder blöd da und brauchst mehr Speicher. Es ist halt sehr unterschiedlich, wenn sie nur mit Illustrator arbeiten gehts meist, aber wenn sie auch ihre Mattepaintings für 4k Produktionen dort speichern wollen sieht es anders aus ;)
Ansonsten kann man evtl. 10gibt im Server nachrüsten und vielleicht das Switch ersetzen. Aber auch hier könnte ein Nadelöhr entstehen, wenn die Grafiker 10gb große Dateien ständig darüber laden müssen und ansonsten nur den Speed ihrer SSD gewöhnt sind.
 
@linuxadmin
richtig langsam ist es nicht, aber es kommt hin und wieder zu kleineren Engpässen, wenn mal 4-5 Leute gleichzeitig etwas grössere Datein anfassen.
Disk query lenght is meistens unter 1, bei peaks sind es dann schon mal 3-4, aber denke das ist immer noch kein Problem.
Selbst die netzwerk auslastung liegt meiste Zeit unter 1 %. 90% der Zeit wird hier nur mit Excel files gearbeitet.
Max an Bandbreite die benutzt wird liegt bei 1600mbit für max 10 sec.
Schaut so aus als wenn es nicht ein Netzwerk oder Disk Problem ist.

Ich hab mal eben die Dateien analysiert die auf dem Server liegen.
Wir haben etwa 650000 Excel files auf dem Server mit einer Größe von 1kb bis 90MB.
Etwa 120000 PSD/Jpg files von 1kb- 1.4GB. (nur 100 Dateien sind über 100MB )

Die meiste Zeit verursacht der Search index von Windows die meisten Lese und Schreib Zugriffe. (nein kann ich nicht abschalten wird benötigt)
Die Windows Search database hat nun etwa 150GB.

Ein Backupserver werd ich trotzdem brauchen, weil wenn der Server ein Hardware problem hat, haben wir hier keinen Ersatz.
Wäre es daher nicht sinnvoll den Backupserver aktiv ins System einzubinden?
Sowas wie ein Shared Netwerk Drive über 2 Server mit Load Ballancing + Domaincontroller und Backup Domaincontroller?

10Gbit denke ich ist im moment keine Option.
 
Wozu braucht man denn den Search-Index
Dafür benutzt man eine sauber angelegte und klar definierte Verzeichnisstruktur und Dateibenennung .... tztz
 
oder ein DMS System :)

Ich vermute mal, es liegt nicht an der Transferrate sondern am IO des Disksystems.

ich würde mir an deiner Stelle mal einen Versuchsaufbau mit Microsoft Storage Spaces inkl. SSD Tiering machen.

Läuft bei uns auf mehreren Server Produktiv seit fast nem Jahre ohne geringste Probleme.

Alternativ noch eine Software als Primocache (läuft bei uns ebenfalls auf einem Server seit Release produktiv ohne Probleme) - also für die HDD als Cache ne 250 GB SSD zwischenschalten dann sollte es deutlich besser sein :)

Gruss

@edit: Wenn du in nem kleinem Umfeld Ausfallsicherheit möchstest ohne große Investition kann ich dir nur zu MS HyperV Replica raten :)
 
Zuletzt bearbeitet:
@Knumsi
MS HyperV Replica klingt recht brauchtbar, werd ich mich mal etwas einlesen.
Zuerst werd ich einfach mal die Tage ein Raid10 probieren und schaun ob es das Problem löst.
 
Mein Lösungsansatz wäre folgender (80 Leute ist ja keine Home-Lösung)
- Sofern etwas IT Knowhow verfügbar ist -


Drei Server:

- Server 1 als reiner Filer.

Prinzipiell kann das der jetzige Server sein.
Als Dateisystem ist ZFS unter Solaris/OmniOS als Web-Appliance mein Favorit.

Mit Windows ReFS steht zwar etwas in den Startlöchern das mal eine Alternative sein wird.
Momentan ist es aber zu langsam, unausgereift und es fehlen Features. NTFS ist da keine echte Alternative.

Das Besondere an ZFS sind die Prüfsummen, ein immer vailides Dateisystem durch CopyOnWrite und die
Snapshots auf die man über Windows - vorherige Version zugreifen kann. Ausserdem ist es performacemäßig
mit viel RAM als Lesecache unschlagbar. Ausserdem ist es in ein paar Minuten aufgesetzt - auch nach einem Totalcrash.
Solaris/ OmniOS macht mit AD keine Probleme und kennt Windows ACL und Windows Rechte auch im Backup.

Anbinden würde ich den Server idealerweise mit 10 GbE an einen Switch. Arbeitsplätze werden dann auch per
10G oder 1G angeschlossen. Mit 10G ist der Server sogar schneller als eine lokale Platte.


- Server 2 als Active Directory Server
ein kleinerer Server, z.B. ein HP Microserver G8
Ich würde da ESXi (free ist ok) draufpacken und Windows 2012R2 als AD virtualisieren.

Warum ESXi und nicht Windows Hyper-V?
ESXi braucht viel weniger Resourcen, ist in 5 Minuten eingerichtet ( inkl Import einer VM).
Ich würde aber Active Directory in jedem Fall virtualisieren (wg Snapshots und Recovery)

Die VMs würde ich auf einem shared storage NFS ablegen (backup/ Move etc ist dann besonders einfach)
Als Option: ZFS Server mit Snapshots und NFS als lokale Storage VM


- Server 3, steht idealerweise in einem anderen Brandabschnitt
als Backupserver und Sekundärer Active Directory

Aufbau wie Server2 (ESXi, ZFS Storage VM und Windows 2012 VM als sekundärer Active Directory).
Sollte genug Platz für Backup und Snapshots bieten.

Als Backup dann eine ZFS Replikation von Server 1 und Server 2 auf Server 3
 
@gea
klingt interessant, ich werd mir das mal genauer anschaun, wenn ich den neuen Server hier habe, ob ich das auch so eingerichtet bekommen wuerde.
Eigentlich sollte das ganze auch mit 2 Server funktionieren.
Wegen den 10gbit muss ich echt mal schaun, ob ich da was für einen vernünftigen Preis hier Bangkok finden kann. Zu kaufen gibs das sicher irgendwo, aber die Kosten sind hier meist ein wenig übertrieben.

Ich hab gestern auch mal den Windows Search Index neu aufbauen lassen. Irgendwie war der in ein paar Tagen auf 170GB angewachsen (irgendwas stimmt da echt nicht). Das File ist jetzt auf 2 GB runter, was schon mal etwas mehr Performance bringt. Ich muss wohl aber das mehr im Auge behalten.
 
@gea

Eigentlich sollte das ganze auch mit 2 Server funktionieren.
Wegen den 10gbit muss ich echt mal schaun, ob ich da was für einen vernünftigen Preis hier Bangkok finden kann.

Mit zwei Servern geht das wenn man
- den Hauptfiler auch virtualisiert und da AD mit draufpackt
- oder auf den unabhängigen sekundären AD verzichtet

zur Hardware
- 10G Netzwerkkarten: Intel nehmen z.B. X540, kostet in DE ca 350 Euro

- Storagevirtualisierung macht nur Sinn, wenn nur das Storage-OS virtualisiert wird,
nicht aber Controller und Platten. Auch wird ein Extra Controller benötigt, ideal sind
LSI 9211, IBM 1015 oder ein neuerer LSI 9207 sowie vt-d Unterstützung vom
Mainboard und CPU (am Besten Serverboards nehmen)

- Günstige 10G Switche sind noch rar, Netgear XS708 kostet ca 800 Euro

Wenn etwas neugekauft und es einen SuperMicro sein kann, wäre folgendes eine Basis:
Supermicro | Products | Motherboards | Xeon® Boards | X9SRH-7TF

Das Board enthält bereits 10G und einen 9207 LSI Storage Controller (ca 570 Euro).
Man zahlt quasi die Netzwerkkarte und den Storagecontroller, das Board ist umsonst.
Dazu kommt noch ein Xeon (kann der kleinste sein) und ECC RAM
 
Hab letzte Woche meine kleines Testsystem bekommen.
Ich hab viel probiert und installiert und einige Sachen scheinen einfach nicht zu gehen.

Host:
ESXi zuviele Probleme mit der Hardware erkennung usw... bekomm es nicht sauber zum laufen
XenServer ist super und rennt praktisch mit allem. Echt super bisher.

VMs:
Nexensta Store: Installation einfach und problemlos.
OmniOS: Installation unter XenServer nicht moeglich

Im moment laeuft XenServer mit Nexenta Store mit Raid 1.
Ich werd heute nochmal mit Debian und ZFS testen ob das klappt.

Danach werde ich probieren mit Samba eine Domain erstellen und den Storage in die Domain legen.
Die Permission sollen dann per Windows AD gesetzt und verwaltet werden.
Mal schaun ob das alles so klappt.

Wenn ich das alles mit Debian zum laufen bekomme, werd ich wohl dabei bleiben. Mit dem System arbeite ich nun schon ne Weile.

Das einzige grosse Problem was ich im moment sehe ist, das ich keine Windows Search Index function mehr ueber dem Storage haben werde.
Gibs da irgendwas in Linux was dem vom Windows nahe kommt?

10Gbit werden wohl erstmal nicht installiert werden, wird aber kommen wenn die Switches etwas im Preis fallen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh