Hardware für Fileserver - Passt das so ?

j4ckp0d

Enthusiast
Thread Starter
Mitglied seit
11.02.2008
Beiträge
951
Moin,

für ein Musikstudio brauche ich einen Server der hauptsächlich als Datenschleuder dienen soll. Erstmal sollen 8 TB speicher zur Verfügung stehen, in 1-2 Jahren sollte dann mindestens verdoppelt werden. Dann würde auch noch ein Raid-Controller dazukommen.

Da keine 100%ige Verfügbarkeit nötig ist hab mal eine Konfiguration mit Desktop-Komponenten und 5x2TB im Raid 5 zusammengeklickt.

Passt das soweit ?

Fileserver | Geizhals.at Deutschland

Danke für eure Hilfe schonmal.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn die Kiste wirklich nur als Datenspeicher dienen soll, dann ist der i5 mehr als überdimensioniert. Da würde es auch ein kleiner Celeron tun. Ebenso das Netzteil, 700W brauchst du dafür nicht. Es sollte halt nur 80+ haben.

Dein Board hat keine Grafikschnittstelle. Die CPU Grafik wirst du also nicht nutzen können. Ebenso wird es wohl Probleme bei Controllerübergreifenden RAID Sets geben, wenn du das ganze über die Treiber des Boards regelst--> 4x SATA II RAID 0/1/5/10 (P67), 2x SATA 6Gb/s RAID 0/1/5/10 (P67), 4x SATA 6Gb/s RAID 0/1/5/10 (Marvell SE9120)

Ansonsten würde ich noch vorschlagen eine weitere kleine Platte fürs OS einzubauen
 
danke erstmal für die schnelle antwort,

kleineres netzteil ist drin, systemplatte auch. CPU hab ich jetzt erstmal einen i3 reingeklickt. der i5 war drin weils nicht klar ist welche Aufgaben die Kiste noch bekommen soll/muss. Aber auch dann reicht vermutlich ein i3. Preislich ist das alles relativ egal, ein Mac Pro kostet ja schon mehr als das doppelte :/

Meine Überlegung war mit der Aufstockung alle Platten an einen PCIe-Raid-Controller zu hängen. Aber sowas ist wirklich nicht mein Fachgebiet :)
 
Zuletzt bearbeitet:
Naja es muss nicht zwangsläufig ein HW Raid Controller sein. Du könntest z.B auch ZFS einsetzen und dir den Controller sparen.
Aber falls du später von Software auf Hardware RAID umrüsten willst, solltest du dir im Klaren sein, dass du alle Daten erst sichern, dann die Platten umstecken und das RAID anlegen und anschließend wieder alle Daten auf die Platten bekommen musst. Einfach umstecken und gut ist, ist in dem Fall nicht :fresse:

Ach ja: Du solltest dran denken, dass du mit dem jetzigen Aufbau alle 3,5" Schächte in deinem Case aufgebraucht hast. Wenn du später mal mehr Platten einbauen willst, brauchtst du noch passende Rahmen
 
Zuletzt bearbeitet:
Wenn schon fünf billige HDDs, dann gleich richtig mit der DM Version (Barracuda 7200.14) mit 3TByte und auch nur einem Jahr Garantie.
Bei AMDs würde ich eher Mainboards mit 990FX Chipsatz wegen dem mehr an PCIe Steckplätzen vorziehen.
 
Moin,

für ein Musikstudio brauche ich einen Server der hauptsächlich als Datenschleuder dienen soll. Erstmal sollen 8 TB speicher zur Verfügung stehen, in 1-2 Jahren sollte dann mindestens verdoppelt werden. Dann würde auch noch ein Raid-Controller dazukommen.

Da keine 100%ige Verfügbarkeit nötig ist hab mal eine Konfiguration mit Desktop-Komponenten und 5x2TB im Raid 5 zusammengeklickt.

Das klingt für mich nach sehr großen Dateien, sehr viel Platzbedarf, kann schnell mehr werden, kein Backup
Ich nehme dazu an, dass sich die Verfügbarkeit auf den Server und nicht auf die Daten bezieht.
(8 TB auf die Schnelle zu verlieren ist sicher nicht ohne)

Ich würde mir daher zunächst Gedanken zum Dateisystem und zum Betriebssystem machen und dann die Hardware entsprechend aussuchen. Ich würde vor allem darauf achten, dass diese erweiterbar ist (genügend schnelle PCI-e slots hat um Platten-Controller oder eine schnelle Netzwerkkarte nachzurüsten, 10 GBe steht vor der Tür - und nur damit lassen sich Terabytes handhaben), nach Möglichkeit auch ECC Ram unterstützt und vor allem eine vernünftige Intel Netzwerkkarte hat (nicht so eine billige Realtek).

Ich würde ein richtiges Serverboard mit Intel Chipsatz nehmen, darauf 8 GB RAM, die kleinste CPU dürfte genügen z.B. die SuperMicro X9 Serie eventuell mit IPMI (remote Keyboard/Monitor) - mein Favorit derzeit für ein kleines MicroATX Serverboard

Als Dateisystem im Terabyte Bereich würde ich auschließlich auf ZFS Pools setzen. Das ist Softwareraid auf allen Platten an beliebigen Controllern. Die ZFS Datenpools können praktisch beliebig wachsen. Die Datensicherheit und Verfügbarkeit ist derzeit unerreicht. Mit Snapshots gibt es auch Zugriff auf ältere Datenstände ohne dass es Extra Platz braucht. Ich würde auch auf keinen Fall Raid-5 nehmen. Falls da eine Platte ausfällt, käme ich in den nächsten zwei Tagen ins Schwitzen, bis das Raid rebuildet ist. Also auf jeden Fall Raid-6/ZFS2 einsetzen. Als OS geht ZFS mit FreeBSD, Linux, OSX, und den verschiedenen Solaris Varianten wobei letztere die bevorzugte Plattform für ZFS darstellen.

Das ganze idealerweise in ein 19" Case mit 16 Platteneinschüben und gut (z.B. von Chenbro, Norco oder SuperMicro)
 
Zuletzt bearbeitet:
Gehäuse: Hardwareluxx - Preisvergleich
ich würd eher sowas nehmen, und da dann Backplanes einbauen, Vorteil, Festplatten können schnell und Problemlos gewechselt werden, wenn eine Ausfällt, z.B.
Hardwareluxx - Preisvergleich
Hardwareluxx - Preisvergleich

Ansonsten gebe ich meinem Vorposter Recht, wenn es nur um den Einsatz als "Datenschleuder" aka NAS geht, sollte ZFS performancetechnisch ausreichen und ist de Facto genauso sicher wie ein Hardware Raid -wenn nicht sogar sicherer. Schliesslich kann der Prozessor sich "voll" um diese Aufgabe kümmern - und je mehr Speicher drin steckt, umso besser greifen dann die Caching Algorithmen etc.

Bei den Festplatten würde ich eher die Hitachi 4K3000 / 7K3000 nehmen, die sind für moderaten 24/7 Betrieb freigegeben
oder von Seagate mindestens die Barracuda XT oder Constellation (beide allerdings mit 7200 U/min)
 
Zuletzt bearbeitet:
..wenn es nur um den Einsatz als "Datenschleuder" aka NAS geht, sollte ZFS performancetechnisch ausreichen und ist de Facto genauso sicher wie ein Hardware Raid -wenn nicht sogar sicherer. Schliesslich kann der Prozessor sich "voll" um diese Aufgabe kümmern - und je mehr Speicher drin steckt, umso besser greifen dann die Caching Algorithmen etc.

Ich würde das noch deutlicher so formulieren:
Prozessoren sind in den letzten Jahren schneller schneller geworden als Raid-Controller. Hardware-Raid ist für mich sowas wie die numerischen Coprozessoren früherer Zeiten - fast immer überflüssig. Software-Raids, egal ob ZFS oder andere sind heute viel flexibler und erweiterbarer und meist schneller als Hardware-Raids, bei ZFS dank CopyOnWrite sogar ohne write hole Probleme und ohne Notwendigkeit einer Puffer-Batterie auf dem Controller. Von dem Problem, dass man bei Hardware-Raid im Falle eines Defektes den gleichen oder einen compatiblen Controller braucht, um wieder an die Daten zu kommen mal ganz zu schweigen - Probleme die es bei Software-Raid ebenfalls nicht gibt. (Mal von manchen zweifelhaften Einfach-Software-Raid Lösungen abgesehen)
 
Zuletzt bearbeitet:
Okay, als ZFS. Würds lieber auf Linux bauen, von Solaris verstehe ich nichts. Auch wenn was ich bisher gelesen habe die Unterstützung auf Solaris besser ist weil Oracle mit den Lizenzen rumzickt. Korrigiert mich bitte wenn ich da falsch liege :)

könnte man eigentlich nicht auch einen linux software raid nehmen ?

Ansonsten würde ich jetzt 4x3TB im Raid6 reingepackt. Da verliere ich anfangs in Relation viel Speicher aber kann besser aufrüsten. Mit ZFS sollte das ja kein Problem sein. Wie schnell der Speicherbedarf wächst weiß sowieso weder ich noch der Betreiber. Und wenn eine der Platten hops geht ist es mit Raid6 ja ziemlich wurscht.

"Richtige" Server-Hardware ist bischen Kanonen auf Spatzen. Wir reden hier von zwei Schnittplätzen, 3 Arbeitsstationen und 2 Bürorechner die damit beliefert werden sollen. Auch wenns um einiges schicker wäre :)

Brauch ich bei den Netzwerkarten sowas oder reicht auch sowas ?

@digi-quick Wechselrahmen hätte ich an den hier gedacht:Hardwareluxx - Preisvergleich
 
Zuletzt bearbeitet:
Okay, als ZFS. Würds lieber auf Linux bauen, von Solaris verstehe ich nichts. Auch wenn was ich bisher gelesen habe die Unterstützung auf Solaris besser ist weil Oracle mit den Lizenzen rumzickt. Korrigiert mich bitte wenn ich da falsch liege :)
FreeBSD 9 unterstützt auch ZFS v28.

könnte man eigentlich nicht auch einen linux software raid nehmen ?
Ja, ein aktuelles Debian erlaubt einem bei der Installation sogar ein vollverschlüsseltes System einzurichten.

Ansonsten würde ich jetzt 4x3TB im Raid6 reingepackt. Da verliere ich anfangs in Relation viel Speicher aber kann besser aufrüsten. Mit ZFS sollte das ja kein Problem sein. Wie schnell der Speicherbedarf wächst weiß sowieso weder ich noch der Betreiber. Und wenn eine der Platten hops geht ist es mit Raid6 ja ziemlich wurscht.
Du solltest nur bedenken, das defekte HDDs zeitnah ersetzt werden sollten. Da unvollständige Raidsysteme deutlich langsamer sind als intakte. Wenn du öfters HDDs nachstecken willst, bietet sich Raid1 an. So kannst du immer zwei neue HDDs hinzufügen, und ZFS macht über alle HDDs dann ein Raid0 (Raid10). Wobei ZFS die Daten nicht über alle HDDs dann verteilt.

"Richtige" Server-Hardware ist bischen Kanonen auf Spatzen. Wir reden hier von zwei Schnittplätzen, 3 Arbeitsstationen und 2 Bürorechner die damit beliefert werden sollen. Auch wenns um einiges schicker wäre :)
*seufz* Frühers (tm) war da noch Geld für eine FC-Lösung von ATTO übrig.

Brauch ich bei den Netzwerkarten sowas oder reicht auch sowas ?

@digi-quick Wechselrahmen hätte ich an den hier gedacht:Hardwareluxx - Preisvergleich

Verwende lieber gleich ein richtiges Mainboard das zwei (Intel) Gbit Lan Schnittstellen onboard hat.
 
Du solltest nur bedenken, das defekte HDDs zeitnah ersetzt werden sollten. Da unvollständige Raidsysteme deutlich langsamer sind als intakte. Wenn du öfters HDDs nachstecken willst, bietet sich Raid1 an. So kannst du immer zwei neue HDDs hinzufügen, und ZFS macht über alle HDDs dann ein Raid0 (Raid10). Wobei ZFS die Daten nicht über alle HDDs dann verteilt.

Raid0 oder Spanned Volume?
Bei einem Raid0 werden die Daten immer verteilt geschrieben (das ist nämlich die Definition von Raid0)

Ja, ein aktuelles Debian erlaubt einem bei der Installation sogar ein vollverschlüsseltes System einzurichten.
ist denn das Software Raid von Debian wirklich mit ZFS vergleichbar? Ich denke an die Überwachung der Datenintegrität etc, wo ja ZFS aktive Mechanismen für implementiert hat.

Du solltest nur bedenken, das defekte HDDs zeitnah ersetzt werden sollten. Da unvollständige Raidsysteme deutlich langsamer sind als intakte. Wenn du öfters HDDs nachstecken willst, bietet sich Raid1 an. So kannst du immer zwei neue HDDs hinzufügen, und ZFS macht über alle HDDs dann ein Raid0 (Raid10). Wobei ZFS die Daten nicht über alle HDDs dann verteilt.
ein Raid1 (oder auch 10) ist von der verfügbaren Nettokapazität die schlechtere Alternative, wenn mehr als 3 bzw. 4 Platten einegsetzt werden. 50% Verlust in jedem Fall (Raid5 = max. 33 % Verlust bei 3 Platten, Raid 6 = max.50 % Verlust bei 4 Platten)

Verwende lieber gleich ein richtiges Mainboard das zwei (Intel) Gbit Lan Schnittstellen onboard hat.

Bei der Anzahl an Clients denke ich wird 'ne einfache Gigabit Netzwerkkarte ausreichen, zumindest wenn nicht gerade Hochleistungsswitche (die dann auch Teaming unterstützen) dahinter zum Einsatz kommen, die ja auch wieder Geld kosten.

@digi-quick Wechselrahmen hätte ich an den hier gedacht:Hardwareluxx - Preisvergleich
der würde durchaus reichen , davon bekommst du 4 Stück in 12 Schachte, wären 16 HDDs im Maximalausbau, 'ne kleine SSD für's OS kann man "irgendwo" ins gehäuse "kleben" (z.B. mit Klettbandklebestreifen), DVD Laufwerk braucht man nur "einmal" zum installieren, und kann man folglich in "fliegender" Verkabelung anschliessen, wenn benötigt (oder extern via USB oder E-SATA).
 
Zuletzt bearbeitet:
ZFS verteilt bei mehreren Mirrors die Daten automatisch per Raid0 über diese. Da der TE aber nach und nach neue Festplatten dazu kaufen will, bieten sich mirror devices an. Da ZFS bisher nicht die Möglichkeit hat, die Daten eines Pools neu zu verteilen. Bei Hardware Raidcontrollern spricht man davon in der Regel von rebalancing.

Zur Zuverlässigkeit von ZFS in Verbindung mit RAM ohne ECC wurde denke ich schon ausführlich genug diskutiert.

Ob für Ihn die Installation eines FreeBSD 9 oder eines Debian 6.0 einfacher ist, sei mal dahin gestellt. Beide haben einen relativ einfach zu bedienenden grafischen Installer. Auf der haben Seite von FreeBSD 9 ist ein aktuelles ZFS v28 und ein durchgängiges deutsches Handbuch.

Noch ein Nachtrag zur Netzwerkkarte: Unter Windows hat man die Serverkarten gebraucht, um ein Teaming auch zusammen mit einer schon vorhandenen Onboard NIC zu nutzen.
 
Zuletzt bearbeitet:
ZFS verteilt bei mehreren Mirrors die Daten automatisch per Raid0 über diese. Da der TE aber nach und nach neue Festplatten dazu kaufen will, bieten sich mirror devices an. Da ZFS bisher nicht die Möglichkeit hat, die Daten eines Pools neu zu verteilen. Bei Hardware Raidcontrollern spricht man davon in der Regel von rebalancing.
Es ist also kein echtes Raid0...
nehmen wir an wir haben ein Raid1 an und bauen ein zweites Raid1 dazu, dann werden neu zu schreibende Daten über beide Raid1 verteilt - wie beim Raid0, die aber bereits auf dem 1. Raid1 geschriebenen Daten werden nicht an die Raid0 Struktur angepasst? Das ist also nix Halbes und nichts Ganzes, zumal dann ja nur so lange verteilt geschrieben werden kann, wir noch Platz auf dem 1. Raid 1 ist. Dann doch lieber gleich ein "spanned Volume" - auf Raid Nr 2 wird weitergeschrieben, wenn Raid 1 voll ist.

Zur Zuverlässigkeit von ZFS in Verbindung mit RAM ohne ECC wurde denke ich schon ausführlich genug diskutiert.
Das wäre dann in der Tat ein unschlagbares Argument für ein Serverboard und ECC Speicher, wird zwar etwas teurer, aber naja....

Noch ein Nachtrag zur Netzwerkkarte: Unter Windows hat man die Serverkarten gebraucht, um ein Teaming auch zusammen mit einer schon vorhandenen Onboard NIC zu nutzen.
Das Teaming muss aber vom Switch unterstützt werden, und das macht kein Switch im vermutlich hier angesiedeltem Preisbereich (nämlich SoHo). Ich kann mich natürlich mit meiner Annahme irren.
 
Zuletzt bearbeitet:
Es ist also kein echtes Raid0...
nehmen wir an wir haben ein Raid1 an und bauen ein zweites Raid1 dazu, dann werden neu zu schreibende Daten über beide Raid1 verteilt - wie beim Raid0, die aber bereits auf dem 1. Raid1 geschriebenen Daten werden nicht an die Raid0 Struktur angepasst? Das ist also nix Halbes und nichts Ganzes, zumal dann ja nur so lange verteilt geschrieben werden kann, wir noch Platz auf dem 1. Raid 1 ist.
Das ist bei einer richtigen Nutzung kein Problem. Durch das CoW bleiben die Daten auf den alten Mirror devices. Da diese in vernünftigen Umgebungen nach einer gewissen nicht Nutzung eh migriert werden, wird der Speicher später auch wieder freigegeben. Der Vorteil an der Lösung ist halt, man spart sich ein zeitaufwendiges Umkopieren der Daten bei häufigen Raid-Erweiterungen. Und neu geschriebene Daten werden sofort über alle Mirror devices verteilt. Man hat also sofort einen Geschwindigkeitsvorteil.

Das Teaming muss aber vom Switch unterstützt werden, und das macht kein Switch im vermutlich hier angesiedeltem Preisbereich (nämlich SoHo). Ich kann mich natürlich mit meiner Annahme irren.
Man muss nur richtig einkaufen, dann kommt man auch zu schönen L3 Switchen ;)
 
Man hat also sofort einen Geschwindigkeitsvorteil.
und wie lange?
Nehmen wir mal an das 1. Raid 1 besteht aus 2x2TB Platten und ist mit 1,8TB gefüllt.
ich erweitere nun den Speicherplatz um ein weiteres Raid 1 aus 2x2TB.

jetzt schreibst du, daß die bereits vorhanden Daten nicht neu verteuilt werden, daraus kann man schliessen, daß für genau 400 Gigabyte ein Geschwindigkeitsvvorteil entsteht, danach ist dann das 1. Raid komplett voll, und es kann njur noch auf das 2. Raid geschrieben werden.
für die Daten ergibt sich dann folgendes:
Gesamtkapazität = 4 TB, davon liegen 400 GB gestriped (also verteilt wie bei einem Raid0) vor, die restlichen 3,6 TB nicht....
Wer sich so einen Quark ausdenkt, gehört "geteert und gefedert" *just my 2 cents*
Zumindest erschliesst sich mir die Sinnhaftigkeit an dieser Stelle nicht wirklich, da Raid0 in meinen Augen grundsätzlich eine wetere Gefährdung darstellt (ich habe mich mit ZFS noch nicht internsiv auseinandergesetzt, sondern nur quergelesen)
 
Ohne bereits in allem Perfekt zu sein, ist ZFS schon das Maß der Dinge bei Dateisystemen. Die Ideen die Sun da bereits vor 10 Jahren eingebaut hat, werden nach und nach erst bei anderen High-End Dateisystemen wie Btrfs und WinFS sichtbar.

Ich hatte Controller die automatisches Re-Balancing machten. Dauerte bei kleinen Systemen bereits Tage und das Ding war in der Zeit langsam ohne Ende. Das Rebalancing bei ZFS ließe sich zwar durch ein einfaches Copy manuell erledigen, das ist aber bei einem Copy on Write Pool gar nicht wirklich notwendig. Es werden ja nie Daten aktualisiert sondern geänderte Daten werden immer neu geschrieben.
Selbst in dem Beispiel mit einem fast vollen vdev ergibt sich nach einiger Zeit der Nutzung automatisch wieder ein ausbalancierter Pool, zumindest bei aktuelleren Dateien.

Nackte Raid-Peformance ist bei ZFS Pools, bei denen mehrere/ viele Raids (vdevs) gestriped werden, ohnehin selten ein Problem.
 
Zuletzt bearbeitet:
ist denn das Software Raid von Debian wirklich mit ZFS vergleichbar? Ich denke an die Überwachung der Datenintegrität etc, wo ja ZFS aktive Mechanismen für implementiert hat.

Zur ersten Frage wirst du selbst Benchmarks fahren müssen. Was deine Bedenken was Datenintegrität angeht, hat Linux Software-RAID das seit Jahren mit an Bord, also den regelmäßigen Rescan im Hintergrund. Ansonsten schau dir doch mal folgende Präsentation zum Thema an: http://www.linuxfoundation.jp/jp_uploads/seminar20081119/JapanLinuxSymposiumFSTalk.pdf



Prozessoren sind in den letzten Jahren schneller schneller geworden als Raid-Controller. Hardware-Raid ist für mich sowas wie die numerischen Coprozessoren früherer Zeiten - fast immer überflüssig.
Das würde ich so pauschal nicht unterschreiben. Prozessoren sind auch schon vor Jahr und Tag schneller gewesen, als die spezialisierten in RAID-Controllern. Aber erst jetzt sind sie so schnell, dass man die Arbeit des RAID-Controllers auch zuverlässig ohne große Beeinträchtigung mitmachen kann. Dafür sollte der TE dann aber einen etwas schnelleren Prozessor und mehr RAM einplanen (siehe mein Signatur).
 
Wenn das Gehäuse in einem separaten und verschlossenem Raum mit Schallschutztür stehen kann, in dem nicht gearbeitet wird, ist daß Gehäuse nicht schlecht, andernfalls muss man erstmal die Serienmässig verbauten Lüfter austauschen, ich glaube nicht, daß der TE einen Flughafen in seinem Studio gebrauchen kann (gut die Lüfter sind auf maximalen Luftdurchsatz ausgelegt und nach meiner bisherigen Kenttnis in dieser Disziplin die Leistungsfähigsten)
(ich hatte davon 4 Stück bei mir zum Installieren stehen, ich weiss wovon ich rede)
 
ist denn das Software Raid von Debian wirklich mit ZFS vergleichbar? Ich denke an die Überwachung der Datenintegrität etc, wo ja ZFS aktive Mechanismen für implementiert hat.

etwas Off-Topic, ging ja ursprünglich nur um Hardware, aber Software ist wichtiger

Die Frage geht sicher in Richtung: Ist Software-Raid mit Linux und ext Dateisystem vergleichbar?
Und da lautet die Antwort einfach Nein.

Geht die Frage in Richtung Software Raid und Btrfs, dann lautet die Antwort wohl, Ja - irgendwann mal
Bei Software-Raid und ZFS stellt sich die Frage eher wie stabil und aktuell die Umsetzung bei Linux, OSX, FreeBSD oder den verschiedenen Solaris-Abkömmlingen bereits ist.

Grund:
1. Quersummen auf Daten (nicht nur auf Metadaten oder nur Platten/Controllerintern)
2. Scrubbing (Background Datencheck auch für offene Dateien mit Sofort Reparatur der Daten)
- setzt 1. voraus damit es funktioniert. DAS Mittel gegen silent data errors
- klappt nur bei ZFS unabhängig von Controllern oder Platten, findet/repariert erheblich mehr Probleme als andere Verfahren

Dazu kommt CopyOnWrite und die damit verbundenen Snapshots ohne anfänglichen Platzverbrauch und ohne Zeitverlust. Tausende Snapshots z.B. alle 10 Minuten einer sind kein da Problem.

Ich sehe ZFS vs NTFS/extx/HFS wirklich wie Dampfmaschine vs Turbodiesel, ein Technologiesprung
Bei Solaris kommt noch der im Kernel eingebaute SMB Server hinzu, der deutlich Windows kompatibler ist als Samba was ACL und Zugriff auf Snapshots angeht (vorherige Version). Ausserdem mag ich Solaris, weil es neben OSX und Windows das letzte große OS aud einer Hand ist - vieöles funktioniert einfach und das auf Anhieb.


ansonsten zur Hardware:
Wenn ein Server-class Mainboard 50 Euro mehr kostet, dafür Intel Nics, ECC RAM und mehrere schnelle
PCI-E Slots bietet, dann ist hier Geiz garantiert nicht geil. Und falls keine Feautures wie Verschlüsselung genutzt werden - insbesondere bei Raid-1 ist bei ZFS die CPU fast egal - RAM ist für Performance wichtiger.
 
Zuletzt bearbeitet:
Da keine 100%ige Verfügbarkeit nötig ist hab mal eine Konfiguration mit Desktop-Komponenten
Verfügbarkeit heißt nicht nur uptime. Wenn das ein Musikstudio ist, nehme ich mal an, dass die nicht ihre Moviez auf den Server schieben und fortan konsumieren. Da werden sicher täglich Daten geschrieben. Wie willst du sichergehen, dass die Daten vom Netzwerk 1:1 auf der Platte landen? Selbst mit ZFS geht das ohne ECC-RAM nicht.

Selbst die Workstations sollten ECC-RAM haben.
 
Moin,

ich glaub ihr zäumt das Pferd vom falschen Ende auf. Jackpod scheint doch der Admin der Kiste werden zu dürfen/müssen. Das, womit er sich im Betrieb am besten auskennt, sollten wir hier empfehlen und nicht irgendwas, mit dem er vorher noch nie gearbetet hat.

Also, womit fühlst du dich am fittesten?

Grüße
 
Im HardwareLuxx kann man keine Lüfter austauschen oder was?

Das wohl schon, aber schau dir mal den Preis voin dem Gehäuse an, und dann muss man erstmal leise Lüfter kaufen, damit man das Teil überhaupt betreiben kann.....
da nehm ich doch lieber einen vernünftigen Big Tower, der ebenfalls E-ATX Boards aufnehmen kann, aber von vornherein bessere / leisere Lüfter hat, deutlich mehr Platz für HDDs im Maximalausbau bietet (nämlich 16 statt 8) und obendrein sogar noch preiswerter ist - in meinen Augen ist das nur nur eine logische Konsequenz.
 
Zuletzt bearbeitet:
Verfügbarkeit heißt nicht nur uptime. Wenn das ein Musikstudio ist, nehme ich mal an, dass die nicht ihre Moviez auf den Server schieben und fortan konsumieren. Da werden sicher täglich Daten geschrieben. Wie willst du sichergehen, dass die Daten vom Netzwerk 1:1 auf der Platte landen? Selbst mit ZFS geht das ohne ECC-RAM nicht.

Selbst die Workstations sollten ECC-RAM haben.

Soviel ich weis wird das so laufen dass die Apple-Maschinen Content produzieren der ab und an auf dem Fileserver abgelegt wird.



ansonsten zur Hardware:
Wenn ein Server-class Mainboard 50 Euro mehr kostet, dafür Intel Nics, ECC RAM und mehrere schnelle
PCI-E Slots bietet, dann ist hier Geiz garantiert nicht geil. Und falls keine Feautures wie Verschlüsselung genutzt werden - insbesondere bei Raid-1 ist bei ZFS die CPU fast egal - RAM ist für Performance wichtiger.

welches gäbe es da zB ? also für 150 € ?


@josen: Mit solaris 0 Erfahrung, mit BSD 0.1 :) Wird definitiv Linux werden und damit ein ensprechender Software-Raid. Dickere CPU ist reingeklickt.

(@TCM: wie zur hölle streicht man hier text durch) @Digi-Quick Der Server steht in einem Büro, in der Regie hätte das Ding auch mit den besten Lüfter nix zu suchen. Allzu laut sollte es aber trotzdem nicht sein.

@Digi-Quick: Sehe ich auch so, die Aussenmaße sind kein Problem, Stellplatz ist genug da...
Beim Gehäuse hatte ich das Rebel 12 irgendwie übersehen: Sharkoon Rebel12 Economy schwarz (6991) | Geizhals.at Deutschland

12 Platten würden aber eigentlich auch reichen und damit 9x 5.25".
Vll wirds auch das hier, das ist wenigstens schön leise: Hardwareluxx - Preisvergleich

kleine ssd ist auch reingeklickt, kostet nur 5 € mehr als ne WD Blue...

Ich hoffe ich hab nicht vergessen einen beitrag zu beantworten :)
 
Zuletzt bearbeitet:
Ich habe nichts von Lüftern oder Lautstärke geschrieben!?

Ups, da hab ich mich verguckt, sorry :)

ging um diesen Post:

Wenn das Gehäuse in einem separaten und verschlossenem Raum mit Schallschutztür stehen kann, in dem nicht gearbeitet wird, ist daß Gehäuse nicht schlecht, andernfalls muss man erstmal die Serienmässig verbauten Lüfter austauschen, ich glaube nicht, daß der TE einen Flughafen in seinem Studio gebrauchen kann (gut die Lüfter sind auf maximalen Luftdurchsatz ausgelegt und nach meiner bisherigen Kenttnis in dieser Disziplin die Leistungsfähigsten)
(ich hatte davon 4 Stück bei mir zum Installieren stehen, ich weiss wovon ich rede)
 
okay, wenn nicht noch jemand was einzuwenden hat lass ich die hardware-konfiguration so. fürs archiv mal als text:

1 x Lian Li EX-H34SB schwarz, SAS/SATA II Wechselrahmen
1 x G.Skill DIMM Kit 8GB PC3-10667U CL9-9-9-24 (DDR3-1333) (F3-10600CL9D-8GBNT)
1 x Intel Core i5-2320, 4x 3.00GHz, boxed (BX80623I52320)
1 x Crucial m4 SSD 64GB, 2.5", SATA 6Gb/s (CT064M4SSD2)
4 x Seagate Barracuda 7200 3000GB, SATA 6Gb/s (ST3000DM001)
1 x Sharkoon Rebel12 Economy schwarz (6991)
1 x be quiet! System Power 80Plus 550W ATX 2.2 (S6-SYS-UA-550W/BN091)
1 x Gigabyte GA-Z68XP-UD3, Z68 (dual PC3-10667U DDR3)
1 x Intel Gigabit CT Desktop Adapter, 1x 1000Base-T, PCIe x1 (EXPI9301CT)
 
Soviel ich weis wird das so laufen dass die Apple-Maschinen Content produzieren der ab und an auf dem Fileserver abgelegt wird.
Sofern der Fileserver dann nicht das einzigste Backup darstellt. Sollte es klappen. Das die HDDs nur für 2400 Betriebsstunden/Jahr ausgelegt sind, haste ja wohl gelesen.

Welches gäbe es da zB ? also für 150 € ?
Asus Crosshair 4 Extreme AM3 Mainboard. Die neueren FX CPUs funktionieren halt nur mit dem Beta Bios. Das Bios Update lässt sich aber auch sehr einfach über einen USB-Stick ohne gesteckter CPU einspielen. Gibt dafür extra einen USB-Steckplatz mit Taster.
Die neueren Mainboards mit 990FX Chipsatz kosten halt noch etwas mehr.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh