Aufrüstungsgedanken für unseren FileServer

Deracus

Enthusiast
Thread Starter
Mitglied seit
10.07.2004
Beiträge
527
Hi

gleich vorab - sorry...ich habe bestimmt 15 Minuten gebrütet, in welches Forum der Thread soll...im Prinzip passt er in die Kauf-/Aufrüstungsberatung genau so rein, wie hier oder ins Profi-Unterforum. Ich habe mich schlussendlich für dieses Board entscheiden, da die Komponenten nicht "Profi" genug sind, als dass ich glaube, dass die Thematik ins Sub-Forum passt. Die Kauf-Aufrüstungsberatung wäre zwar auch gut passend, da es schon um konkrete Anschaffungspläne geht, jedoch besteht drum herum noch einiges an vorherigem Diskussionsbedarf. Ums kurz zu machen...wenn ein Mod der Meinung ist, ich habe mich vertan, dann tut es mir leid. Keine Absicht ;)


Also..zum Thema:

Wir (kleines 3D-Visualisierungs-Studio, Kern-Team aus 2 Leuten) haben für unsere Arbeitsdaten einen kleinen File-Server laufen. Den habe ich damals unter mithilfe dieses Boards zusammen gestellt und soweit ist auch alles schick. Allerdings ist der bald "voll" und genügt auch nicht mehr so ganz unseren Anforderungen.

Derzeitige Konfiguration:

AMD Athlon X2 235e
2GB RAM
MSI 740GM-P25 (mATX, 1* PCIe 16x, 2* PCIe 1x)
BeQuiet 330W Netzteil
2* 1TB WD RE3 (24/7)
1* Intel Gigabit CT Desktop Adapter 1GBit/s

Win 7 Professional

Die Platten laufen im RAID 1, Backup erfolgt regelmäßig via externer 1TB Platte über eSATA

Das funzt alles soweit...

Gründe für Upgrade:

  • Wir brauchen für die Zukunft definitiv mehr Platz. Das eine TB ist fast voll, in Zukunft wird die Menge an Daten eher schneller als langsamer wachsen (größere Bildformate usw.)
  • Der Datendurchsatz ist nicht ausreichend. Unsere Arbeitsdaten sind im Schnitt zwischen 50 und 500 MB pro Datei groß. Es handelt sich dabei zum Szenen-Daten, d.h. die werden einmal geladen und dann regelmäßig geschrieben. Ansonsten besteht der Haupt-Aufwand in häufigem (3-5 Dateien pro 30 Minuten) laden, wenn es darum geht bestehende Dateien zu durchsuchen. Dazu kommt dann die Bild-Nachbearbeitung. Für diese ist es wichtig, dass viele mittelgroße (5 - 50 MB) Dateien möglichst schnell ausgeliefert werden. Das ist derzeit eher nicht so der Fall

Daher - und weil unser Budget nun mal nicht unbegrenzt ist - hab ich an ein Upgrade in folgender Form gedacht:

Die Grund-Hardware bleibt (eventuell mal noch 2 GB Ram dazu)

Dem OnBoard-Raid-Controller traue ich ehrlich gesagt nicht ganz übern Weg, da die HDTach-Raten unseres derzeitigen Raids nicht so top sind und wir eine Zeit lang Probleme mit "verschwundenen Dateien" hatten. Speicherte man eine große Datei neu ab, so konnte es mitunter 1-3 Minuten dauern, bis diese auch von anderen Teilnehmern im Netzwerk gesehen werden konnte?! (siehe diesen Thread)

Daher würde ich gern einen RAID-Controller in PCIe-Form anschaffen. Das sollte auch bei etwaigen Ausfällen helfen, da ein solcher Controller schneller und einfacher ersetzt ist, als ein ganzes Mainboard.
Ich dachte dabei an folgendes Modell:

Adaptec 1430SA

Alles mit mehr als 4 Ports ist deutlich teurer und Adaptec (inkl. Website) macht einen soliden Eindruck.

Dazu wollen wir gleich Nägel mit Köpfen machen und dachten an 4 Stück von denen:

Western Digital AV-GP 3000GB, SATA II

Der Preis ist sehr gut, sie sind für AV-Produktionen ausgelegt und wir haben bisher sehr gute Erfahrungen mit den 24/7-Platten von WD.

4 Platten deshalb, weil wir gern von RAID1 auf RAID 10 umsteigen wollen. Die Sicherheit des Mirrors ist gut, die Performance-Steigerung durchs Striping wäre perspektivisch aber auch sehr nett...denke ich zumindest.


Zusätzlich wollen wir unsere bisherigen Platten nicht weg werfen, sondern würden die gern als System-Platten weiter im RAID 1 Verbund betreiben (am Onboard-Controller). Dadurch ist für die Zukunft eine problemlosere Trennung von Daten und Hardware möglich, da die Festplatten bei Bedarf mitsamt Controller einfach den Unterbau wechseln könnten.

Da bei der neuen Konfiguration allerdings definitiv die Netzwerk-Verbindung ein Flaschenhals werden würde, wollte ich daran auch was ändern.

Geplant ist hier noch eine zweite Intel-Netzwerkkarte einzubauen, wie die, die schon da ist. Ich habe gehört, dass es möglich ist mittels 2er Netzwerkkarten Load-Balancing zu betreiben bzw. beide Kanäle zu bündeln. Stimmt das? Wenn ja, wie geht das genau? (und vor allem, geht das auch unter Windows 7?) Oder braucht man dafür spezielle Hard- und Software?


Da unser Firmen-Netzwerk derzeit an nem einfachen - billigen - TP-Link-Switch (unmanaged) hängt, wollte ich auch da gleich nochmal dran ansetzen und diesen gegen folgendes Modell austauschen:

Cisco 200 Series SG 200-08

Dazu allerdings noch eine Anmerkung:

Dieser Switch bietet 8 Ports, was theoretisch reichen sollte, da sich derzeit fest im Netzwerk 2 Rechner, der Fileserver und ein Drucker befinden. Allerdings spielen wir ja mit dem Gedanken den File-Server über 2 Links laufen zu lassen. Des weiteren würde mich interessieren, ob wir - zur Erhöhung des Datendurchsatzes - nicht auch die beiden Workstations im Dual-Link ins Netz hängen sollten. Meint ihr, dass wäre sinnvoll?
Sollte das Sinn machen, dann wären jedoch durch 3 Rechner schon 6 Ports weg + 1 für Drucker. Da wir perspektivisch noch 2 Rechner ins Netz holen wollen, bräuchten wir dann nen größeren Switch. Produktempfehlung?

Zum Switch generell noch ein paar Fragen: Was ist von Cisco zu halten? Was genau ist der Unterschied zwischen "Managed" und "Smart Managed"? Was ist für unser Einsatz-Szenario sinnvoller?


Soweit wäre es das an Planungen und Informationen von mir. Ich hoffe, ihr könnt mir etwas weiterhelfen. Ich weiß, der Text ist recht umfangreich und das Thema ebenfalls...aber leider ist die Thematik nicht gerade meine absolute Stärke und ich nehme jede Art von Experten-Wissen gern an.

Vielen Dank an alle, die die Zeit hatten, bis hierher zu lesen und eventuell auch noch produktiv zu antworten :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Adaptec ist auch nicht schlecht, keine Frage. Die Frage ist aber: Kommt für euch gebrauchte Technik in Frage? Ein gebrauchter RAID-Conti mit Hardware-RAID 5 und eigenem Cache ist auch schon recht günstig zu haben, zuletzt sind die 8 Port LSI 9260 um 160,- rausgegangen. Vergleichbar wäre wohl ein Adaptec 5805 falls du bei denen bleiben magst.
Die machen doch schon mehr Feuer und bringen eben 4 Ports mehr mit, das wäre wohl nicht so verkehrt für die Zukunft. Eventuell kannst du dann auch sinnig RAID5 nutzen und gewinnst damit noch Speicherplatz, aber das müsstest du mal testen, ob die Leistung dann reicht.
Bei den Platten würde ich eventuell auch in Richtung 7200RPM schauen, aber da kann sicher noch jemand genauer sagen, ob deine Anwendungen davon profitieren würden.

Wo wir schon beim Thema RAID sind - bitte weiterhin anständige Backups ziehen. Trotz dediziertem Controller. Nur, dass es nicht heißt, es hätte niemand gesagt. ;)

Port-Bündelung geht schon, ja, auch unter Win7 - und dass du dann 2 Intel-NICs hast vereinfacht die Sache. Dort geht das relativ einfach im Treiber.
Der Haken ist aber, dass pro aktiver Verbindung immer nur ein Link ausgelastet wird. Also würden parallele Zugriffe beider Rechner auf den Server wohl profitieren, allerdings bringt es nichts, den Clients zusätzliche NICs einzusetzen.

Smart Managed Switches sind, so wie ich das verstehe, die 'kleine' Variante, also nicht mit ganz so happig vielen Funktionen beladen wie die großen Managed Switches - ich habe hier zB einen NetGear GS716T, bei dem zB maximal 2 Trunks erstellt werden können und so Einschränkungen.
Da hilft's nur, das Handbuch zu konsultieren, ob die nötigen Features an Bord sind.
 
Hi,

erstmal danke für deine Antwort.

Gebraucht ist pauschal erstmal nicht schlecht bzw. grundsätzlich abgelehnt...allerdings habe ich von der Materie nicht so viel Ahnung, als dass ich da gezielt nach Schnäppchen suchen könnte oder so. Das von dir angesprochene Gerät ist ja z.B. ein SAS-Controller. Brauch ich da nicht auch andere Platten bzw. muss ich da nicht das ganze System entsprechend umkonfigurieren?

Die Sache mit den 8 Ports ist sicher richtig, allerdings war das halt bisher aus Preisgründen so ne Sache.
Dazu kommt auch, dass wir derzeit in 2 1/2 Jahren grad mal nen Terabyte voll bekommen haben. Mit dem neuen System (4*3 TB im RAID 10) haben wir - sofern mich mein Verstand nicht täuscht - 6 TB zur Verfügung. Da sollten wir erstmal gut und gern wieder 3 Jahre mit auskommen...eher sogar 4...und nach 4 Jahren muss man dann mal schauen, wo man steht und ob eventuell eine ganz andere Storage-Dimension Sinn macht.

Die Platten sind - laut Angabe - ja dynamisch reguliert von 5400 - 7.200, je nach Bedarf.
Bei Hardwareluxx gabs zu denen einen Test. Die sind zwar nicht die schnellsten 3 TB Platten, aber dafür wohl insgesamt sehr gut (kühl, zuverlässig...) und eben preiswert. Die Alternative wären Seagate Barracudas, aber da kostet die 3TB Version auch gleich mal 60% mehr...
Da die Platten ja im RAID-10 Verbund hängen, sollte der Durchsatz ja theoretisch nicht limitieren. Bin aber durchaus für Meinungen/Anregungen offen...

Das mit den Backups: Klar mach ich die auch weiterhin. Kommt ne größere Backup-Platte fürs externe Laufwerk mit. Wir haben ja jetzt schon ein RAID 1 und backupen trotzdem. Ich weiß ja (auch dank des Forums hier), dass ne Spiegelung keine Sicherung ersetzt. Aber danke ;)

Das mit der Port-Bündelung ist mir tatsächlich neu und ich find das recht schade. Hatte gehofft, dass sich tatsächlich der Durchsatz erhöht.
Gibt es denn da gar keine Möglichkeit außer einer sündhaft teuren 10GB-Netwerkkarte?
 
SAS-Controller können (bis auf ganz wenige Exoten, iirc Dell Perc H800) auch SATA-HDDs ansteuern - das ist also erstmal kein Problem.
Bei 8 Ports könntest du zB deine 2 vorhandenen 1TB-Platten ebenfalls an den Conti hängen und bist dann das onBoard-RAID komplett los. Ansonsten gibt's die Controller ja auch in günstiger und mit 4 Ports. ;)
Dass die WD Green/AV-GP/... die Drehzahl nachregeln ist Marketing-Bla, die darfst du getrost als 5400RPM betrachten, vielleicht mal ein bisschen mehr, aber nie und nimmer 7200. Der sequenzielle Durchsatz ist natürlich kein Ding, aber wenn ihr eher mit kleinen Dateien arbeitet und parallele Zugriffe kommen kann eine schnelldrehende HDD durchaus profitieren.
Gibt es eventuell eine Möglichkeit, pro Client ein RAID1 anzulegen? Dann kämen sich zumindest die Zugriffe nicht in die Quere.

Was die 7200er Platten angeht sind zB die Seagate 7200.14 mit 3TB gerade ab 125,- gelistet, alternativ die Hitachi 7K3000 mit 2TB um 100€. Gut, die haben keine 24/7-Freigabe, aber das ist bei den WDs auch nur ein zusätzlicher Sticker auf einer Green. Soweit ich mich erinnere heißt das bei denen ohnehin nur "darf 24/7 herumidlen und mal ein bissl I/O-Last haben". Für richtig 24/7-Last würde ich dann in Richtung SAS 10/15K RPM schauen. Für dich ist das aber eher Overkill, besonders mit Blick auf die Preise.
Was mir noch gerade einfällt: Die AV-GP sind für digitale Videorekorder gedacht und arbeiten mit einer anderen Fehlerkorrektur - bei denen steht ein konstanter Stream im Vordergrund, dafür werden im Fehlerfall auch mal Datenblöcke verworfen. Bei Videos gibt das vielleicht kurz ein grisseliges Bild oder so, ist aber besser als mehrere Sekunden Stillstand.
Nicht, dass durch sowas deine Daten zerlegt werden. Das steht erstmal zur Klärung würde ich behaupten...

Bezüglich des Netzwerkes wäre mir keine wirklich gute Lösung bekannt, da mit normaler 1GbE-Infrastruktur mehr Durchsatz herauszuholen. Vielleicht könnte man über Umwege die Trunks nutzen, aber da mögen die Netzwerk-Cracks mal was sagen, zumindest bei normalen Windows-Shares zwischen 2 Rechnern tut's das erstmal nicht.
Als absolute Bastellösung stünde noch Infiniband (IP over IB) im Raum, aber dann brauchst du wiederum noch einen PCIe x4 oder x8 pro Rechner für die Karten und bist, was die Kabellängen angeht auch ziemlich eingeschränkt.
 
Lass die Finger von den AV-GP Platten! Wie JensS schon sagte, das sind Platten zum streamen, die mit sehr eingeschränkter Fehlerkorrektur arbeiten, um beim Streamen nicht hängen zu bleiben. Solche Platten haben in Raid wo Daten dauerhaft drauf gespeichert werden sollen, nichts zu suchen! Nimm lieber RE4 oder Constellations, oder auch die Ultrastar.
 
Hi Deracus,

wenn ich meine 2 Cents noch einwerfen darf:
In Verbindung mit einem Raid Controller würde ich Dir auch auf jeden Fall "echte" 24/7 Platten alla RE4 oder Constellation empfehlen, wie mein Vorposter korrekt bemerkt hat.Die Anforderungen für Platte an einem echtem Hardware Raid Controller sind andere als bei einem FakeRaid - Stichwort TLER. Eine weitere Überlegung ist die Anzahl der Platten: lieber mehrere "Kleine" Platten, als wenige Große - ist besser für die Performance. Statt 4 besser 6 oder 8. Die OS Platten kannst Du ja weiterhin am Board Controller lassen. Etwas, was Du Dir auf jeden Fall überlegen solltest, ist das Betriebssystem zu wechseln. Es gibt einige, sehr gute, speziell für solche Aufgaben geeignete Betriebssysteme. Z.b Freenas, Nas4free, Openmediavault, Openindiana+Napp-it oder Windows Server 2008 - um nur mal ein paar zu nennen. Die sind auf jeden Fall besser für Dein vorhaben geeignet und ein paar sind auch kostenlos. Windows 7 hat einfach zuviel "Balast" für diesen Einsatzzweck. Wobei Du bei ZFS Systemen wahrscheinlich mehr als nur 4 GB RAM bräuchtest. Dafür würdest Du keinen Raid Controller brauchen. Da reicht schon eine einfache IBM m1015 im "IT Mode" Karte für 150 Euro.
Einfach mal checken. Je nach Betriebssystem würde ich den Raid Controller wählen um nicht mit einem Controller zu enden der keine passende Treiber hat. Nicht nehmen würde ich Controller von HighPoint - die Hardware ist nicht schlecht - aber die Treiber sind nicht die besten.
Zum Controller würde ich Dir zu einem 8-Port Controller raten. Besonders wenn die Datenmenge immer schneller steigt. Es ist wahr, das diese nicht Billig sind, aber auf langer Sicht rechnen die sich. Empfehlen kann ich Dir Adaptec 5804, 3ware 9750-8i. Diese habe ich bei mir im Einsatz. Bei Adaptec sollte Dein Gehäuse aber eine paar gute Lüfter haben, da dieser sehr warm wird.

Auf jeden Fall würde ich mir noch die anderen Foren anschauen die sich speziell mit dem Thema NAS auseinander setzen. Denn das ist es ja was Du brauchst.

Den Switch würde ich mir holen, wenn das System steht. Ich kann mir vorstellen das Dein Durchsatz alleine durch die Server Umstellung steigt. In wie Weit ein Switch mit Trunking etc. Dir wirklich einen Performance Boost über das Gigabit Netzt gibt kann ich nicht sagen - aber wenn die Arbeitsstationen nur Gigabit Karten haben - dann ist der mögliche Durchsatz pro Station im Idealfall bei max ~110 Mbit/s. Es kommt ja auch sehr darauf an wie der Zugriff auf die Daten zwischen der Stationen verteilt ist.
Bist Du sicher das alle PCIe x1/x16 Slots gleichzeitig genutzt werden können? Kann mir vorstellen das das nicht geht. Was sagt das Handbuch?

Gruß
 
Zuletzt bearbeitet:
Wo ich gerade noch lese, dass der Adaptec aktive Kühlung braucht - das ist bei eigentlich allen anderen HW-RAIDs ebenso, im Grunde bei fast allen Karten für den Servereinsatz. Und zu warm werdende Karten können wunderbar absurde Fehler produzieren...
 
Zu dem Buendeln von NICs:
Wie weiter oben schon angedeutet, erhoehts nicht den PunktzuPunkt-Durchsatz, also eine Workstation bekommt immer nur 1Gbit, auch wenn du in die Workstations jeweils 2 NICs einbaust. Da aendert sich garnix. Die normale Arbeit ueber ein beliebiges Programm kann nur Daten von einem NIC nutzen. Wenn du da also deine Comps zusammenfaehrst, dann geht das nicht schneller. Allerdings bricht das Netzwerk auch nicht ein, wenn dein Kollege zur gleichen Zeit das Netzwerk belastet.
Es erhoeht halt den Durchsatz des Fileservers an mehrere Punkte gleichzeitig (dafuer ist das Port-Trunking gedacht). Wenn du also grad gigabyteweise Daten verschiebst und damit die (gigabit)-Anbindung deines Rechners auslastet, hat dein Kollege in dem Moment immer noch ein volles Gigabit an Speed zur Verfuegung. Bei mehr als zwei gebuendelten Leitungen koennte dann auch noch ein dritter Mitarbeiter komfortabel arbeiten. Vorrausgesetzt natuerlich das RAID macht das mit.
Demnach stellt sich die Frage, wie oft ihr beide gleichzeitig einen konstant hohen Datenstrom benoetigt. Ein Switch, der das kann und was taugt geht so ab 300€ los, wenn der fileserver schon 2 NICs an Board hat, fallen keine weiteren Kosten an (die Workstations werden weiterhin mit 1Gb angeschlossen).

Es macht sich durchaus bemerkbar, bewirkt aber keine Wunder. Ich bin ebenfalls mit einer kleinen 3D-Firma unterwegs und habe den Fileserver mit Quad-gigabit am Switch. Also vier gebuendelte Leitungen. Da bremst dann nur noch das RAID im Fileserver. Das mag als overkill anmuten, da hier auch nur 2 Leute gleichzeitig arbeiten, aber es haengt noch ne kleine Renderfarm aus 5 Nodes dran, die bei schnell gerenderten Frames und grossen Szenen durchaus auch noch mal ein normales gigabit Netzwerk auslasten koennen. Natuerlich nicht konstant, es entstehen nur "spitzen" beim Traffic fuer paar Sekunden, die aber dann das Netzwerk nicht ausbremsen. Das macht dann das RAID, leider.

Budgettechnisch sehe ich ein potenteres RAID als effektiver an, als irgendwelche Netzwerkgeschichten. Euer geplantes RAID10 mit nur 4 HDDs und dann nur normale SATA platten wird eh in die Knie gehen. Es sei denn, ihr bearbeitet hauptsaechlich grosse videofiles, aber es werden wohl eher Einzelbildsequenzen sein. Und da wird sicherlich das RAID limitieren, sobald dein Kollege seine Compositings zusammenfaehrt und du grad das gleiche machst.

Das koennt ihr aber auch vorher testen. Wenn das RAID steht, arbeitet halt mal beide gleichzeitig in nem typischen Szenario und beobachtet den Networktraffic am Fileserver. Wenn der den maximalen Durchsatz von einem Gbit erreicht (bzw. dort abgeschnitten wird), dann wird ein Buendeln was bringen. Ansonsten nicht.
 
Zuletzt bearbeitet:
Nimm wie schon mehrmals gesagt mehrere zuverlässige HDDs ~ 6-8 im Raid 10 an einem 8Port Controller. Erweiterbar dürfte dein System später nicht mehr sein. Dafür bräuchtest du deutlich mehr freie PCIe Slots.

Zwei NICs mit unterschiedlicher IP im Fileserver reicht für den Anfang dann auch aus.
 
Danke für die zahlreichen Antworten, besonders auch dekahedron, da er ja aus der selben Branche kommt wie wir und daher auch gutes Fachwissen einbringen kann.

Das mit den kleineren, dafür lieber mehr Platten erschließt sich mir jetzt. Gerade in Verbindung mit einem zuvor angesprochenen 8-Port-SAS-Controller dürfte das guten Durchsatz geben.

Ich habe für die "Problematik" bezüglich des Daten-Durchsatzes noch mal etwas nachgedacht.
Perspektivisch ist es vielleicht eine gute Idee eher über eine Datei-Synchronisierung bzw. eine Art Dateiverwaltungssystem (ähnlich GIT usw.) nachzudenken.

Der Fileserver stellt dann alle Projekt- und Arbeitsdaten zur Verfügung, für die tatsächliche Arbeit jedoch, zieht man sich die Daten lokal auf die Maschine und speichert die geänderten bzw. neu erstellten Ergebnisse wieder zurück.
Dafür würde es reichen, wenn der Server von Punkt zu Punkt "nur" mittels Gigabit angebunden ist und es müsste auch kein Monster-RAID-Verbund im Hintergrund werkeln.

Dafür wäre es dann sinnvoll über lokale RAID 0 Verbände in den Workstations nachzudenken. Diese dürften genug Datendurchsatz bringen um auch große Einzelbild-Sequenzen (FullHD Bilder in FloatingPoint mit vielen Extra-Kanälen - gern 30 - 50 MB PRO Frame) flüssig zu bearbeiten und man steht sich selbst nicht im Weg. Auch die 3D-Dateien hätte man zur Verarbeitung lokal, was beim teilweise schlechten Netzwerk-Code (3ds Max speichert über´s Netzwerk z.B. wahnsinnig langsam) der 3D-Anwendungen selbst auch Vorteile bringen würde.

So wäre man perspektivisch auch für den Zuwachs an weiteren Mitarbeitern/Workstations einfacher gerüstet.

Die Render-Maschinen können die Arbeitsdaten ja weiterhin direkt vom Server mittels Netzlaufwerken ziehen, wie dies jetzt der Fall ist. Dank der Variabilität von Netzwerklaufwerken können ja unter dem selben Laufwerksbuchstaben für die Render-Rechner die Daten direkt auf dem Server, für die Workstations jedoch die Daten auf der lokalen Platte zu finden sein.

Bräuchte man jedoch was vernünftiges für die Datei-Verwaltung. Versionierung usw. wäre mir dabei gar nicht so wichtig...eine einfache Synchronisation und eventuell ein Locking um Kollisionen zu vermeiden würde ja schon reichen. Habe mal etwas recherchiert übern Tag. SVN scheidet wohl aus, da der Transfer von großen Dateien via der verwendeten Protokolle wohl sehr langsam ist. GIT hingegen klingt - zumindest theoretisch - ganz gut.

Hat dahingehend jemand Erfahrungen oder Tipps bezüglich der Software?

Mit diesem Szenario im Hinterkopf würde ein kleinerer RAID-Verbund im Server (ob jetzt 4 Platten im RAID 10 oder doch lieber 8 im RAID 10 am SAS-Controller ist jetzt noch zu entscheiden...auch ne Kostenfrage) und 2x 1 GBit-Links zum Server ausreichen, da es ja primär darum geht, hin und wieder schnell an die Daten zu kommen und nicht dauerhaft einen schnellen Datendurchsatz sicher zu stellen...
 
Ich hab mehrmals kleinen Studios empfohlen, ihre Composites lokal zu machen und nicht ueber den Server. Damit der Comper seine Sachen halt schnell erledigen kann. Ich seh auch die Problematik bei 1080p-fullfloat-EXRs und diversen Passes und Layern. Wenn also eine Workstation nur lokal arbeitet und die gerenderten Sequenzen (lokal) bearbeitet werden, dann geht das erstmal recht flott, weil man saemtliches Netzwerk und Servergedoens damit komplett umgeht. Sowas geht sinnvoll mit einer! Workstation, z.B. dem Compositing- oder Schnittplatz, wo sich der Comper dann die Daten erstmal zusammenkopiert und dann quasi sein eigenes Ding macht. Wenn man dieses Prinzip aber auf alle Workstations uebertraegt und auch andere Prjektdaten, dann entstehen mehrere Probleme:

1. Es muss immer fuer eine aktuelle Version gesorgt werden. Wurden neue Passes gerendert? Wurden die schon lokal kopiert? Mehrere Leute arbeiten an einem Projekt... Wer hat wann was neu erstellt, damit es anschliessend auf die lokale Workstation kopiert werden kann? Arbeite ich ueberhaupt mit denselben Daten, die projektweit auf dem Fileserver liegen? Selbst wenn eine Software das im Hintergrund halbwegs managed...es dauert. Und sind die Daten dann auch komplett? Der logistische Aufwand ist sehr hoch. Im Prinzip dient das dann alles nur noch dazu, einen virtuell einheitlichen Speicherort zu simulieren, den ein zentraler Fileserver sowieso schon bietet.

2. Es ist nicht sinnvoll eine komplette Pipeline dezentral zu machen. Es braucht einen zentralen Fileserver, wo alle Daten liegen, sonst endet das nur in Chaos. Ich kenne auch keine Postpro-Firma, wo das in der Art umgesetzt ist. Alle haben einen zentralen Speicherort. Manchmal werden bestimmte Daten lokal kopiert, wenn da eine besonders hoher Durchsatz erforderlich ist (alte Flame-Workstations oder andere Comp-Arbeitsplaetze, wo das dann auf lokalen video-Raids liegt).

3. Vergiss RAID0. Selbst wenn die Compfiles lokal auf einer Workstation liegen, dann nuetzt ein RAID0 aus normalen HDDs kaum was. Das erhoeht nur den sequentiellen Durchsatz, also eher was fuer Schnitt, wo grosse Videofiles am Stueck auf der Platte liegen und sequentiell gelesen werden koennen. Das gibts auch fast nicht. Zugriffe auf disks sind fast immer nicht-sequentiell. Wenn Composites zusammengefahren werden, die aus 5-15 Passes bestehen, dann ist vor allem die Zugriffszeit und Drehzahl der Platten entscheidend. Da macht sich z.B. ein lokales RAID aus SSDs sehr gut, weils dieses Problem garnicht erst hat. Ob man die dann als RAID0 zusammenfasst oder die auch schon so ausreichen, kA. Das wird auf den Einzelfall ankommen.

4. Dezentral erschwert auch jede Art von Backups. Wo liegt was und kann fuers Backup dann zusammengefasst werden, wenn das Projekt beendet ist? Alles dezentral zu machen wird darin enden, dass jeder seine Daten lokal hat und am Ende nur noch eine Art provisorische "Zweitversion" aufm Fileserver liegt, mit der aber keiner ueberhaupt je gearbeitet hat. Was ist mit Backups waehrend der Projektdauer, wenn jeder seine Daten lokal auf RAID0s hat? (Szenario: "Och, ich mach das eben lokal, weils schneller geht. Ich lass die Maschine noch ueber nacht mitrendern."...Maschine macht ueber nacht die Graetsche, RAID0 killt die Daten, vom Kunden abgesegnete Layouts/Animatics sind weg...)

5. Deine Idee der lokalen Daten die auf dem Server dann gesynct werden, bedeutet ja am Ende, die zweifache Datenmenge. Desweiteren muessen die Daten irgendwann (auf dem Server) aktualisiert werden. Was wenn die Nacht durchgearbeitet wird, damit kommen in 24Stunden u.U mehr Daten hinzu, als synchronisiert werden koennen. Es hat sicherlich seinen Grund, warum Firmen nicht nur in unserer Branche sondern beinahe ueberall, Ihren Datenbestend zentral verwalten...


Mein Fazit waere dazu:
Wenn das Geld fuer einen schnellen Fileserver da ist, dann solltens ein paar mehr Platten sein, ein schneller Controller und SAS Platten statt SATA. Oder man faehrt die guenstigere Schiene, mit nem "einfachen" SATA-RAID, nem guenstigen Controller etc. Die Ersparnis koennte man z.B. in ein SSD-RAID investieren, das lokal auf einer Workstation dann ausschliesslich zum Compen benutzt wird.
 
Zuletzt bearbeitet:
Danke für die ausführliche Antwort.

Ja, genau die Sache mit den EXRs war es eben auch, die mir im Hinterkopf lag. So sehr kann sich ein Gigabit-Netz gar nicht strecken, als das es für so einen Spaß reichen würde...
Da ist, wie du schon sagst, das lokale vorhalten der Daten zum Compositing die einzig sinnvolle Lösung.

Ich hatte halt an ne Art File-Management im Stile von GIT oder SVN gedacht um den von dir angesprochenen Problemen der Dezentralität etwas aus dem Weg zu gehen.
Die Haupt-Ablage wäre nach wie vor der Fileserver, von da werden auch die Backups gemacht und die Arbeitsdaten werden im Prinzip ständig synchron gehalten - nicht nach Erledigung eines Auftrags, sondern im Prinzip wie bei DropBox, sobald eine Datei einen anderen Stand hat, als die Quelle, wird ein abgleich durchgeführt.

Logischerweise stellt sich dann die Frage, was passiert, wenn mehr als eine Person in einem Projekt-Ordner arbeitet. Thema Locking bzw. Kollisionen. Eine Versionierung halte ich für unnötig bzw. wenig praktikabel, da es sich bei den Daten eh um große Binär-Dateien handelt, bei denen ein Merge o.ä. nicht sinnvoll machbar wäre...
Es ginge im Prinzip lediglich darum das Risiko der Kolissionen oder fehlenden Daten-Aktualität maschinell zu minimieren...

Da gibt es jetzt natürlich die Problematik, ob es überhaupt eine Software-Lösung für solch einen Workflow gibt, oder ob da manuell was entwickelt werden müsste (was ich für aktuell wenig praktikabel halten würde)


Der Punkt mit dem RAID 0 ist interessant. Danke. Jetzt wo du es sagst, klingelt es auch bei mir im Hinterkopf, dass schon mal irgendwo gehört zu haben. Also wären SSDs für die PostPro eine gute Idee...wird vermerkt.


---

Die lokale Datenhaltung mal beiseite geschoben, erscheint mir der Kauf eines gebrauchten SAS-Controllers (wie hier Anfangs im Thread erwähnt) in Verbindung mit schnellen SATA (nicht SAS) Platten als sinnvoller Mittelweg. Da muss ich jetzt halt mal wachsam bleiben und schauen, was der Markt so her gibt. Geplant ist sowas ja schwer anzuschaffen. Die SAS-Controller bringen ja - meißtens - eine BBU mit für den Fall eines Stromausfalls. Heißt das im Umkehrschluss, dass bei Verwendung eines "einfachen" SATA-RAID-Controllers im Falle eines Stromausfalls so oder so ein Rebuild anstehen würde, da die im Regelfall eine solche Unit nicht haben?
 
Der Akku für den Schreibcache wird für das vorhalten der Daten im Ram des Controllers benötigt, um bei Stromausfall noch nicht auf die HDD geschriebene Daten zu erhalten.

Normalerweise sollte es unter Windows auch möglich sein mit freigegebenen Ordnern mittels Offline-Kopien auf den Client SSDs schnell zu arbeiten.
Kann dir aber nicht sagen ob da jemand ein kleines Programm dafür geschrieben hat, damit man gewisse Ordner die man gerade für das Projekt z.B. braucht lokal auf der SSD zwischen speichert und dann Änderungen im Hintergrund auf den Fileserver zurückgeschrieben werden.
Zumindest würde dies Windows seit 2000 oder 2003 unterstützen.

Offlinedateien: Netzwerkdaten unter Windows 7 lokal synchronisieren - Windows 7 Funktion - Windows 7 - PC-WELT
Danach speichert Windows 7 diese Dateien unter %windir%\CSC mit spezieller Pfadverwaltung und synchronisiert die Daten automatisch.
...
Denkbare Anwendungsgebiete für das Spiegeln von Netzdaten sind Firmendaten auf mobilen Notebooks, wichtige Transfer-Ordner für Projekt- und Arbeitsgruppen oder ein automatisches Backup im Heimnetz. Praktisch ist dabei vor allem, dass beim Synchonisieren inzwischen gelöschte Daten auf dem "Server" und in den Offline-Daten des Backups entfernt werden.

Vielleicht hilft dir diese Anleitung darüber weiter:
HowTo: Arbeiten mit Offlinedateien - HowTos / Tutorials • Homeserver Forum
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh