[Kaufberatung] v2 Verbindung von 2 Standorten - VM-Server SMB

xalur

Enthusiast
Thread Starter
Mitglied seit
31.01.2010
Beiträge
65
Die Entscheidung für die Hardware steht so ziehmlich fest. Es wird ein 2011 Supermicrosystem mit Ordentlich RAM SSD VM-Store und HDD File-Store, am liebsten alles mit ZFS.

Die nächste Hürde: während der ganzen Erstellung des Vorhabens hat sich bei mir ein 2. Standort realisiert, wo ich nun die doppelte Hardware auf Store-Ebene sycron halten möchte, um quasi ein gemeinsamen Arbeiten an den Projekten zu ermöglichen.

----------------------

Hallo liebe Leute,

es geht um folgendes Szenario. Ich hätte gern ein kleine AiO Lösung für das Büro (1 Person Büro :haha:) und gleichzeitig für die Wohnung/Multimedia etc.

In erster Linie soll es der Fileserver im Büro werden - wo vor allem Bilder/Staffagen/Szenen usw. für Rendering und Designarbeiten abgelegt werden - openXchance und solche Sachen würde ich gern ergänzen können.
Backup dieser Daten ist vorhanden - diese Daten verändern sich ja nicht sondern werden eigentlich immer nur wieder ergänzt.

(Die wichtigen Daten - Projekte liegen alle in der Dropbox und werden zusätzlich nocheinmal an ein Backup-NAS (Keller meiner Eltern :hail::hail:) gespiegelt)

Angebunden werden soll primär der Büro Mac Pro (2013) - der hat 2 Nics

Bis jetzt hatte ich folgende Idee:

Mit openmediavault oder XPEnology.

Viel lieber hätte ich aber etwas, was von Anfang an gleich etwas mehr laufen lässt. Also VPN-Server, Web-Server, Download, Mail, evtl. dann doch noch ein kleiner Win Serv etc. Um nicht irgendwann alles nochmal mit allem Pipapo neu aufzusetzen und nachzukaufen möchte ich auf ESXi setzen und 2-3 VMs virtualisieren - möchte nicht 2-3 Geräte dafür rumstehen haben.

Ich habe nun komplett einige Sachen durchgewälzt und eigentlich wollte ich den 310e G8 V2 von HP nehmen - mit 32GB + USB ESXi + SSD für VMs + 4*4TB (RAID 10) + RAID-Controller (IBM 5014/5015 -i8 - irgendwas aus der Bucht :fresse2:) - Nun habe ich aber nacht den Seiten 26-32 im entsprechenden Thread die Sorge, dass das mit ESXi garnicht so flüssig läuft. Und wenn ich schon einen RAID-Controller habe, dann sollte dieser doch auch durchgereicht werden können. Ilo oder IPMI benötige ich eigentlich auch :love:

Ziel sollte auf jeden Fall der halbwegs volle Datendurchsatz von 2*1GB Nics an den 2 Nics vom MacPro sein - also 200 Mb/s+
Von der Geschwindigkeit wäre ich eigentlich ein Thunderbird2-Storage (http://geizhals.de/promise-pegasus2-r4-8tb-f40sr4r00100000-a1045321.html) super, aber der Zugriff von außen ist damit nicht so ohne weiteres Möglich und das benötige ich quasi täglich.

Mein Preisrahmen liegt bei 2.000 € - lieber wären mir aber 1.500 €

Habt ihr weitere Ideen Eigenbau? Andere Hersteller die auch schöne Töchter haben? :d

Edit1: Dell T20/Fujitsu TX140 S2 sehen ebenfalls nett aus! http://www.hardwareluxx.de/community/f101/vm-host-mit-zfs-wie-viel-ram-1018858.html -> VM1 Storage mit ZFS unter napp-it+omniOs + 1-2 weitere VMs klingt so, wie ich mir das vorstellen könnte. Ich würde gern wissen, welche Hardware da gut mit ESXi harmoniert

Edit2: Extrem nice finde ich bei einem evtl. Eigenbau: http://geizhals.de/supermicro-x10sl7-f-retail-mbd-x10sl7-f-o-a956610.html oder http://geizhals.de/asus-p9d-mh-sas-10g-dual-90sb03b0-m0uay0-a960323.html - hier sind schon LSI Controller eingebaut, was gut Geld spart.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So liebe Gemeinde,

nachdem hier anfänglich nicht viel gekommen ist, habe ich mich selber auf die Socken gemacht. Grund lag natürlich bei mir. Ich habe mal wieder eine Standart-Frage gestellt, die auf den nächsten Seiten 100x irgendwo irgendwie beantwortet wurde. Asche auf mein Haupt. :wut:

Also hab ich mich die letzten 2 Wochen hingesetzt und viel viel recherchiert. Ich bin jetzt zu dem Entschluss gekommen, dass alles etwas umzumodeln und wohl doch lieber selber zu bauen. Bei dieser Idee hat mich gea schon im Hintergrund (also via PM :hail:) unterstützt - da ich ziehmlich zügig den Entschluss gefasst habe, ich will ZFS! Und so ist das ganze ins Rollen gekommen.

Eigentlich gefällt mir der HP 310e v2 G8 ja immernoch. Aber da einige ESXi Sachen bei HP nicht richtig funktionieren - war ich mir dann nicht mehr so sicher!!!

Trotz allem habe ich nun verschiedene Varianten zusammengestellt. Danke nochmal an die Helfer mit den PMs (gea, Grafiktreiber, WebY)!

Variante 1 - HP
http://geizhals.de/eu/?cat=WL-430102

Variante 2 - 1150
http://geizhals.de/eu/?cat=WL-430100

Variante 3 - 2011
http://geizhals.de/eu/?cat=WL-429962

Grafikkarte hat mich nochmal explizit bei dem Gehäuse beraten und nebenbei noch seine Meinung zu ein paar Sachen wie RAM-Kit, Netzteil, SSDs als ZIL, Festplattengröße, 10GBe usw abgegeben. Da das alles sehr spannend ist, hat er mich nochmal explizit gebeten, dasss öffentlich auszutragen! :lol:

GrafikTreiber schrieb:
xalur schrieb:
GrafikTreiber schrieb:
GrafikTreiber schrieb:
xalur schrieb:
http://www.hardwareluxx.de/community/f101/esx-esxi-hilfethread-748644-151.html#post22266339

Ich hatte nicht Grafikkarte, sondern dich gemeint :lol:

Hast du nochmal den Link zu deiner Intertech-Zusammenstellung? Ist aber wahrscheinlich total overkill - so ein riesiges Gehäuse. Eigentlich wollte ichs ja nicht so laut und 19" nur, weils damit etwas aufgeräumter wäre mit Switch und Co.

8 Festplatte würden mir eigentlich langen :d

Grüßele

http://geizhals.de/?cat=WL-273085
Ist sehr leise, viel Ram brauchst du auch nicht für einen reinen Homefileserver reichen 8GB.

Als HDD keinen WD Red Murks sonder eine Hitachi 7K4000, oder unter Vorbehalt weil Langzeiterfahrungen fehlen eine Hitachi NAS.

http://geizhals.de/eu/?cat=WL-429962

So ist im Moment meine Zusammenstellung. Mir kommt das Gehäuse von Inter-Tech dann halt noch etwas sehr groß vor - was müsste man denn da an Schrank nehmen? So 15 HE ~ 70 cm passt ja gut neben in einen Raum rein und geht Notfalls noch unter/neben eine Tischplatte.

Es sollen VMs auf die SSDs und ESXi+napp-it auf die kleine SSD + ZIL und die Hitachi - natürlich habe ich viel gelesen von dir und den Verweisen auf die Tests :)

Meine Güte, hattest du nicht gesagt du hättest viel von mir gelesen? :p

Das Gehäuse ist nicht überhaupt nicht groß, nicht größer als die meisten Desktop-Gaming-Gehäuse, siehe auch http://www.hardwareluxx.de/communit...nierung-bei-30-hdds-1005041.html#post21832648.

Wozu ein 19"-Schrank? Muss nicht sein, kannst du auch ganz normal hinstellen. Alternativ auch ein Lackrack. 70cm sind zu wenig für moderne Server, da passt das Inter-Tech nicht mal rein. Faustregel ist Servertiefe + 20cm, besser 30cm. Beachte auch dass die Außenmaße eines Schranks selten den Innenmaßen entsprechen. Für das Inter-Tech also mindestens ein Gehäuse mit 90cm Innentiefe, alles andere ist Quetscherei und sieht nicht mehr schön aus. ;)

Es gibt auch Serverschränke in günstig z.B. von 19power und ZPAS, klar haben die nicht die Qualität eines High-End-Schrankes, aber das ist für zu Hause eigentlich völlig unnötig. Einfach mal nach 19power und ZPAS hier im Forum suchen, da gibt es ein paar Berichte.

Dann zur Zusammenstellung:

Keine 3TB HDDs, immer die größmöglichen günstigen, sprich 4TB, alles andere ist unwirtschaftlich.

Vergiss mal das mit der ZIL, ich nehme mal an dass das dein Datengrab wird, oder? Die HDDs werden so dann sowieso die 1Gbit-Netzwerkkarte völlig auslasten, ein SSD-Cache bringt dir also hier reichlich wenig. Und weiteren Cache für einen SSD-Pool bringt nun mal überhaupt nichts.
Siehe dazu unbedingt http://www.hardwareluxx.de/communit...er-hyper-v-zfs-vs-tiered-storage-1019032.html .

Wozu Sockel 2011 wenn du eh jetzt nicht mehr als 32GB einbaust. "Für später" ist nicht, entweder jetzt oder gar nicht. Später ist die ganze Plattform eh überholt.
Bist du dir sicher dass du überhaupt soviel Ram benötigst? Nimm lieber Haswell-Refresh und gut ist.
Und dann wenn Sockel 2011, wozu dieses Board? Hast du überhaupt eine 10Gbit-Infrastruktur? Das X9SLR-F tuts es sonst auch wunderbar und kosten 200€ weniger.

Man nimmt niemals ein Ramkit, immer einzelne Module. Wenn ein Rammodul defekt ist musst du in der Regel das ganze Kit einschicken und sitzt im Defektfall völlig ohne Ram da. Wenn du einzelne Riegel kaufst kannst du sie beim Händler auch einzeln umtauschen.
Dann noch viel schlimmer: Ich wage arg zu bezweifeln dass der Ram in dem Board überhaupt läuft. Die Intel-Kits laufen selten auf Supermicroboards. Speicher aus der Kingston-Speichersuche verwenden!
Sprich Kingston ValueRAM Server Premier DIMM 16GB, DDR3L-1600, CL11-11-11, reg ECC (KVR16LR11D4/16KF).

Wozu ein 660W Netzteil? Ist viel zu viel, PI*Daumen bei Vollbestückung deines Systemes wirst du es kaum an die 450W bei theoretischer Volllast schaffe, in der Praxis wirst du es nicht mal auf 400W schaffen. Das System würde also ineffizient laufen. Ein ~500W Netzteil wäre also ideal. Außerdem ist es Semipassiv, das ist grundsätzlich völlig unnütz und eher kontraproduktiv in einem Fileserver, du willst einen kleinen Luftstrom haben.
Ich empfehle grundsätzlich ein be quiet! Netzteil, denn das hat die hochwertigsten Lüfter von allen Netzteilherstellern, nämlich einen Silent Wing 2. Noch ein Vorteil ist dass man die Klangsignatur mit den Lüftern im restlichen System abpassen kann, das geht bei allen anderen Herstellern nämlich nicht. ;)

Dann hast du keine Austausch-Lüfter drin, die mitgelieferten Lüfter sind Elektroschrott, extrem laut und halten nicht lange, Lüfter der 2€-Klasse.


Wer Lust hatte alles zu lesen:

Netzteil - da hab ich natürlich ins Klo gegriffen. Ob nun be quiet besser ist - EDIT: Ich hab mich vertan - ich wollte die ganze Zeit be quiet - hab gerade schreiben wollen, dass ich wohl auf die falsche Modellreihe gekommen bin, weil die doch anders heißen, aber siehe da, die Straight Power usw. sind ja von be quiet

RAM - das ist ein super Tipp, dass ist mir bis jetzt bei meinen Bastellösungen schon häufiger kaputt gegangen (hab dann aber immer neu gekauft - wusste bis dato garnicht, dass es so lang Garantie auf die Module gibt)

HDD - also hier bin ich mir nicht sicher - sind gleich 100 € mehr für 4* 1TB

10GBe - das hat mich von Anfang an sehr gereizt, da ich Speed wohl sehr gut gebrauchen kann. Die aktuellen Möglichkeiten für den Mac sind noch nicht wirklich auf den deutschen Markt: SANLink2 is a compact device that allows a Thunderbolt ist über 2*Thunderbolt2 mit 2*10GBe ausgestattet. Hier könnte ich mir für 200 € die Option schon gleich mit im Rechner implementieren (250 € mit Quadport-Karte aus der Bucht, die ich mir wohl dann noch kaufen sollte). Ich weis noch nicht, ob mir 1*1Gbit Anbindung ausreicht. Das werde ich dann erst bei der Arbeit merken. Und da kommt es auch wieder ziehmlich auf die Aufgaben und eingesetzten Programme an (von Renderengines über Modellgrößen der Renderings bis hin zu Photoshop und Illustrator). Es geht mir hier um Arbeitszeit. So ein Rendering brauch je nach Engine vor allem CPU-Power - neuere gehen da schon auf GPU über, was mir beim neuen MacPro nur recht ist.
Wenn ich da große Szenen austüftel und dann das Rendern 2-5h braucht, würde ich gern trotzdem nebenbei noch an anderen Projekten weiterarbeiten können, ohne gleich noch eine neue Workstation zu maltretiern. Spontan könnte ich mir vorstellen, dass beim Rendern viele Objekte und Texturen vor dem Rendern in den RAM geladen werden, aber so genau weis ich das leider nicht.
Lange Rede kurzer Sinn, 10Gbe war die Idee mir auf Sicht eine Option offen zu halten, einem "möglichen" Flaschenhals zu entgehen.

ZIL - Ich gebe zu ist ja wohl vor allem für Schreibvorgänge interessant und ich bin wahrscheinlich eher auf schnelle viele Lesevorgänge über längere Zeiträume angewießen, dennoch erscheint mir die Option für die paar € mehr verlockend.

Gehäuse - Grafiktreiber empfielt das Inter-Tech mit 24 Platten. Mir kommt das für mich etwas groß vor. Aber alles was kleiner ist kostet auch nicht viel weniger und wird wohl um einiges lauter werden. Für einen Serverschrank um die 15 HE hab ich mich jetzt schon fast sicher entschieden, nicht aber für Modell und Hersteller. Da bekommt man einfach alles ordentlicher - gerade wenn noch ein 24 Port Switch mit hinein kommt liegen die Kabel nicht unübersichtlich hinter dem Schreibtisch im Staub, wo man sich dann wieder nie mit dem Staubsauger hintraut :lol:

Soooo jetzt erstmal einen Kaffe für mich und einen spendiert an alle die das hier echt gelesen haben :d

PS: Preisrahmen um die 2000 € ist ok
PPS: Weiterer Vorteil beim X9SRH-7TF ist der eingebaute 8x HBA von LSI ergo HBA und 10GBe für 200 € sind doch n Schnapperl :P
 
Zuletzt bearbeitet:
TL;DR, denken sich wohl die meistern hier. :fresse:

Ich habe ja schon einiges gesagt, wäre sinnvoll wenn du diese Änderungen auch in die Geizhals Wunschlisten übertragen würdest. Die Hälfte des Posts ist somit eigentlich dann auch eigentlich überflüssig. ;)

PPS: Weiterer Vorteil beim X9SRH-7TF ist der eingebaute 8x HBA von LSI ergo HBA und 10GBe für 200 € sind doch n Schnapperl :P
Nein ist es nicht, das X9SRL-F hat auch die selbe Anzahl an SATA-Ports, sind halt von Intel und nicht von LSI, verbrauchen weniger Strom und sind für deinen Anwendungszweck genauso gut.

Idee: Mach deine Rendersachen in einer VM auf dem Server, dann wird die CPU-Leistung auch mal ordentlich genutzt und es liegen nicht die ganze Zeit 300€ im Idle. Außerdem kannst du den Rechner dann ohne Leistungseinbußen und Lärmbelästigung weiter benutzen.

Zum Thema 10Gbe wäre es interessant zu wissen ob du OSX oder Windows benutzt. Unter Windows kannst du einfach irgendeine 10GbE-Karte einbauen, unter OSX wird das schwierig werden.

Aber 10GbE hin oder her, für deine Kaufentscheidung ist es erst mal nebensächlich. Das kannst du dir später immer noch überlegen, ist ja nur Karte einbauen und kurz Netzwerk konfigurieren. Probiere es erst mal mit 1Gbit aus und schau wie es so läuft, ob I/O wirklich das Problem ist. Rendern kann vieles heißen und braucht in der Regel eher CPU als viel I/O als das 10GbE eventuell rein gar nichts bringt. Kommt halt immer drauf an was man da konkret macht. Wenn du z.B. einen Film renderst ist 1GbE völlig ausreichend und wird in keinster weise ausgelastet weil die CPU gar nicht hinter her kommt.
 
Zuletzt bearbeitet:
Danke :d

hier dann mal die neue Wunschkonfi:

http://geizhals.de/?cat=WL-429962

Unsicher bin ich bei CPU und HDDs

Netzteil|Gehäuse|Lüfter|SSDs|MB ersetzt

EDIT: Wie kommen denn eigentlich 3* 120mm hinter die Backplane, welche ja 4* 80mm gelocht ist auf den Fotos?
 
Zuletzt bearbeitet:
Sofern es nur um HDDs geht: Supermicro X9SRL-F retail (MBD-X9SRL-F-O), nicht Supermicro X9SRH-7F! Der Intel-Controller tuts auch, der LSI ist nicht besser, kostet nur unnötig mehr Geld. Der einzige Grund für ein anderes Board wäre die 10GbE-Karte auf dem Supermicro X9SRH-7TF retail (MBD-X9SRH-7TF-O), einen extra LSI-Controller würdest du nicht brauchen.
Weil du aber vor hast 5 SSDs zu verwenden ist das Board mit dem LSI-Controller nun doch wieder interessant wegen den SAS600-Support.



Hattest du nicht gesagt du hättest bereits viel gelesen? :p
Inter-Tech Lüfterblende (Art.-Nr. 90466886) - Server Zubehör: Racks - computeruniverse
Für optimalen Airflow kannst du die auch noch "modden" :fresse:, siehe Medienserver Post #98.

4TB HDDs ist doch völlig logisch, jeder Slot kostet Geld, 4TB sind günstiger pro TB, außerdem sind sie schneller. Ob die 7K4000 oder die NAS bleibt dir überlassen, die 7K4000 ist bewährt und die zuverlässigste SATA-Consumerfestplatte. Die NAS relativ neu, daher wenig Langzeiterfahrung, macht sich aber in den RMA-Statistiken bisher ganz gut. Ich würde zur NAS raten, die kaufe ich beim nächsten mal für zu Hause auch. Für Enterprise bleibe ich erst mal bei der 7K4000, da gebe ich der NAS noch ein halbes Jahr Zeit um sich zu bewähren.

Die 4x LSI 3ware mini SAS x4 (SFF-8087) Kabel, 0.6m (CBL-SFF8087-06M) brauchst du nur wenn du zwei weitere Controller einbaust. Für deine 9 HDD/SSDs kannst du erst mal völlig ohne weitere Controller arbeiten, einfach die Kabel weg lassen und LSI 3ware 4x SATA auf mini SAS x4 (SFF-8087) Kabel, 0.6m (CBL-SFF8087OCR-06M) auf 3 erhöhen.
Solltest du dann später mal mehr als 12 Slots verwenden kaufst du dir zwei SFF-8087 Kabel und einen IBM M1015, flashst ihn auf IT-Firmware und fertig.

Overprovisioning bei den SSDs nicht vergessen. Bevor jemand fragt warum M550 und nicht Evo in meiner Empfehlung drin ist obwohl sie teils etwas langsamer ist? Wegen dem Kondensator der beim Stromausfall hilft. ;)

Einen USB-Stick für ESXi und die Storage-VM brauchst du noch, sofern du kein Proxmox und ZFSonLinux einsetzt. Der Kingston DataTraveler 100 G3 schwarz 32GB, USB 3.0 (DT100G3/32GB) ist günstig und erfüllt seinen Job. Und bitte, steck ihn aufs Mainboard (rot markiert im Bild) und nicht hinten auf die I/O-Blende oder ans Gehäuse wie ein Dau, danke. Bekomme immer einen Anfall wenn ich so etwas sehe.
IMG_02881-1024x768.jpg
 
Zuletzt bearbeitet:
Also das Board finde ich nicht so cool wie das X9SRH-7F, weil bei deinem die SATA Anschlüsse nur 8*3Gb/s sind und die vom LSI 8*6Gb/s

Für ESXi und napp-it+omniOS wollte ich ja eigentlich eine SSD nehmen :d || 1*SSD (120GB) ESXi+Store || 3*SSD (250GB) VM-Strore Z1 || 4*HDD Store Z2 || 1*SSD (120GB) für Performance bei ZFS
 
Jep, hatte ich kurz zuvor auch so editiert, hatte vergessen dass es bei dir um SSDs geht, normalerweise geht es hier nur um HDD only. :p
Ich würde ESXI und omniOS nur auf einen USB-Stick packen, finde eine SSD dafür ist absolute Verschwendung.

Und wie bereits gesagt, eine SSD für Cache wird dir kaum was bringen, dein Anwendungsszenario hört sich einfach nicht danach an. Beim VM-Storagepool rein gar nichts weil es eh schon SSDs sind und für die HDDs auch recht nutzlos weil der Pool eh problemlos 1Gbit-Netzwerk mitmacht.

Was du mit soviel Ram willst habe ich auch noch nicht ganz verstanden, für die paar Sachen, 8GB für die Storage-VM, bissel für ein Mailserver der auch mit 4GB auskommen würde... aber naja, viel hilft viel. Kostet ja nicht die Welt. ;)

CPU musst du selber wissen, solltest du das Rendering in eine VM verschiebe empfiehlt sich sicherlich der Sixcore.

Statt dem Z2 eventuell einen gestripten Mirror oder einen gemirrorten Stripe, bringt mehr IOPS, ist aber etwas unsicherer weil nur 2 bestimmte HDDs von 4 ausfallen können statt 2 irgendwelche von 4.
 
Zuletzt bearbeitet:
Die Idee mit ZFS+ESXi auf eine SSD hab ich von gea - das klingt mir persönlich erstmal verlässlicher - Ahnung ob ich das brauch hab ich natürlich nicht.

RAM kann man nie genug haben. Ich kauf gern immer mal noch Sachen nach. Ein paar VMs mehr sind auch nicht verkehrt.

Fürs Storage nehm ich lieber gleich 16 GB,
dann für den SMB (Zentyal o.Ä.) 8 GB,
ein WinServer für einen BIM-Server und andere Geschichten, die es nur auf Win gibt 8 GB;
letztlich noch für die evtl Workstatoin-VM 8-16 GB.
Bleiben noch 16-24 GB für spätere Ergänzungen - bei 32 GB wäre ich ja jetzt schon am Limit. Ihr Profis schreibt doch immer etwas von Maximum + Puffer :P

Das sind schonmal zwischen 40-48 GB - bestimmt übertrieben jeweils, aber RAM ist ja nicht so teuer ;)
 
Huhu!

Es hat sich jetzt ergeben, dass ich das selbe für einen 2. Standort brauchen würde!

Funktioniert auf dem Fileserver so eine Art Syncronisation? Also das an Standort A und an Standort B jeweils die selben Daten auf dem Fileserver zur Verfügung stehen?

Lohnt sich für 3-4 Nutzer schon ein AD?

Sollte man das Backup dann jeweils von Standort A auf Standort B übertragen oder reicht es, dass das Backup von A bei A und B bei B bleibt, da ja tagsüber eh eine Syncronisation stattfinden soll?
 
Huhu!

Es hat sich jetzt ergeben, dass ich das selbe für einen 2. Standort brauchen würde!

Funktioniert auf dem Fileserver so eine Art Syncronisation? Also das an Standort A und an Standort B jeweils die selben Daten auf dem Fileserver zur Verfügung stehen?

Lohnt sich für 3-4 Nutzer schon ein AD?

Sollte man das Backup dann jeweils von Standort A auf Standort B übertragen oder reicht es, dass das Backup von A bei A und B bei B bleibt, da ja tagsüber eh eine Syncronisation stattfinden soll?

Mit Macs als Arbeitsstationen wäre das AD wohl nur makulatur :fresse:
Hast du hingegen Windows Clients, dann ja.
Dann aber gleich Standortübergreifend. Sprich zwei Windows DCs, einer Standort A, einer Standort B.
Und die Clients ins AD hängen.

Vorteil liegt klar auf der Hand, du hast eben nur eine einzige zentrale Userverwaltung. Will User A von Standort A auf ein Share von Standort B, kann man ihm dieses Recht einfach einräumen.
Hast du keine zentrale Userverwaltung, fängst du an der Stelle an, den Spaß unnötigerweise mehrfach zu pflegen.

Interessanter bei dem Thema dürfte aber viel eher sein, ob das ganze mit diesen ZFS Spielereien machbar ist. Sprich du müsstest die Storage VM irgendwie mit ins AD koppeln und diese überreden, die User gegen das AD zu authentifizieren. Ansonsten macht das imho gar keinen Sinn mit dem AD ;)

Was den sync angeht, da fragst du denke ich am besten mal gea, was da alles machbar ist. Der hat da denke ich ziemlich Ahnung von der Appliance und den Möglichkeiten.
Ich gebe aber zu bedenken, das eine bidirektionelle Syncronisation (also in beide Richtungen, wo auch auf beiden Seiten mit den Daten gearbeitet wird) immer mist zum Einrichten und vor allem zum verwalten ist.

Thema Backup. Ein klares JA! Das macht Sinn und ist viel eher sogar die Ideallösung. Einfach weil du damit externen Einflüssen aus dem Weg gehst. Simples Beispiel. Es kommt Hochwasser -> die säuft die Bude ab. Das Backup schwimt mit weg -> alle Daten futsch. Standortübergreifend hast du das vollständig abgefangen.
 
Mit vielen Rechnern und Benutzern ist Active Directory (oder LDAP) ein Segen und ein Muss. Das klappt auch mit Macs. Die können sich auch gegen AD lokal authentifizieren.

Auch mit Solaris und ZFS kann AD perfekt zusammenarbeiten. Der Solaris/OmniOS Server wird einfach Mitglied der Domäne. Sun hatte diese Funktionalität bereits in den CIFS Server eingebaut (Bei napp-it: Service-SMB-Active Directory -> join). Benutzer authentifizieren sich dann gegen die Domäne. Der Solaris CIFS Server geht in seiner Windows Kompatibilität so weit, dass er ausschließlich Windowsartige nfs4 ACL benutzt und nicht die einfachen Unix Permissions oder Posix ACL. Daneben speichert der Solaris CIFS Server die Windows SID/ Security ID. Windows-Rechte bleiben damit sogar dann intakt, wenn man die Dateien kopiert oder Dateisysteme auf einen anderen Server repliziert. Die Grundverwaltung wie offene Dateien, angemeldete Benutzer geht über Windows und Computer-Management. (Das klappt aber nur wenn man den Solaris CIFS Server nutzt. Der alternative Samba Service speichert nur Unix UID/GID).

Wir machen das täglich mit mehreren Hundert Benutzern und Rechnern - die Mehrzahl Macs. Wobei wir auf den Macs AD nur für die Authentifizierung gegen das Storage benutzen, nicht zur lokalen Anmeldung. Wir haben dazu alle unsere früheren Mac- und Windows Fileserver gegen ZFS unter OmniOS getauscht.


Bei zwei Servern und 3-4 Benutzern sehe ich AD aber eher als Fluch an - viel zu komplex in der Installation und Wartung, von den Kosten mal abgesehen. Da würde ich auf beiden Servern einfach die Nutzer anlegen und die Passworte manuell anpassen (oder die entsprechenden Dateien die die Userinformation für Unix und SMB speichern regelmässig kopieren)

Externes Backup - das ist ideal. Backupsysteme sollten immer extern sein, zumindest in einem anderen Brandabschnitt. Als Möglichkeiten hat man da zfs-send (das repliziert ein ZFS Dateisystem mit fast allen ZFS Eigenschaften und Rechten/ACL nahezu in Echtzeit bis herunter zu einer Minute Abweichung, auch offene Dateien und unter Last nahezu in wire-speed sofern man das nicht über ssh sondern über mbuffer oder buffered netcat macht).

Als Filebasierte Lösungen um zwei Ordner syncron zu halten, kann man rsync (Unixtool) oder robocopy (Windowstool) nehmen. Robocopy kopiert auch ACL, rsync nicht. Zwei-Wege-Sync bei dem man auf beiden Seiten arbeiten kann, würde ich aber unbedingt vermeiden. Nur Lesezugriff auf das Backup ist aber ok - ausser in der Zeit in der eine Replikation oder Syncronisierung läuft. Da können/dürfen/sollen keine Zugriffe auf das Backupsystem erfolgen.

Falls die beiden Systeme über das Internet verbunden sind, unbedingt VPN benutzen.
 
Zuletzt bearbeitet:
Danke ihr 2!

Also AD würde mich schon reizen, aber meine alten Studentenlizenzen darf ich ja nicht mehr nutzen :( Es gibt aber neu unter Ubuntu und Debian SMB Lösungen, die glaube ich auch soetwas anbieten. Ohne Support auch kostenlos-sehr günstig: (Um mal 2 große zu nennen)

Zentyal - Zentyal Server 3.4 | Linux Small Business Server
UCS - UCS - Univention Corporate Server | Univention

Eigentlich möchte ich auf beiden Servern genau die selben Daten haben. Nur das verschiedene Mitarbeiter auch ihren eigenen Ordner besitzen, aber sich 1 Benutzer auch mit mehreren Geräten einloggen kann.

Ich hätte dann gedacht: Server A ist quasi Hauptserver und Server B ist Nebenstelle. B baut VPN zu A und syncronisiert die Ordner - wie bei Dropbox - in Echtzeit. Hier geht es ja quasi um den Geschwindigkeitsvorteil bei Nutzung der Daten vor Ort. Die große Übertragung ist eh nur am Anfang, es wird sich täglich höchstens im 1GB Bereich bewegen; eher darunter-

Ein Backup in der Nacht und Ruhe im Schacht. Da Server A noch die bessere Leitung hat, sollten darüber auch die VPN-Verbindungen laufen - unterwegs auf die Daten kommen ist mir sehr wichtig.

Also am liebsten hätte ich siamesische Zwillinge! :d
 
Was willst du genau? Sollen die Zugriffe gleichzeitig auf Server A und B erfolgen und dabei dir Daten syncron sein oder soll auf Server B nur eine Sicherung alle paar Minuten erfolgen? Letztes ist ganz trivial mit ZFS Snapshots machbar und völlig unkompliziert. Erstes erfordert ein Clusterfilesystem wie z.B. GlusterFS, das ist aufwendig, kompliziert und Bedarf weiterer Sicherungen und Systeme, vergiss das einfach mal wieder.

Einen AD für ein paar Nutzer halte ich für sinnfrei, mach erst bei zweistelligen Nutzerzahlen Sinn, ansonsten kostet es eher mehr Arbeit als es spart.

Was willst du mit Zentyal oder UCS? Was willst du davon konkret nutzen?

Grundsätzlich empfehle ich zusätzlich ein verschlüsseltes Cloudbackup, wie man das genau macht und dabei sogar die unlimited Anbieter wie Backplaze oder Crashplan mit eigener Verschlüsselung nutzt ist aber eher ein Thema für einen neuen Thread.
 
Zuletzt bearbeitet:
Mmmmh...

Also es gibt bei den Daten 3 grobe Kategorien:

- Stammdaten (der große "Batzen" Bilder/Oberflächen/Texturen) auf die gleichzeitig sowohl bei A als auch bei B zugegriffen werden können soll - hier kommt immer mal wieder etwas dazu in Form von ganzen Bibliotheken. Eigentlich muss das garnicht in Echtzeit syncron gehalten werden - kann man eigentlich auch manuell kopieren, automatisch wäre halt komfortabler.
- Projektdaten - dwgs, Adobe-Datein jeder Art und weitere Projektdaten. Leider werden Photoshopdatein usw gern auch mal 4GB groß, aber da arbeitet generell nur 1 Person dran und im 2. Schritt ein anderer (Datei ist ein Haus: 1 gießt die Bodenplatte, 2 Zieht die Wände hoch) - klar könnte man für jedes Programm einen extra Teamsharing-Server hochfahren (BIM Server u.a.), aber da ist der Verwaltungs- und Anschaffungsaufwand viel zu hoch für die paar Nutzer - hier wäre eine syncronisation wie bei Dropbox klasse - wird wohl das "günstigste" sein
- Firmendaten (Rechnungen, Angebote etc.) - hier wäre Dropbox-mäßg wieder ideal - Daten sowohl lokal als auch auf dem Server vorhanden und das ganze dann noch im Backup

Ist das wirklich alles so kompliziert?
Evtl. "einfach" Stammdaten mit sync-Tool laufen lassen (die paar Änderungen sind zwar große Datenmengen - kommt aber nicht so oft vor). Firmendaten können ja in Owncloud oder soetwas.

Nur Projektdaten sind das spannende, hier geht es ja immer um die Wurst (bei bestem Grillwetter :lol:) - bei dem Datenpool ist oft nach ein paar Wochen kein Platz mehr für private Fotos oder so auf den SSDs der Rechner, also wäre hier auch irgendein Sync-Tool supi

PS: crashplan wollte ich auch nutzen :P
 
Du hast die Frage nicht verstanden und/oder hast nicht verstanden was man mit einem Cluster-Dateisystem machen kann bzw. was dir ZFS Snapshots bringen und was nicht.

Informiere dich bitte mal ausführlich über das Thema, beginnend mit dem Wikipedia-Artikel.
https://de.wikipedia.org/wiki/Cluster-Dateisystem
https://www.google.de/search?hl=de&q=cluster+dateisystem

Vielleicht schreibt hier ja auch noch jemand was dazu, ich bin dazu gerade zu faul hier Grundlagen zu erklären. :p

Wenn du dann darüber im Bilde bist wirst du schnell zum Schluss kommen das kein Cluster-Dateisystem für dich wohl eher nicht in Frage kommt, außer du willst noch tiefer in die Tasche greifen, sprich noch mindestens einen dritten Server für Backups und eine wirklich schnelle Internet-Anbindung.

Zusätzlich ist das alles überhaupt nichts für Anfänger, das Thema ist recht kompliziert und dabei kann sehr viel in die Hose gehen. Wenn du es machen willst, teste es erst mal über lange Zeit, aber bitte auf keinen Fall produktiv einsetzen ohne sich damit aus zu kennen, das ist kein Kinderspiel wie ein simpler Fileserver und, ohne dir zu Nahe treten zu wollen, übersteigt definitiv dein derzeitiges Know-how, vielleicht in 1-2 Jahren wenn du dich damit wirklich viel auseinandersetzt. Cluster-Dateisysteme sind aktuell noch ein Thema mit den man die höchsten Stundensätze (LVL3, LVL4) abrechnen kann, das hat auch seinen Grund und wir wohl auch noch ein paar Jahre so bleiben.
 
Zuletzt bearbeitet:
Danke :fresse2:

Ich glaub das lass ich dann :(

Ich hab gedacht da muss man nur irgendwo 2 Haken setzen bei napp-it oder ner Win Server VM :wall::wut:

Aber dann dürfte man doch auch generell keinen Fileserver mit mehreren Benutzer betreiben. Da passiert doch das selbe. Oder dürfen da nicht 2 Personen die selbe Datei nur lesen? Beim Schreiben kommt doch sogar unter Windows: "Die Datei wird gerade von einem anderen Benutzer/Programm genutzt" und evtl. "Die Datei wird deshalb im Nur-Lese-Modus gestartet" - Die Cluster-Systeme sind ja gut und schön, aber ich hab den Zwang zur Anwendung bei meinem System noch nicht geblickt.
 
Zuletzt bearbeitet:
QNAP löst das über Btsync - laut wiki gibts das für viele OS - evtl läufts ja auch auf OmniOS, wenn nicht nehm ich eine VM, die auf den Storage Zugriff hat

How-To: Synchronisation und Backup von NAS-Gerät zu NAS-Gerät - NAS-Geräte - mehr als nur reine Datenspeicher
BitTorrent Sync - Wikipedia, the free encyclopedia
BitTorrent Sync
http://blog.bittorrent.com/2013/08/13/sync-hacks-how-to-easily-sync-config-files-between-servers/

Klingt nach einer tollen Sache mit ZFS darunter!

Andere Lösungen mit man-in-the-middle:
https://www.teamdrive.com/de/
http://www.wuala.com/de/

Dann gibt es ja noch 2* Branch Cache unter Win-Servern
 
Zuletzt bearbeitet:
Aber dann dürfte man doch auch generell keinen Fileserver mit mehreren Benutzer betreiben. Da passiert doch das selbe. Oder dürfen da nicht 2 Personen die selbe Datei nur lesen? Beim Schreiben kommt doch sogar unter Windows: "Die Datei wird gerade von einem anderen Benutzer/Programm genutzt" und evtl. "Die Datei wird deshalb im Nur-Lese-Modus gestartet" - Die Cluster-Systeme sind ja gut und schön, aber ich hab den Zwang zur Anwendung bei meinem System noch nicht geblickt.

Ich glaube du hast es immer noch nicht verstanden und vermischst mehrere Schichten mit einander, Dateisystem (z.B. GlusterFS auf ZFS) und deren Zugriff (SMB/NFS...) sind erst mal von einander unabhängig.

Ein Cluster-Dateisystem ist ein Dateisystem über mehrere Computer verteilt was als eine Einheit von überall aus ansprechbar ist und sich egal über welchen Zugriffspunkt man die Dateien anspricht immer das selbe befindet, oder befinden sollte. :fresse:

Das hat jetzt erst mal nichts mit Filelocking zu tun. Stell dir einfach mal als ganz simple Beschreibung eine Festplatten Spiegelung über das Netzwerk vor die gleichzeitig auch noch von beiden Seiten Zugriffe zulässt und nicht nur von einer.
Natürlich können nicht zwei Leute gleichzeitig eine Datei bearbeiten, sonst wird sie inkonsistent, ist doch völlig logisch.

Dies ist der komplizierte Part. Das mehrere Leute auf einen Dropbox-Clone zugreifen können ist trivial, dafür gibt es mittlerweile wirklich sehr viele Lösungen die jeder Idiot im Handumdrehen einrichten kann. Einfach irgendwelche Rechner hinstellen, Software auf beiden installieren, fertig.

Wo du vielleicht ansetzen kannst ist ein Layer dadrüber, etwas ala der Lösungen die du schon gepostet hast. Das ist aber erst mal für dein Vorhaben grundsätzlich unabhängig und läuft auf jedem Dateisystem. Für performantes Arbeiten mit großen Dateien sind diese Lösungen aber eher weniger geeignet, mit Photoshop und Co wirst du da keinen Spaß haben. Außerdem sind fast alle diese Lösungen darauf aufgelegt die Daten vollständig auf dem Client vor zuhalten, so wie es halt Dropbox macht, also vielleicht nicht unbedingt das richtige für dich.

BtSync macht aber soweit ich das sehe nichts anderes als du auch mit ZFS-Snapshots oder rsync machen könntest, es bietet dir auch keine "Cluster-Funktioalität". Außerdem ist es Closed-Source von einer Firma dessen Finanzierung immer noch sehr fragwürdig ist, es gibt da die wildesten Verschwörungstheorien. ;)

BrachCache ist kein Cluster-Dateisystem sondern wie der Name schon vermuten lässt einfach nur ein Cache, ist vielleicht das richtige für dein Vorhaben.

Vielleicht kann es noch mal jemand anders auf eine andere Art erklären, ich tue mich mit dem Erklären solcher Basics immer recht schwer weil es für mich einfach selbstverständlich ist.
 
Zuletzt bearbeitet:
BTsync hätte den Vorteil der 2-Wege Übertragung, dass geht mit rsync nicht so einfach.

Der große Vorteil bei einem Vertreilten Dateisystem liegt doch bei der "Versionierung" der evtl. gemeinsam bearbeiteten Datein (lässt sich auch lösen - Absprachen oder nur neuste wird ersetzt) und darüber hinaus bei der Blockübertragung, es muss also nicht immer die ganze Datei gesendet werden, sondern einzelne Blöcke reichen. Und es kann noch viel mehr... das ist schön :coffee:

Nichts desto trotz gibt es ja scheinbar unglaublich viel Software, die eine abgespeckte Variante davon anbietet. Warum du jetzt sagst, "es geht nur DFS und dafür bist du auch noch zu dumm ohne 3rd Level-Support" erschließt sich mir noch nicht ganz ;)

Beispiel: VM Store macht Freigabe an VM (1) Win - VM1 bekommt Dropbox und nimmt als Hauptordner einen Ordner in der Freigabe. Das selbe mache ich an Standort 2, mit dem selbem Dropbox Account. VM1 wird nun immer die Daten syncen. Man sollte nun im besten Fall nicht die selben Daten gleichzeitig nutzen. Das könnte man einfach so lösen: Standort A erhählt den Unterordner "Projekte A" und B dementsprechend "Projekte B". Hier kommt man halt um Telefon oder Mail usw. nicht herum. Aber immerhin sind die Daten auf beiden Standorten lokal halbwegs aktuell. Ich brauch doch nicht ein Teilweise gerendertes Bild öffnen und nebenbei Gardinen am anderen Standort einsetzen und dazu noch für jeden erstellten Pixel eine extra Version.

Das wäre doch zuviel des guten. Auch wenn ich dir glaube, dass es nur so richtig toll und richtig sauber läuft. Wenn das wirklich so unpraktikabel ist, dann werde ich mich wohl mit BIM-Server und Professional writing and editing software | Adobe InCopy CC beschäftigen müssen.

PS: Ich habe mal bei HELIOS angefragt, die bieten dazu wohl auch AIO Lösungen an, wird aber sicher den Preisrahmen sprengen.
 
Zuletzt bearbeitet:
BTsync hätte den Vorteil der 2-Wege Übertragung, dass geht mit rsync nicht so einfach.

Der große Vorteil bei einem Vertreilten Dateisystem liegt doch bei der "Versionierung" der evtl. gemeinsam bearbeiteten Datein (lässt sich auch lösen - Absprachen oder nur neuste wird ersetzt) und darüber hinaus bei der Blockübertragung, es muss also nicht immer die ganze Datei gesendet werden, sondern einzelne Blöcke reichen. Und es kann noch viel mehr... das ist schön :coffee:
ZFS Snapshots senden auch nur den geänderten Block, das könntest du also in besser und ohne Overhead dann auch mit ZFS Snapshots machen.
Dann machst du halt den Server der nur die Snapshots erhält auf Read-only, wenn jemand Änderungen vornehmen will muss das dann halt über VPN geschehen. Aber wirklich praktikabel ist das doch auch nicht.

Absprachen wie "nur ich greife auf die Datei zu" ist doch völliger Murks und entspricht dem Workflow einer von ahnungslosen Nicht-Technikern "administrierten" IT, so etwas muss die Software leisten, ist doch lächerlich. :p

Wie bereits gesagt, eventuell wäre Branchcache hier für interessant, ist eigentlich so ziemlich für deinen Anwendungszweck gemacht, sprich SMB über langsame WAN-Verbindungen durch Caching zu beschleunigen.

Dropbox-Clone gibt es etliche, die können dann auch Filelocking. Klar kann man einfach diese Software auf zwei Fileservern installieren, das ist kein Problem. Aber wie bereits gesagt, fast alle diese Lösungen gehen dabei von aus dass man die Daten auf allen Clients vorhält und nicht auf einem Fileserver, ansonsten kann man die ganzen Zusatzfunktionen des Clients nicht verwenden wenn man über SMB/NFS darauf zugreift.

Nur aktuell sind ownCloud und seine Konkurrenten alles andere als zuverlässig und nicht wirklich enterprise-fähig. Bei vielen dieser Lösungen ist auch die Performance für den Arsch weil sie Umwege beim Dateizugriff über mehrere "Software-Schichten" nehmen und daher die Performance natürlich nicht mit einer Datei zu vergleichen ist die direkt auf einer Festplatte oder SSD liegt, daher meine Aussage "mit Photostop wirst du da wohl keinen Spaß" haben. Sicherlich gibt es da auch Ausnahmen, ich kenne nicht jede Software konkret, das war nur eine Pauschalaussage.

Nichts desto trotz gibt es ja scheinbar unglaublich viel Software, die eine abgespeckte Variante davon anbietet. Warum du jetzt sagst, "es geht nur DFS und dafür bist du auch noch zu dumm ohne 3rd Level-Support" erschließt sich mir noch nicht ganz ;)
Du hast nicht verstanden worum es bei meinem Aussagen überhaupt ging bzw was ich überhaupt erwartet habe was du gerne haben würdest. :fresse:

Du fragst nach Sachen wie AD und dann noch "Standort A und an Standort B jeweils die selben Daten auf dem Fileserver zur Verfügung stehen", da denke natürlich ich sofort an ein richtiges Cluster-Dateisystem und nicht an das was du wohl anscheinend gedacht hast wie einen Dropbox-Clone und rate dir natürlich erst mal davon ab.

Das hat nichts mit "zu dumm sein" zu tun dass ich dir davon abrate, wie bereits gesagt, richtige Cluster-Dateisysteme sind ein komplexes Thema bei dem enorm viel schief gehen kann und für das man eigentlich auch noch mehr Hardware braucht, sprich noch mindestens ein extra System für Backups. Da du dann nicht mal in der Fragestellung konkret die richtigen Begriffe verwendet hast ist doch logisch dass ich davon ausgehe dass du völlig ahnungslos bist und dir sofort davon abrate es erst überhaupt für den Produktivbetrieb in Erwägung zu ziehen.

Andererseits, wenn du dir es zutraust,dich wirklich damit beschäftigst und mehr Geld ausgeben willst für ein ordentliches Backupkonzept mit Langzeit-Snapshots, mein Gott, soviel kann dann eigentlich nicht schief gehen, man hat ja immer noch alle Daten auf einem Backupsystem. Es ist quasi die beste Lösung für deinen Anwendungszweck, allerdings auch die aufwendigste und teuerste. Aber wie bereits gesagt, ich halt es für sehr gewagt bei deinem jetzigen Wissensstand, ich kenne dich nicht persönlich von daher gebe ich dazu auch keine konkrete Empfehlung ab. Mach das womit du dich am sichersten fühlst. ;)
Grundsätzlich in Frage kommen würden da nur kostenfreie Open Source Lösungen wie z.B. Glusterfs oder Ceph.
https://www.google.de/search?hl=de&q=glusterfs+vs+ceph
https://www.google.de/search?hl=de&q=zfs+glusterfs
https://www.google.de/search?hl=de&q=zfs+ceph

Beispiel: VM Store macht Freigabe an VM (1) Win - VM1 bekommt Dropbox und nimmt als Hauptordner einen Ordner in der Freigabe. Das selbe mache ich an Standort 2, mit dem selbem Dropbox Account. VM1 wird nun immer die Daten syncen. Man sollte nun im besten Fall nicht die selben Daten gleichzeitig nutzen. Das könnte man einfach so lösen: Standort A erhählt den Unterordner "Projekte A" und B dementsprechend "Projekte B". Hier kommt man halt um Telefon oder Mail usw. nicht herum. Aber immerhin sind die Daten auf beiden Standorten lokal halbwegs aktuell. Ich brauch doch nicht ein Teilweise gerendertes Bild öffnen und nebenbei Gardinen am anderen Standort einsetzen und dazu noch für jeden erstellten Pixel eine extra Version.

Das wäre doch zuviel des guten. Auch wenn ich dir glaube, dass es nur so richtig toll und richtig sauber läuft. Wenn das wirklich so unpraktikabel ist, dann werde ich mich wohl mit BIM-Server und Professional writing and editing software | Adobe InCopy CC beschäftigen müssen.
Das habe ich so nie behauptet, ich habe nur darauf hingewiesen dass die Performance solcher Lösungen mit riesigen Datenmengen nicht wirklich der Bringer ist, dafür sind sie auch gar nicht gedacht. Probiere es halt aus, wie bereits gesagt, meine Erfahrung mit den Dropbox-Clonen ist dass die Performance für große Dateien einfach schlecht ist. Ich bin natürlich aber auch SSD-only Systeme und schnelle Rechner gewöhnt und merke sofort wenn etwas schneller gehen könnte. Wer noch mit alten Rechnern und HDDs arbeitet wird wohl keinen Unterschied merken.
 
Zuletzt bearbeitet:
Danke dir!

Habe mal das Thema angepasst und den Eröffnungspost erweitert

Ich merk schon, dass Thema lädt zum auslassen ein. Es gibt scheinbar viele Möglichkeiten. Die einen sind sehr komplex (Cluster), die anderen schnell umgesetzt aber praxisfremd und die letzteren sind sicher nur in Enterpriseumgebungen umzusetzen, in der sich der Etat 5-6 stellig bewegt. Mir als kleinen Techniknarr schwirrt da der Kopf, aber ich bleibe da gern dran!

Nochmal allgemein als Nachfrage: muss das Clusterdateisystem Zugriff auf Platten und Controller haben oder reicht es, Zugriff auf eine Freigabe zu haben? Bei letzteren könnte ich ja mit VMs ordentlich experimentieren.

Branchchache wäre, noch eine Alternative, nur leider ist das nix für Macs.
 
Du kannst einen Testaufbau mit Gluster oder Ceph vollständig in VMs vornehmen, informiere dich vorher über die Unterschiede und den aktuellen Stand beider Lösungen und teste dann einfach fröhlich in VMs, wenn möglich als Unterbau gleich mit ZFS.

Beachte bitte das Ceph und GlusterFS zwar theoretisch überall laufen, nur die meisten Nutzer wohl Linux nutzen. Es hält dich keiner davon ab dies unter FreeBSD oder Solaris zu machen, aber bedenke bitte das kostenloser Support und Anleitung dort eher weniger vorhanden sein werden. Da dies auch mehr in die Richtung wirkliche Profi-IT geht wirst du sowieso eher weniger Sachen auf DAU-Niveau finden wie es sie für Dropbox-Clone gibt. ;)

Wenn du irgendetwas liest, immer auf das Datum schauen denn beide Lösungen sind in starker Entwicklung und bedürfen daher eigentlich spätestens alle 12 Monate einer neuen Bewertung.

Ganz wichtig: Wenn du dich für einen Produktivbetrieb entscheiden nach dem du dies ausführlich getestet hast solltest du dir für den Fall der Fälle schon mal einen Ansprechpartner besorgen der im Notfall schnell einschreiten kann. Wie bereits gesagt, es kann einiges schief gehen, also definitiv ein Langzeit-Archiv z.B. mit ZFS Snapshots und noch ein extra Cloud-Backup.
Und nein, das bin ich nicht, also bitte keine PMs dies bezüglich, Gluster/Ceph sind nicht wirklich mein täglich Brot. Ich könnte dir dann höchstens jemanden empfehlen wenn es mal so weit ist. ;)

Wie bereits gesagt, probieren kannst du es ja mal mit einem Dropbox-Clone, ich finde aber die Lösungen sind aktuell alle noch etwas wackelig.

Vielleicht hat jemand ja noch eine bessere Idee, mir fällt spontan erst mal nichts mehr ein.
 
Zuletzt bearbeitet:
Also ganz ehrlich

Lokales San/NAS, auch mit Highspeed und 10 Gb am Mac mit Promise Sanlink2 (habe ich gerade selber bestellt) und remote Backup ist trivial. Auch VPN mit Fritzbox oder "irgendein Clouddienst als shared storage" ist ok.

Cluster Filesysteme, das würde ich mir nach 25 Jahren IT Leiter nicht freiwillig antun ohne dass ich das wirklich brauche und idealerweise drei Diplomarbeiten dazu vergeben könnte - oder es mit Full Support einkaufe.

Immer mit KISS anfangen oder es geht schief!
 
Sofern er auf dem Board läuft, warum nicht, kommt halt drauf an was da für Chips drauf sind. In der Memory Support List steht von diesem Modul speziell nichts, kannst ja mal eine Mail an Supermicro schicken, aber ich glaube nicht dass sie allzu viel dazu zu sagen haben, sonst würde es schon in der Memory Support List stehen. Ansonsten ausprobieren, wenn sie einen 24h Memtest überstehen passt doch alles.

Fragwürdig ist nur warum nur genau dieser ca. 30% günstiger als die Konkurrenz ist, das sieht mir nach irgendeiner Promotionaktion eines Distributors aus um Teamgroup zu bewerben und nicht nach einem dauerhaften Preis.

Kingston wird halt bevorzugt weil sie quasi für alles ein Modul im Angebot haben, nicht unbedingt teuer sind und geringe RMA-Quoten haben. Außerdem gibt es die Kingston-Speichersuche mit der lästiges Recherchieren oder Ausprobieren weg fällt.
 
Zuletzt bearbeitet:
https://blogs.oracle.com/relling/entry/zfs_raid_recommendations_space_performance

Stichwort RAID-Konfiguration:

Demnach bringt doch ein "2-set dynamic stripe, 3-way mirror" die 6-fache "Small, Random Read Performance" wie ein RAID-Z. Dafür habe ich nur den nutzbaren Speicher von 2 Platten aber 2-4 Platten können Ausfallen.

Heißt ich lege quasi 1x RAID-0 aus 2 HDDs an und spiegel diese auf 2x 2 weitere HDDs. Bleibt dabei die komplette ZFS-Funktionalität erhalten?
 
Heißt ich lege quasi 1x RAID-0 aus 2 HDDs an und spiegel diese auf 2x 2 weitere HDDs.

Nein.
Man legt einen Pool aus einem 3fach Mirror an (vdev-0).
Anschließend erweitert man den Pool um einen weiteren 3fach Mirror (vdev-1).
ZFS striped dann immer in der Art eines Raid-0 über alle vdevs (Egal wie ein vdev aufgebaut ist).

Die Lese-IO eines solchen Pools entspricht 6x einer einzelnen Platte.
(da von allen 6 Platten gleichzeitig gelesen wird)

Die Schreib-IO eines solchen Pools entspricht 2x einer einzelnen Platte.
(da sich die Schreibleistung auf die zwei Mirrors aufteilt)

Die Kapazität ist 2 x einer einzelnen Platte
Es dürfen zwei Platten je vdev ausfallen ohne dass Daten verloren gehen.

z.B.
Code:
config:

	NAME                        STATE     READ WRITE CKSUM      CAP            Product
	tank                        ONLINE       0     0     0
	  mirror-0                  ONLINE       0     0     0
	    c11t5000000e8E61AB29d0  ONLINE       0     0     0      480.1 GB       Winkom ML-X8480   S:0 H:0 T:0
	    c11t5000000542D52AF6d0  ONLINE       0     0     0      480.1 GB       Winkom ML-X8480   S:0 H:0 T:0
	    c11t500000017E8eF97Dd0  ONLINE       0     0     0      480.1 GB       Winkom ML-X8480   S:0 H:0 T:0

	  mirror-1                  ONLINE       0     0     0
	    c11t5000000e57FFDB72d0  ONLINE       0     0     0      480.1 GB       Winkom ML-X8480   S:0 H:0 T:0
	    c11t500000026322eC7Fd0  ONLINE       0     0     0      480.1 GB       Winkom ML-X8480   S:0 H:0 T:0
	    c11t50000002C0eA0B53d0  ONLINE       0     0     0      480.1 GB       Winkom ML-X8480   S:0 H:2 T:2
 
Zuletzt bearbeitet:
Mit anderen Worten: Belasse es für für HDD-Storage einfach bei beim Z2. Wie bereits mehrfach gesagt, wenn du Performance brauchst, gehe SSD only, alles andere sind heutzutage nur halbgare Lösungen. Du kannst da noch so viele HDDs zusammen klatschen und kommst trotzdem nicht an die IOPS einer einzigen SSD.

Über solche Konfigurationen kannst du dir bei SSD-Pools aber durch aus Gedanken machen.
 
Zuletzt bearbeitet:
mmmmh... da könnte ich ja über soetwas nachdenken:

6* 512 GB (M550 da 840 EVO TLC hat)
und 2* 4 TB mirror für die großen Sachen.

Könnte man auf dem SSD-Pool auch gleichzeitig die 2 anderen VMs laufen lassen, zusätzlich zum Projektpool?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh