Erfahrungen mit FlexRAID

ja was soll ich sagen ich click in der Gui auf Sync aber er erstellt keine PAR-Infos auf dem gewählten Laufwerk.
Ich werde jetzt erstmal disparity testen danke für die Info.

cu
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hätte angenommen, dass SnapRaid mehr braucht als einen E-350 oder verreckt das System förmlich um 4 uhr morgens von den Paritätsberechnungen?
Wenn ich überlege, was ich für einen Hardware-Overkill für ZFS treibe ;)
Glaube ich schau mir echt mal SnapRaid an, auch wenn ZFS technisch "cooler" ist...

Die Paritätsberechnung läuft bei mir grob mit maximal 150mb/s. Dann ist der E-350 am Limit. Zu beachten ist, dass Snapraid immer nur mit einem Thread läuft.
Ist alles kein Problem, das System bleibt auch während der Berechnung voll ansprechbar und auch Filme etc laufen weiterhin perfekt.
Die einzige "Schwachstelle" sehe ich bei einem Check oder FIX, das dauert dann schon mal wenn er >10TB mit ~100mb/s durchgeht. Als das Array noch mit meinem 2600k lief, waren auch 600-700mb/s bei Sync, Check zu sehen. Da hat dann aber nicht der i7 limitiert, sondern die HDDs bzw. deren Anbindung.

Ich sehe das ähnlich wie gea.
Den Vorteil einfach alle "alten" Platten zu einem großen Pool zusammenzuschließen und damit sinnvoll zu verwenden war auch mein Anreiz für die Snapraid / Flexraid Geschichte.
Ich hatte ein paar 1TB und ein paar 2TB und brauchte später 3TB (eben immer das gekauft, was zum aktuellen Zeitpunkt P/L am besten war)
Ist später halt doof sämtliche "alten" Platten zu verkaufen und in einem Zug 6-7 neue 3TB zu kaufen nur um z.B. ein etwas größeres RAID6 aufzubauen.

Den 2. größten Vorteil sehe ich darin, dass die Dateien nicht über die Festplatten gestriped werden, wie es beim Raid5/6 etc. der Fall ist. Klar sagt man sich beim Raid 5/6 dürfen doch 1 bzw. 2 Platten ausfallen, aber dass es auch anders kommen kann beweisen diverse Berichte und Posts anderer User. Da kann es einem selbst mit einem 1000€ Controller passieren, dass die "Raid-Schicht" kaputt geht und bereits beim ersten HDD Ausfall alles weg ist. Raid erhöht verfügbarkeit und ist eben kein Backup.
Ein Snapshot-Raid wie Snapraid ist zwar auch kein 100% Backup, aber viel mehr Backup als ein Raid :)
 
Sehr interessantes Thema!

Bin auch gerade dabei einen Home Server auf die Beine zu stellen. Bin aufgrund eines TV-Servers (DVBViewer Recording Service) und MS Sharepoint dazu gezwungen auf Windows zu setzen. Habe als Student ja Zugriff auf Windows Server 2012 (Datacenter).
Ich habe vor eine Datenmenge von etwas 8-12 TB zu speichern, wobei die Option auf mehr natürlich gegeben ist (7/12 SATA Ports belegt).
Hat jemand von euch schon mit Storage Spaces und ReFS gearbeitet? Das unterstützt ja einen wachsenden HDD Pool bei bestehenden Daten und durch ReFS Integritätschecks. Iwer eine Meinung dazu? Speziell auf Stabilität, Geschwindigkeit und Hardwareanforderungen.
 
Sehr interessantes Thema!
Hat jemand von euch schon mit Storage Spaces und ReFS gearbeitet? Das unterstützt ja einen wachsenden HDD Pool bei bestehenden Daten und durch ReFS Integritätschecks. Iwer eine Meinung dazu? Speziell auf Stabilität, Geschwindigkeit und Hardwareanforderungen.

Hi

sehe ich das richtig das im Server2012 schon alles drin ist? Also man hat dann alles aus einer Hand?
Gibts das nur im Datacenter oder auch in der "normalen" Version?

cu
 
Let me google that for you

Zu Storage Spaces gibt's hier schon nen eigenen Thread mit Benchmarks...
Zu beachten ist dabei:
Storage Space HDDs werden neu formatiert, bisher gibt's keine nicht-Microsoft Software die irgendwas mit einer solchen HDD anfangen kann.
Teilweise verwenden die Dinger Striping und ich bin mir nicht 100% sicher, ob die Aufteilung der Daten wirklich immer günstig ist ("Eine HDD kann ausfallen" - und dann kann man einen Verbund aus 2 500GB und einer 2 TB Platte erstellen...). Nachprüfen kann man das ja nur durch testen.
Fallen mehr HDDs aus als ausfallen "dürfen" (bei normalem Striping = 0!), weiß ich nicht ob man den Space überhaupt noch mounten kann oder Daten davon lesen. Eventuell geht das, dann aber wohl nur über Powershell. Falls nicht, sind alle Daten weg.
Storage Space HDDs können (falls z.B. das Mainboard abraucht) nur von Server 2012 und Windows 8 Systemen erkannt und gelesen werden.

Vorteile gibt's allerdings auch kleinere:
Fertig eingebaut, sicher besser getestet als irgendwelche 1-Mann Projekte die sich gedacht haben, sie coden mal schnell den nächsten Drive Extender.
Daten können beliebig groß sein (bis zum Limit des Storage Space natürlich, mit Thin Provisioning sogar darüber hinaus) - eine 800 GB Datei auf einem Verbund aus 3 500 GB HDDs ist möglich.
Parität etc. wird live gemacht, nicht per Snapshot - sobald die Datei gespeichert ist, ist sie auch mit Parität etc. versehen.
 
Abgesehen davon funktioniert Deduplizierung nicht mit dem neuen ReFS... :/
 
"Irgendwie macht er nix" ist leider keine Fehlerbeschreibung die weiterhilft... Gratis ist auch disParity.

Hi hab jetzt disParity versucht. Hab alles nach c:\disparity entpackt und meine config.txt. in diesem Ordner erstellt.
Wenn ich dann disparity create mache kommt "Unable to open config.txt" ???? Datei ist nicht mehr offen etc???
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh