Unraid

MisterY

Urgestein
Thread Starter
Mitglied seit
17.03.2007
Beiträge
2.776
Hi,

Ich überlege, ob ich von OMV mit mergerfs und snapraid auf unraid umsteige. Der Grund ist, da ich meinen Fileserver als storage für meine Workstation und vServer nutzen möchte. Mindestens die Workstation wird mit 10gbe verbunden. Und ich würde schon gerne um die 600-800mb/s lesend und schreibend haben. Kann der SSD cache Pool auch lesend den Speed beschleunigen? Welche SSDs, die nicht gleich ein Vermögen kosten mit 250gb kann man nutzen? Die 850 evos sind wegen tlc wohl nicht soo gut, oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für SSDs im Budgetbereich gehen die 850 Pro relativ gut.

ANsonsten wenn es geht einfach testen wie sich das in deiner Umgebung zeigt mit der Performance^^
 
Nur zum testen würde ich ungerne so viele Dateien umkopieren
 
wenn die Dateien noch im Cache sind hast du die volle SSD Geschwindigkeit beim lesen... es wird allerdings einmal am Tag automatisch alles vom Cache ins Array rübergeschoben damit der Cache wieder frei wird... sprich: Unraid verschiebt automatisch alle Daten von der SSD auf die HDD's ... wenn das passiert ist und du was vom Server lesen willst, hast du nur noch die Lesegeschwindigkeit einer einzelnen HDD.

btw: ich verwende 3 Stück 850er SSD's in meinem Unraid Server ohne Probleme.
 
850er pro oder EVO?

Also limitiert eine einzelne hdd? Dann bringt das ja nichts. Dann werde ich wohl eher ein raid5 aus drei 1tb 2.5" Laufwerken im OMV erstellen und diese für Programme nutzen. Diese kann ich auch als Cache nutzen indem ich incron nutze.
 
Du kannst auch mal googlen. Irgendwo, ich meine es wäre bei Youtube gewesen, gibt es Video oder einen Bericht, wo mit unRAID knapp 1 GB an Datendurchsatz erreicht wurde. ;)

Das Cachedrive muss übrigens nicht täglich geleert werden - das kannst Du nach belieben konfigurieren. ;)

unRAID ist auf jeden Fall eine saubere Lösung, die ich OMV heuzutage immer vorziehen würde.
 
EVO's sind drin... die Pro's sind ja jetzt nicht viel anders.

Jo, man kann natürlich den "Mover" frei konfigurieren... allerdings seh ich dann nicht viel Sinn drin, wenn man das Zeug ewig im Cache lässt... ausser man muss oft drauf zugreifen, dann natürlich schon.

Isses aber mal auf der Platter-HD, dann wird auch nur von dort gelesen und da diktiert dann natürlich die Lesegeschwindigkeit dieser Disk die Netzwerktransfergeschwindigkeit...

Bei mir z.b. ist bei knapp 220MB/s Schluss wenn von einer der Seagate Ironwolfs gelesen wird... wenn die Datei auf einer der WD Red's liegt dann is bei 140-150MB/s Sense... liegt die Datei auf dem Cachepool (2x250GB 850er) sausen knapp 500 MB/s drüber. Hat man eine NVME SSD als Cache dürften die 1GB wohl ausgereizt werden.

Und ja, ich würde Unraid auch jedem anderen System mittlerweile vorziehen... das Konzept ist genial, die Bedienung simple und die Stabilität und Zuverlässigkeit wirklich erste Sahne.
 
Zuletzt bearbeitet:
Also limitiert eine einzelne hdd? Dann bringt das ja nichts.

Schau Dir an, wie unRAID funktioniert...Single Parity, kein Striping. Jede Datei liegt also immer ganz auf einer Disk.
Wenn Du für den Cache SSDs nimmst, bekommst Du den Speed einer SSD, solange die Datei noch im Cache ist. Solange die Datei noch im Cache ist, hast Du keine Parity-Protection.
 
OK, das ist mir zu langsam. Dann lieber ein RAID in omv. Kann man in unraid auch ein RAID aufbauen?
 
Ich finde das mit dem Cache bei Unraid auch ziemlichen Schwachsinn. Wenn der nur als Schreibcache fungiert und Lesecache bis die Daten verschoben wurden dann macht das irgendwie wenig Sinn, außer man nimmt richtig große SSDs und lässt die Daten ein paar Tage drauf und verwendet sie oft.

Ansonsten lieber was mit ZFS oder per Raid Controller wie CacheCade2.0 wo dann doch etwas an Intelligenz vorhanden ist.

So mag Unraid ja gut sein, ich hab es bisher nie genutzt. Aber im Cache sehe ich keinen großen Sinn. Oder wie langsam schreibt Unraid denn die Daten direkt aufs Array? Sollte doch bei heutigen CPUs und Platten zumindest für 1Gig Netz kein Problem sein?
 
Ohne Cache ist die Übertragungsgeschwindigkeit wiegesagt von der Festplatte abhängig... Also wenn die Festplatte mit z.b. 100MB/s schreiben kann, dann wird das auch so übers Netzwerk gebracht.
Wer ständig große Datenmengen von seinem Server holen muss, für den ist Unraid wirklich nichts... wer den Server als Backup oder Mediaserver, wo Daten nur draufgeschaufelt und dann dort bleiben, verwenden will, für den ist Unraid schon eher interessant.
 
auch schreibend? Da wird doch Parität berechnet oder nicht? Bekommt das Unraid hin um 1G auszulasten?
 
auch schreibend? Da wird doch Parität berechnet oder nicht? Bekommt das Unraid hin um 1G auszulasten?

dafür wurde ja die Cache-Option erfunden, um das zu beschleunigen. Es gibt zwar eine Turbo Write Option, dafür wird aber gleichzeitig auf alle Platten geschrieben... Wie ich mein Backup draufgespielt hab die Tage, hab ich den Cache umgangen und direkt auf die Platten kopiert... lief mit ca. 60MB/s... dauerte halt dann 2 Tage und Nächte. Aber das macht man ja im Regelfall nur einmal.

Das ist aber eher das Optimum, die Dinger brechen auch ein je voller sie werden, also wenn Du nach innen gehst.

jo, das tun die WD aber genau so.
 
Zuletzt bearbeitet:
Das Cachedrive bei unRAID ist in u. a. dazu da, damit bei Schreibzugriffen nicht ständig alle Platten hochdrehen müssen. ;)
 
Ich bin jetzt nicht der Unraid Spezialist, daher bitte ich Ungenauigkeiten zu korrigieren.

Ich seh das so,
Unraid ist eine Homeserverlösung wenn es primär darum geht, beliebige Festplatten zu einem Pool zu kombinieren und Performance egal ist. Raid Redundanz wird "on Demand" erstellt, z.B. Nachts oder am Wochenende. Änderungen dazwischen oder Fehler beim erstmaligen Schreiben werden nicht erkannt. Die Schreib-Leseperformane entspricht einer Platte.

Es gibt Cache Devices z.B. mit SSD um damit eine bessere Performance beim Schreiben zu erhalten. Der Inhalt wird z.B. nachts auf den eigentlichen Pool verschoben.

Offene Fragen
- Cache Sicherheit bei Ausfall eines Cache Devices ??
- Schreib-Sicherheit beim Crash, egal ob mit oder ohne Cache ??
- keine Realtime Prüfsummern Verifizierung wie bei btrfs, ReFS oder ZFS
- Performance immer abhängig von der Platte mit der gerade gearbeitet wird.

Das ist ja der Unterschied zu Realtime Raid.
Da skaliert die sequentielle Performance mit der Anzahl der Datenplatten und die iops mit den Raids z.B. Raid-50/60/ZFS vdevs Bei 1G=max 120 MB/s und @home mag das egal sein, es gibt aber auch andere Anwendungen wo man mehr braucht, siehe meine Performancetest wo auch mal kurzzeitig > 2GByte/s Schreiben bei Oracle Solaris mit RAM Unterstützung gehen, http://napp-it.org/doc/downloads/optane_slog_pool_performane.pdf

Dazu gibt es Lösungen wie ZFS die gerade dafür sorgen dass ein Crash bei Schreiben nicht zu einem korrupten Dateisystem führt (wg CopyOnWrite oder dass Schreibvorgänge via Cache sicher sind, trotz mehreren GB RAM Schreibcache (sync write) oder dass Lesen so schnell wie RAM ist (freier RAM = Lesecache)
 
Von Handy möchte ich mir jetzt nicht nen Wolf schreiben. Etwas Erleuchtung sollte dir dieser Link bringen :

Network Attached Storage - Lime Technology

Über den richtigen Einsatz von unraid lässt sich sicherlich streiten, aber im Heimbereich macht es echt verdammt viel Spaß und es läuft sehr stabil. Bei mir übrigens mit btrfs. ;-)

Gesendet von meinem Redmi Note 3 mit Tapatalk
 
Ein großer Vorteil von Unraid ist halt auch, dass man unterschiedlich große Festplatten reinschieben kann wie man gerade lustig ist... man kann die Dateien von einer Platte zur anderen verschieben und dadurch ganz easy Festplatten wieder aus dem Array entfernen oder upgraden... man kann aber auch einfach die Platten tauschen wenn mal eine kaputt gegangen ist und die wird dann selbsttätig wieder integriert.
Der einzel-Spindown (für die die darauf wert legen) ist natürlich auch ein großer Vorteilsfaktor.

Cache kannst du einen Pool erstellen in Raid-Konfiguration... du hast also auch beim Cache Redundanz. Raid 0/1/5/10 kann man da einstellen. Ich hab zb. 2x250GB 850er im Raid 0 als Cache. Mir ist da die Redundanz nicht wirklich wichtig... weil mal ehrlich, wann fällt schon ne SSD, die nicht gerade 10 Jahre alt ist, aus?

Wiegesagt... als Backup und Mediaserver perfekt... wer ständig viele Daten auf den Server schaufelt und die dort einfach bunkert wird es lieben... wer immer mal wieder große Datenmengen vom Server runterziehen muss, für den ists wohl eher nichts.
 
Cache kannst du einen Pool erstellen in Raid-Konfiguration... du hast also auch beim Cache Redundanz. Raid 0/1/5/10 kann man da einstellen.
Ah...das ist neu, aber ich habe mit der V6 und BTRFS noch nix gemacht.....aber das geht nur beim Cache, verstehe ich Dich richtig? Raid 5 hätte ja Striping....

Edit: ...auf der von b0mba verlinkten Seite von Limetech steht aber:
The unRAID cache pool is created through a unique twist on traditional RAID 1.
...also nix Raid 0/1/5/10...oder hast Du einen Link mit mehr Infos?
 
Zuletzt bearbeitet:
Für normal ist nur Raid 1 drin ja... es wird aktuell an der nativen Implementierung gearbeitet, man kann das aber auch jetzt schon umstellen auf 0/5/10. -> Klick
 
Das Cachedrive bei unRAID ist in u. a. dazu da, damit bei Schreibzugriffen nicht ständig alle Platten hochdrehen müssen. ;)

richtig. beispiel sind docker container. die laufen erstmal auf den ssd. wenn ich dann z.b. über den plexserver was gucken will wird die hdd angeschubst, sonst bleibt nur die ssd an. einen "sinnvolleren" zweck hatte ich in meinem unraid auch net.

Zum Thema Vorteil: Ich find es gerade im Homelab bereich ganz nett, dass man nicht am arsch ist wenn der raidcontroller abraucht oder erst fummelig mit mdadm das raid rebuilded. das geht halt auf kosten der redundanz und die ist nicht synchron sondern nachgelagert. aber einen tod stirbt man halt, wenn man das so will.
 
Aber ob der SSD Cache den Aufpreis von 130 Dollar zu OMV mit snapraid und mergerfs rechtfertigt, weiss ich nicht.
 
Aber ob der SSD Cache den Aufpreis von 130 Dollar zu OMV mit snapraid und mergerfs rechtfertigt, weiss ich nicht.
Es ist nicht nur das Cachedrive. Auch das Pooling sagt mir z. B. sehr zu sowie natürlich noch einige andere Funktionen. Für mich hat übrigens auch die 59, - $ Dollar Lizenz gereicht und ich finde, dass die Software jeden einzelnen Dollar wert ist. Der Support ist btw auch sehr gut. ;-)



Gesendet von meinem Redmi Note 3 mit Tapatalk
 
Was ist denn am pooling anders als mit Snapraid+Mergerfs?

Meine Anzahl an Festplatten würde auf die 130$ Lizenz hinauslaufen
 
Was ist denn am pooling anders als mit Snapraid+Mergerfs?

Meine Anzahl an Festplatten würde auf die 130$ Lizenz hinauslaufen
z. B. das Zuordnen von Freigaben. Also welches Verzeichnis auf welche Platte usw. Geht bei Mergerfs auch, aber da ist man halt eingeschränkt. Ich habe ja OMV auch einige Jahre im Einsatz gehabt.

Gesendet von meinem Redmi Note 3 mit Tapatalk
 
sehe immernoch nicht, was die 130$ rechtfertigt. Die würde ich dann lieber in 4 2.5" 1TB HDDs investieren und btrfs aufbauen.
 
z. B. das Zuordnen von Freigaben. Also welches Verzeichnis auf welche Platte usw. Geht bei Mergerfs auch, aber da ist man halt eingeschränkt. Ich habe ja OMV auch einige Jahre im Einsatz gehabt.

Gesendet von meinem Redmi Note 3 mit Tapatalk

In wie weit eingeschränkt?
Ich kann alles freigeben was ich möchte, ob es eine Platte im Verbund ist, oder ein Verzeichniss. Eine einschränkung sehe ich jetzt nicht.
 
er meint wahrscheinlich, dass man bestimmte Verzeichnisse auf eine bestimmte Platte im Pool legen kann.
 
Ganz ehrlich.... Ich möchte hier niemandem bekehren. Ich kann nur sagen, dass ich vor unraid lange OMV und Rockstor bei mir im Einsatz hatte. Am besten macht ihr euch selbst mal ein Bild, falls es euch interessieren sollte. ;-)

Gesendet von meinem Redmi Note 3 mit Tapatalk
 
sehe immernoch nicht, was die 130$ rechtfertigt.

dann gehörst du zur falschen Zielgruppe... und das macht ja auch gar nichts...

Ich persönlich finde den Preis gerechtfertigt und war gerne bereit ihn nach schon 10 Tagen testen zu begleichen weil das System für mich individuell perfekt ist.
Mir kommts nur auf Geschwindigkeit beim draufkopieren an, die habe ich durch den R0-Cache... die Dateien bleiben bei mir auf dem Server, insofern ist mir die Lesegeschwindigkeit relativ egal... durch die Ironwolfs ist die aber trotzdem noch sehr ordentlich, mal davon abgesehen.
Ich habe eine einzigartige Ausfallsicherheit, die sowohl durch ein bis 2 redundante Drives gegeben ist und zusätzlich noch die "Sicherheit", dass ich lesbare Daten (keine Fragmente wie im Raid) auf jeder einzelnen Platte habe... ich kann also das Array ändern wie ich gerade lustig bin und das gefällt mir. Und sollte mal der unwahrscheinliche Fall eintreten und eine Paritätswiederherstellung scheitern wenn ne Platte ausfällt, sind wenigstens nur die Daten dieser einen Platte futsch und nicht, wie bei Raid, alles.
Die Einzelspindownoption kommt mir als Plex-User auch sehr gelegen und war auch ein großer Faktor in meiner Entscheidung für Unraid...
Es läuft alles buttersmooth und problemlos, der Support ist erste Sahne (man sollte halt der englischen Sprache mächtig sein) und es wird so ziemlich alles unterstützt... sogar die billigen Asus 10Gbit Karten kann man da ohne Probleme reinstecken z.b.
VM ist auch noch so eine Sache, die einfach funktioniert und das absolut spitze... nativ Geräte durchschleifen auf einzelne VM's usw... das ist genial.

Man muss die Features, die sonst niemand bietet, eben schätzen... und tut man das, ist es einem auch den kleinen Obolus wert.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh