Server/RAID Problem

Danke für die Antwort.
Ich werde LACP verwenden, da ein Smart Switch und Port Teaming zum Einsatz kommt.

Raid 0 mit Backups erscheint mir wirklich als einzige Lösung.
Ich brauche ein Array das mind. 6Gig für meine Daten hat.
Bei 3x3TB Platten kommt sonst nur Raid 5 in Frage und ich möchte für so einen kleinen Verbund nicht extra nen teuere HW Controller kaufen um anständige Schreibwerte zu kriegen.
Da mach ich lieber ein Raid 0 mit 2 der 3 Platten und verwende die letzte + ein paar alte für backups vom array.

In Bezug auf den Schalter muss ich nochmal betonen, dass ich diese Funktion nicht konstant wahrnehmen möchte, daher würde ich jetzt nicht immer hoch und runterfahren und der PC wäre vermutlich sowieso aus wenn der SATA Switch umgelegt wird.

Mit nachträglich einschalten meine ich aber nicht, dass das Raid bzw. die Platten im laufen Zustand des PCs angemacht werden, sondern dass nur der Schalter umgelegt wird während das System aus ist, damit die Platten beim nächsten Start Saft haben und das array normal beim Boot initialisiert wird.

Das einzige was ich jetzt noch wissen möchte, ist welcher dieser Switches es mir erlaubt den Schalter, im heruntergefahrenen Zustand des PCs, auf an zu stellen, sodass die Platten dann beim Start des PCs Saft kriegen.
Danach werden sie ja mit dem PC wieder heruntergefaheen .
Sata Power Switch bei idealo.de
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kauf Dir ein Tablet fürs Browsen und schalte die Kiste dann ein, wenn Du Sie brauchst. Alles andere ist Aufwand:Zeit unsinnig. An anderer Stelle stand es ja schon: Wenig durchdacht

Das beginnt beim Quatsch mit einem R0 über 9 Terabyte (!), über das Teaming mit 4 Netzwerkkarten (LAG / LACP sorgt vorrangig für Erhöhung der Ausfallsicherheit, da gilt eben nicht automatisch "oh vier mal ein Link = vier mal die Geschwindigkeit" und endet in diesem "Umschalter" - Dass Du dafür zwei Betriebssysteme brauchen wirst bzw. eine Dual-Boot, weil die Installation das Array erwarten könnte, sehe ich genauso wenig betrachtet, wie der Umstand das eine HDD beim Anfahren den stärksten mechanischen Belastungen ausgesetzt ist (abgesehen vom dagegen rempeln).

Ich kürz mal ab:
- Tablet fürs Browsen (damit die gute "primäre Maschine" geschont bleibt) :eek:
- Externe Gehäuse für deine Festplatten (kann ja auch ein Träger für z.B. 4 Platten sein) - da kannst Du Dank eSATA/USB 3 im laufenden Betrieb das Array dazuschalten und abschalten wenn nicht gebraucht.
- Windows Bibliotheken oder sowas wie Storage Pools

:hmm: Nur weil es technisch geht, muss es nicht zwingend sinnvoll sein.
 
Zuletzt bearbeitet:
Das beginnt beim Quatsch mit einem R0 über 9 Terabyte (!), über das Teaming mit 4 Netzwerkkarten (LAG / LACP sorgt vorrangig für Erhöhung der Ausfallsicherheit,
über das Teaming mit 4 Netzwerkkarten (LAG / LACP sorgt vorrangig für Erhöhung der Ausfallsicherheit, da gilt eben nicht "oh vier mal ein Link = vier mal die Geschwindigkeit" und endet in diesem "Umschalter" - - /
Du hast offensichtlich nicht gelesen bevor geposted wurde.

Wo war denn von 4 Netzwerkkarten die Rede?
Abgesehen davon, dass das nicht notwendig wäre, zeigt es dass du das Konzept von Teaming mit Switch und LACP nicht verstanden hast, jedoch trotzdem die Frechheit besitzt hier ohne vorher zu lesen herumzuposaunen.
Auch das 4 Lanes zu je 1Gbit zur Verfügung stehen werden habe ich erwähnt, jedoch auch hier hast du weder gelesen noch nachgedacht, bevor geposted wurde.

Beim RAID hast du ebenfalls nicht aufgefasst..
Ich habe bereits mehrmals erwähnt, dass ich 2x3TB in RAID 0 schalten und die dritte Platte mit einigen älteren als Backup verwenden will.
RAID 0 ist eine gute Alternative um Speed und Kapazität wahrzunehmen, solange Backups vorhanden sind.
Beides wird bei diesem Netzwerk benötigt.

Mir gehen diese Leute gehörig auf die Nerven die aus Prinzip bestimmte Setups ablehnen, weil sie selbst sich darunter nichts vorstellen können.

Wenn man dann noch klugscheißt ohne den Thread überhaupt gelesen oder Ahnung zu haben, wirds eng.

Mit 20 Posts möchte man vl sein Verhalten überdenken, um zukünftig ein produktives Forummitglied zu werden.
 
Zuletzt bearbeitet:
Haarspalterei - ob Du nun eine Karte mit 1x4 oder vier mit 1x1 nutzt hat in Bezug auf das Ansinnen bei zwei spindelnden Platten (im letzten Posting von Dir erwähnst du erstmalig dass Du eventuell auf 2x3 setzt) keine Auswirkungen. Ich habe auch zur Kenntnis genommen dass Du vier Abnehmer für deine Ports hast, also eventuell die aggregierte Geschwindigkeit von 480MB/s erreichen könntest.

Aber allein aus der Betrachtung, was - wenn Du ein Backup zurückspielen musst - halte ich ein R0 für Quatsch. Erst Recht bei der Größe des Array.

Im Übrigen: Bau Dir dein Setup wie Du willst, aber akzeptiere, dass einige (ich bin ja offensichtlich nicht der Einzige, der hier mit Spitzen schießt) keinen Sinn darin sehen.

Vielleicht erklärst Du uns warum Du konkret so aufsetzen willst und nicht z.B. mit noch einer Platte als R10. Ob für dich ein über dein Linux virtualisiertes Storage (wie FreeNAS, OMV, Xpenology) ein gangbarer Weg wäre. Wie kritisch das Erreichen des aggregierten Peaks von 480MB/s ist. Wieso es notwendig ist, dass die Platten intern verbaut werden und nicht extern in einem Chassis stecken können usw. usw...

Aus dem, was ich rauslese, wäre ein Drobo vielleicht eine Überlegung. Oder mehr Köpfe (also mehr Platten).

Ansonsten denke ich dass dieser Umschalter http://www.caseking.de/shop/catalog...tch-silver::14620.html?campaign=psm/idealo-de genau das kann, was Du forderst - im ausgeschalteten Zustand einzelne Platten selektiv an-/ausschalten.
 
Zuletzt bearbeitet:
2x3TB im Raid 0 und 1x3TB (+ Kleinkrams) da kann man doch sofort schon Raid 5 nehmen und hat nicht die Arbeit mit den händischen Backups. Wenn dir das ganze dann um die Ohren fliegt, dann ist das letzte händische Backup auch mal wieder lange her -> naja. Mach da nen Raid 5/6 (die Software-Raids gehen auch gut) oder die neuen Windows Storage-Pools oder ZFS oder oder oder.

Dann scheint es so als würdest du gerne auf den Speicher schnell von deinem Hauptrechner aus zugreifen wollen (oder weshalb das Link-Aggregation?). Mach dir da mal lieber Gedanken über eigentlichen den Zugriff auf die Daten vom Netzwerk aus, hier kommst du mit der einfachen Netzwerkfreigabe (Samba) leider nicht weit, außer beim sequentiellen Zugriff. Wenn da mal ein paar kleine Dateien kommen kopiert man auch mit 4Gbit nur im einstelligen MB Bereich. Abhilfe schaffen da zwar Protokolle wie ISCSI, aber dabei kann leider nur ein Client zugreifen (und wohl vllt SMB3??). Schneller als eine USB3.0-Lösung wird ganze zur Zeit nicht werden.
 
.

Aber allein aus der Betrachtung, was - wenn Du ein Backup zurückspielen musst - halte ich ein R0 für Quatsch. Erst Recht bei der Größe des Array.
Ich habe kein Problem mit Kritik, jedoch erwarte ich mir, dass man sich zumindest die Zeit nimmt ordentlich zu lesen, was du anscheinend immer noch nicht getan hast.

Für den Fall dass das Array ausfällt ist das Backup da.
Aber hier jetzt Wahrscheinlichkeiten abzuwägen macht wenig Sinn, da es sich hier nicht um einen Business Server sondern einen MediaPC handelt.
Sonst wäre nach deiner Logik jedes RAID Unsinn, für den Fall dass genau die richtige Anzahl an Platten stirbt damit alles weg ist.

.Vielleicht erklärst Du uns warum Du konkret so aufsetzen willst und nicht z.B. mit noch einer Platte als R10.
Mit 3x3TB gibt es keine bessere Lösung in dieser Lage.
Ich brauche Geschwindigkeit und mind. 6TB.

RAID 5 benötigt einen überteuerten HW Controller, der sich für das Mini Setup nicht lohnt und selbst dann eher mäßige Schreibwerte liefern würde.

RAID 10 ist Unsinn da ich nicht noch ne Platte kaufe um 2 Mirrors zu haben, bzw. die Kapazität von 2 Platten zu verlieren, deren Inhalt sowieso schon als backup existieren würde.

RAID 0 + Backups ist die einzige Lösung und bringt gleichzeitig als einzige Alternative den erhöten Speed.

Ich bemerke schon dass du einer der Leute bist die im Laufe der Zeit einfach gewisse Ansichten angenommen haben und diese aus Prinzip vertreten bzw, völlig unbegründet alles was davon abweicht, ablehnen.

RAID 0 kann in manchen Fällen hilfreich sein, auch wenn dir das nicht gefällt..
 
Na klar ist ein R0 manchmal sinnvoll, aber ich fürchte mit nur zwei dieser Desktop Platten erreichst Du definitiv keine Auslastung aller vier Ports.

Ich kann Dir zum Thema Speed nur sagen - es geht nichts über Köpfe, außer mehr Köpfe. Wie in der Signatur ersichtlich habe ich ein R6 aus 8 Platten - da kratze ich an 700MB/s lesend - theoretisch. Praktisch tropfen die Daten trotzdem übers Netzwerk - zumindest dann, wenn ich Fotos auf das Array schiebe oder davon runterkopiere. Entscheidend neben der Anbindung ist also auch die Art der Daten. Das habe ich in meinem ersten Beitrag zwar nicht direkt herausgearbeitet, aber schon gemeint das mehr Ports nicht automatisch mehr Speed bedeuten.

R10 bedeutet bei Lesezugriffen aber auch vier Köpfe.

Und ja, in Zeiten von 6TB Platten und RPO / RTO von annähernd einem Tag (auf die einzelne HDD betrachtet) bin ich kein Fan vom R0. In der Zeit wo Du da was zurücksicherst kann Dir das Array direkt wieder um die Ohren fliegen. Das mag engstirnig sein - aber nicht viel mehr als ein R10 auch nicht als mögliche Option zu verstehen.
 
2x3TB im Raid 0 und 1x3TB (+ Kleinkrams) da kann man doch sofort schon Raid 5 nehmen und hat nicht die Arbeit mit den händischen Backups. Wenn dir das ganze dann um die Ohren fliegt, dann ist das letzte händische Backup auch mal wieder lange her -> naja. Mach da nen Raid 5/6 (die Software-Raids gehen auch gut) oder die neuen Windows Storage-Pools oder ZFS oder oder oder.

Dann scheint es so als würdest du gerne auf den Speicher schnell von deinem Hauptrechner aus zugreifen wollen (oder weshalb das Link-Aggregation?). Mach dir da mal lieber Gedanken über eigentlichen den Zugriff auf die Daten vom Netzwerk aus, hier kommst du mit der einfachen Netzwerkfreigabe (Samba) leider nicht weit, außer beim sequentiellen Zugriff. Wenn da mal ein paar kleine Dateien kommen kopiert man auch mit 4Gbit nur im einstelligen MB Bereich. Abhilfe schaffen da zwar Protokolle wie ISCSI, aber dabei kann leider nur ein Client zugreifen (und wohl vllt SMB3??). Schneller als eine USB3.0-Lösung wird ganze zur Zeit nicht werden.

RAID 5 mit 4 Platten und nem guten HWC wäre mir am liebsten gewesen, nur habe ich momentan einfach nicht das Geld dafür.
Ich werde LACP verwenden bzw. JFS als Filesystem.
OS wird Xubuntu und Slax.
Zum Teaming hast du Recht, ich möchte gerne die Möglichkeit haben, direkt mit 1Gbit auf die Daten des Arrays zugreifen zu können.
Wobei das allein auch mit Shared Folder funzen würde und kein spez. Server OS benötigen.

Da ich mit zwei bzw. drei Platten in RAID 0 den 4Gbit\s Overhead womöglich nicht schaffe, werde ich drei schalten und mich mit dem Ergebnis vorerst zufrieden geben müssen.
Backups landen dann auf meinen externen Platten.
 
Zuletzt bearbeitet:
LACP bedeutet nur, dass du die Netzwerkverbinungen bündelst -> soweit so klar.
Aber wie wirst du von deinem Rechner aus, auf die Daten zugreifen, die ja auf dem anderen Rechner liegen?
 
Als Protokoll vermutlich ISCSI.
Aber da vorerst nur Files ab 10GB drauf sein werden vl auch NFS bzw. CIFS.
 
Also sicherst Du von deinem Client PC die Daten, die im iSCSI Volume liegen? Oder fährst Du das Target herunter um ein Backup zu machen? Dito bei NFS. CIFS würde ich streichen.
 
Ersteres hatte ich mir ursprünglich vorgestellt, wobei ich gerade beim Lesen bin ob NFS nicht doch performanter für die großen packages wäre.

Generell wird empfohlen in solchen Szenarien eher NFS zu wählen.

Aber wir driften vom Thema ab.

Ich brauch mehr Infos zu diesen Switches und ob die nun unterbrechen können.
 
Siehe Link auf den Lian-Li BZ-H06A.

Der Orico Umschalter macht ja dasselbe. Der müsste auch gehen.
 
Zuletzt bearbeitet:
Mit der von mir oben erwähnten backplane funktioniert es so, wie du es dir vorstellst.

Gesendet von meinem OnePlus One
 
Hab gerade gesehen dass der Lian Li das kann.
Ich werde den von Lian Li nehmen, da bei dem Oricon einige Kunden meinten das Ding sei in Flammen aufgegangen.

Hab mich jetzt auch für den Rest entschieden.
NFS als Protokoll und 3x 3TB RAID 0.
Ich hoffe, dass sich damit die 480 MB\s ausgehen.
Denke aber prinzipiell schon, nach Begutachtung verschiedener RAID 0 Reviews der Barracudas.

Zusätzlich mach ich noch ein JBOD aus paar verschieden großen alten Platten, weil noch Platz ist:)

Wenn ich dann letztendlich den richtigen Server baue, muss sowieso ein HW her, da kommt dann auch RAID 5.

Ich möchte mich bei allen bedanken die beigetragen haben.
 
Noch eine kurze Frage.
Könnte ich eine SSD zum cachen des Mobo RAID0 Arrays verwenden, oder ist dieses feature HW Controllern vorbehalten?

Ich kann mich wage an ein Intel Board Feature erinnern, dass sowas erlaubte.
Ich glaube das hieß Intel Smart Response und war auf Z68 erhältlich.
 
Ich hatte nicht alles durchgelesen und will dir auch garnicht sagen was sinnvoll ist. Ich hatte nur in einem deiner post gelesen dass es dir darum ginge "Festplatten zu schonen". Mein Lieber, sowas gibts eigentlich garnicht. Eigentlich ist es kompletter Bullshit. Die einzigen beiden Moeglichkeiten sowas zu tun, waere die Platten nicht anzuschalten oder sie nicht abzuschalten. Das ganze Stromspargemurkse und irgendwas manuell abschalten fuehrt nur zu einer geringeren Lebensdauer und ist im Prinzip nur Hobby fuer den Consumer weil er denkt dadurch irgendwas zu bewirken. So, jetzt weitermachen.
 
ich verstehe immer noch nicht warum man so viel performance braucht wenn das ding nur einmal in der woche für "filmabend mit der family" eingeschaltet wird :fresse: Spar Dir doch einfach die Zeit und die Mühe und die Kohle und hol dir gleich nen richtigen server als spielwiese...
 
Eines ist hier noch gar nicht wirklich zur Sprache gekommen,
was macht denn der Raidcontroller, wenn er beim Hochfahren sein Raid nicht findet (weil die Platten ja abgeschaltet sind)

Für die richtige Antwort gibt es 100 Gummipunkte!

Kleiner Tip, du kannst auswählen, ob du den Rechner sofort mit eingeschalteten Platten neu startest, oder ob du die Raid-Configuration verwerfen möchtest.
Bei zweitem Weg kannst du, wenn du einen ordentlichen Raidcontroller verwendest, beim nächsten Boot das Raid wieder importieren, das wird eher nix mit den Fake-Raid- / On-Board-Controllern - zumindest müsste das im vorwege getestet werden!

ABER:
da du eh auf Linux gehts, warum dann nicht ZoL (ZFS on Linux) mit einem Stripe hast du dann genau deine Raid0 Funktionalität.
der Vorteil wäre, daß du den ZFS Pool exportieren kannst (damit also die Konfiguration sichern) und bei Bedarf wieder importieren kannst.
Das ganze wäre keinen Deut langsamer als ein Raid0 am Fake Raid und nach meiner Einschätzung der einzig gangbare Weg, wobei ich mich mit dem LVM von Linux nicht auskenne. Ich könnte mir vorstellen, daß es da auch eine Möglichkeit gibt.
 
Zuletzt bearbeitet:
@dekahedron: Das ist falsch. Festplatten verschleißen sowohl beim Anfahren, als auch beim Betrieb. Wenn man sie nicht alle 5 Minuten aus- und wieder einschaltet, wird die Lebensdauer verlängert, wenn die Festplatte nicht läuft.

Das Gelabe von "Fake-RAID" ist mittlerweile echt nervig. Letztlich handelt es sich um ein Software-RAID über den Treiber. Wenn man das passende OS nutzt, klappt es auch ganz gut.

Ich würdr aber mal testen, ob RAID0 wirklich Vorteile bringt. Wenn es wirklich viele gleichzitige Zugriffe gibt, kann ich mir vorstellen, dass die Zugriffszeiten der Festplatten zum Problem werden.

Wenn das der Fall ist, wäre es sinnvoller, die Daten intelligent auf die Lafwerke anhand der Interessen der Clients zu verteilen.

Gesendet von meinem OnePlus One
 
Zuletzt bearbeitet:
Eines ist hier noch gar nicht wirklich zur Sprache gekommen,
was macht denn der Raidcontroller, wenn er beim Hochfahren sein Raid nicht findet (weil die Platten ja abgeschaltet sind)

Für die richtige Antwort gibt es 100 Gummipunkte!

Kleiner Tip, du kannst auswählen, ob du den Rechner sofort mit eingeschalteten Platten neu startest, oder ob du die Raid-Configuration verwerfen möchtest.
Bei zweitem Weg kannst du, wenn du einen ordentlichen Raidcontroller verwendest, beim nächsten Boot das Raid wieder importieren, das wird eher nix mit den Fake-Raid- / On-Board-Controllern - zumindest müsste das im vorwege getestet werden!

ABER:
da du eh auf Linux gehts, warum dann nicht ZoL (ZFS on Linux) mit einem Stripe hast du dann genau deine Raid0 Funktionalität.
der Vorteil wäre, daß du den ZFS Pool exportieren kannst (damit also die Konfiguration sichern) und bei Bedarf wieder importieren kannst.
Das ganze wäre keinen Deut langsamer als ein Raid0 am Fake Raid und nach meiner Einschätzung der einzig gangbare Weg, wobei ich mich mit dem LVM von Linux nicht auskenne. Ich könnte mir vorstellen, daß es da auch eine Möglichkeit gibt.
Die "ZFS on Linux" Variante hatte ich in Betracht gezogen.
Jedoch siehts mir da mit der Stabilität noch etwas holprig aus. Die letzte runtime scheint in Ordnung, aber ich habe das RAID 0 nun bereits erstellt und verwende ext4 als Filesystem.

Zum Test habe ich im heruntergefahrenen Zustand alle drei SATA Power Stecker gelöst und gebootet.

Der OnBoard Raid Controller geht davon aus, dass das Array in suspend liegt, spuckt failed to initialize aus.
BIOS zeigt suspend an.

Wenn auch die SATA Daten Kabel getrennt werden, gibt er garkeine Meldung aus, wobei im BIOS das RAID einfach als uninitialized aufscheint.

Nach wiederholtem Boot mit Strom und Datenkabel wird das Array ohne Probleme initialisiert und funktioniert.

Es soll mit neueren BIOS Versionen eine Option geben die es erlaubt die Initialisierung auf delay/skip zu stellen, was natürlich enorm hilfreich wäre, da der Controller dann gar nicht danach sucht

Ich hatte nicht alles durchgelesen und will dir auch garnicht sagen was sinnvoll ist. Ich hatte nur in einem deiner post gelesen dass es dir darum ginge "Festplatten zu schonen". Mein Lieber, sowas gibts eigentlich garnicht. Eigentlich ist es kompletter Bullshit. Die einzigen beiden Moeglichkeiten sowas zu tun, waere die Platten nicht anzuschalten oder sie nicht abzuschalten. Das ganze Stromspargemurkse und irgendwas manuell abschalten fuehrt nur zu einer geringeren Lebensdauer und ist im Prinzip nur Hobby fuer den Consumer weil er denkt dadurch irgendwas zu bewirken. So, jetzt weitermachen.
Stromsparung steht nicht zur Debatte und wurde von mir nirgends erwähnt.
In deiner Annahme, dass die Lebensdauer von Platten durch das Abschalten nicht verlängert wird, liegst du falsch.
Es sind bewegliche Teile die dem Verschleiß zum Opfer fallen.
Natürlich muss man dabei die Intervalle des Abschaltens betrachten, aber über bestimmte Zeiträume macht es sehrwohl Sinn.

Besonders in meiner Lage, wo die HDDs keine Spindown Funktion besitzen und somit konstant mit 7200RPM laufen würden

@Gröbi: Der Filmabend bezieht sich auf Streamen. Es gibt aber trotzdem mehrere Geräte die auch auf das Array zugreifen können müssen, wobei dann die Geschw. von 4Gbit/s LACP ins Spiel kommt und wichtig ist.

Ich erreiche die 480MB/s mit dem Array und sollte so 4x 1Gbit/s Lanes bereitstellen bzw. ausschöpfen können.
 
Zuletzt bearbeitet:
ZFS hatte ich ja auch schon angesprochen, ist in meinen Augen immernoch die beste Lösung für deine Vorstellungen.
Ein frisch initialisiertes Array flott sequentiell relativ schnell zu beschrieben ist eine sache. Lass das mal ein bisschen altern, fragmentieren und voll werden.
Ich kann mich noch an ein hardware raid mit 14 HDs oder so erinnern. Das wurde beworben mit bis zu 600MB/s nachdem das ein paar Jahre im Einsatz war und unter XFS mehrmals mit ein paar millionen files gefüllt wurde war ich beim kopieren froh über zweistelligen Durchsatz.
Bin wirklich froh das es da Software Ansätze wie ZFS oder andere Object Based Storage Lösungen gibt.
Habe hier 2 ZFS Filer im Einsatz einmal mit nur 8 1TB Platten im RAID10 und 128GB RAM für verteilte Zugriffe mit failover 1GBit Uplink.
Und einen mit 24x2TB in 2 RAID Z2 Gruppen mit 256GB RAM 10GBit Uplink für überwiegend sequentielle ablage von Daten aus einem performateren Filesystem.
Beide leisten für ihren Einsatzzweck wirklich gute Dienste. Das hätte man mit keinem reinen Hardwareraid in dem Preisrahmen so hinbekommen. Das caching hilft je nach Zugriffsmuster wirklich sehr sehr gut.
Gibt hier im Forum glaube ich auch genug Leute die ZFS mit spindown der HDs betreiben.
 
Ich kenn mich mit ZFS zwar ungefähr aus, will mich aber noch besser einlesen um wirklich Ahnung davon zu haben.
Über enorme Fragmentierung würde ich mir mit ext4 keine großen Sorgen machen. Ist ja nicht NTFS:)
Das Problem mit ext4 und ext3 ist viel mehr die 5% reserved area. Bei 9TB geht da viel verloren.

Man kann sie zwar auf 0% mit dem tune2fs command setzen, jedoch hatte das bei mir zur Folge, dass die Zugriffe für diesen Bereich anscheinend nicht mehr permitted waren.

Er hat im RAID einfach ein separates Volumen aus den 5% gemacht, welches sich nicht erweitern lässt.

Bin deswegen grad im Ubuntu Forum am gucken.
Xubuntu ist halt extrem barebone.

Was wären denn die Unterschiede zu JFS?
Versuche übrigens herauszufinden ob ich das Array via SRT mit der SSD cachen kann. Gibts das Feature noch auf Z87?

Edit: Also mit diesen Commands könnte man das ZFS RAID erstellen.http://m.youtube.com/results?q=zfs raid 0&sm=3
 
Zuletzt bearbeitet:
Mal ganz grob gesagt realisiert ZFS alles was dein RAID controller macht in Software. ZFS kennt mehrere Caching Stufen. Man kann RAM, oder flotte Datenträger wie SSDs einhängen um die performance zu optimieren.
Dazu kommen features wie live compression oder dedup. (dedup kostet performance).
Das nette am caching ist das der Platten Pool ein bisschen vor random I/O geschont wird.
Dazu kann ZFS die Datenintegrität über checksummen prüfen. Checkt bei bedarf die Platten auf auffällige SMART werte usw.
Du kannst auch Platten die zu langsam antworten automatisch aus deinem Verbund schmeissen lassen. Und du kannst das alles auch ausschalten.
Es ist halt wirklich flexibel. Ist dein Volume zu klein stöpsel ne Platte dazu oder vergrößer das Quota des volumes. Alles schön ohne ein Raid neu initialisieren zu müssen. Passt dir dein Raidlevel nicht, stöpsel Platten dazu mach nen Mirror davon. Alles im Betrieb ohen Datenverlust.
Brauchst du dein Volume nicht fahr es halt runter. Du kannst wenn du lust hast deine Platten in 3 USB3.0 Gehäuse packen und bei bedarf einfach aus/einschalten oder zum nächsten Rechner mitnehmen und da mounten.

Schau dir mal ein paar der videos an. Oder besser lies ein bisschen was zu ZFS. Es gibt wiklich extrem viele gute infos von Leuten die genug experimentiert haben. Und gerade die mit den wertvollen Infos nehmen sich oft nicht die Zeit für ein youtube video.

JFS ist doch einfach nur ein journaling filesytem wie ext oder?
ZFS dagegen ist die Eierlegendewollmilchsau für Storage. Du kannst dir aus allem Raid pools zusammenbasteln von klein bis extrem groß. Du kannst features nutzen oder es bleiben lassen. Kompression dedup verschlüsselung alles machbar. Es ist halt Software. Es braucht ein bisschen hardware um zu laufen. Aber dafür bist du nicht an irgendwelche Raid controller gebunden.
Hier im Forum gibt es auch einen guten ZFS thread. Wenns was für dich ist informier dich einfach.

Mit dem was du da gebastelt hast macht das auf mich den Eindruck als wärst du experimentierfreudig. Das kannst du mit ZFS auch sein.
 
Verdammt du hast mich überzeugt!:)
Im Verkauf tätig?
Mich würde das cachen mit RAM interessieren.
Besonders da der Media PC unnötigerweise 16GB 2400er hat und ws nur 3-4 braucht.
Funktioniert das über ne RAM Disk, welche als Cache Volumen eingesetzt wird oder direkt? (Direkt wär besser da RAM Disk auch auf Windoof)
Auch SSD caching wäre aber interessant.

Ich habe oft gelesen, das ZFS eher bei RAID 5 & 6 Sinn macht um teurere HWCs zu vermeiden, jedoch bei RAID 0 verglichen mit einem Controller, sei es auch ein Onboard bzw. FakeController, etwas niedrigere Geschw. bringen könnte.

Falls das Teil mal ein Server wird, würde ich auch gerne verschlüsseln, also müsste ich mich mal über Truecrypt Komp. erkundigen.

Ich werde mich mal richtig in die Materie einlesen und dann hier nochmal bei dir melden.

Danke schon mal für die Tipps.
 
Zuletzt bearbeitet:
Nein kein Verkäufer, sowas nehme ich als Beleidigung auf ;-)
Bin als sysadminunter tätig, unter anderem auch für einen HPC Cluster. Storage ist eben oft ein bisschen kritisch was performance angeht. Irgendwann muss man sich ein bisschen damit beschäftigen.
Ich habe einige Erfahrungen auch nicht so schöne Erfahrungen gemacht. ZFS begeistert mich von den Ansätzen her. Die implementierung gerade unter Linux lässt manchmal noch ein bisschen zu wünschen übrig. Sollte aber mittlerweile auch besser sein als vor Jahren.
Ich hatte zu Beginn auch reine Hardware RAIDs als Storage hier. Mittlerweile gibts die nur noch als Mirror in Kisten die verfügbar bleiben sollten oder mal kleine 5er oder 6er Raids ind ESXi Servern als lokalen Datastore.
Die Performance überzeugt zu Beginn noch gerade weil man halt erstmal nur sequentiellen Zugriff testet und bricht dann sobald mal Zugriffe von 30+ Clients hat deutlich ein. Nach ner weile Betrieb mit vollschreiben und wieder löschen geht die Performance dann manchmal volkommen den Bach runter.
Beim ersten Problem nach 2 Jahren Betrieb wendest du dich an den Support der dich bittet erstmal die firmware des Controllers zu aktualisieren. Da du ja den von vor 2 Jahren aktuellen Stand (und damals zertifizierten) verwendest. Darauf lässt du dich nicht viel öfter als genau einmal ein wenn du weisst das gerade 50-100 Leute nicht ungebremst arbeiten können.
Jetzt habe ich die 2 ZFS kisten. Eine Netapp und ein paralleles filesystem für den Cluster im Einsatz. Bisher bin ich damit deutlich zufriedener. Wobei es nach wie vor kein Problem ist so ein Storage mit schlechter software die überflüssigen I/O produziert bis an den Anschlag auszulasten.

Was du das mit dem RAID0 vorhast, da kann ich nichts zu sagen ich halte das wie die andern auch für spielerei.
Ich kann dir auch nicht sagen wie die sequentielle performance mit ZFS aussehen wird. Es ist halt Software mit ein bisschen overhead.
Aber du kannst eine Menge lernen wenn du damit rumspielst. Und du kannst evtl. ohne Kopieraktionen deine RAID Konfiguration so ändern das was sinvolles dabei rauskommt ;-)
Der RAM wird per defautl als read-cache benutzt. Du kannst natürlich auch den nicht empfohlenen Weg gehen und den auch als schreibcache verwenden. Was dann zu Datenverlust führt wenn die Kiste abstürzt oder mal der Strom weg ist. Die menge des speichers die für das caching genutzt wird lässt sich festlegen.
 
In deiner Annahme, dass die Lebensdauer von Platten durch das Abschalten nicht verlängert wird, liegst du falsch.
Es sind bewegliche Teile die dem Verschleiß zum Opfer fallen.
Natürlich muss man dabei die Intervalle des Abschaltens betrachten, aber über bestimmte Zeiträume macht es sehrwohl Sinn.

Besonders in meiner Lage, wo die HDDs keine Spindown Funktion besitzen und somit konstant mit 7200RPM laufen würden

Seh ich nicht unbedingt so. Es stimmt natuerlich dass Festplatten mechanisch sind und dadurch einem Verschleiss unterliegen. Aber es kann auch sein dass sie in einem optimalen Betrieb optimal lange halten. Da Festplatten fluessig gelagert sind, kann sich der optimale Druck/Fliehkraft oder was immer dann aufbauen, wenn sie im Betrieb sind und nur dann. Bei einer geringeren Drehzahl entsteht diese "ïdeal-geringe" Reibung moeglicherweise nicht und das fluessige Polster im Lager ist geringer. Die Stories ueber langhaltende Platten seh ich regelmaessig im Serverbereich wo die fast konstant durchlaufen. Ich selber habe welche in einem raid seit etwa 4-5 Jahren in Betrieb mit vllt 50 An-Aus-Zyklen. Es sind welche mit 7200U/min. Ich warte nur darauf, dass eine mal die Graetsche macht, damit ich weiss, ok jetzt ist Zeit die Platten zu ersetzen. Aber die sterben nicht. Daher meine Empfehlung. Lass' Festplatten das machen was sie am besten koennen: Laufen lassen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh