Stromsparender Fileserver

Ebenso hab nur ich Schreibzugriff auf das Array, was das Risiko eines versehentlichen Löschens minimiert.

Wobei das sogar über die Snapshot-Funktion von ZFS abgefangen werden könnte. ;)

Grundsätzlich kann man aber nicht vorsichtig genug sein. Bisher habe ich meine Backups immer auf DVD-RAM gemacht. Da das allerdings auf Grund der steigenden Datenmengen immer aufwendiger wurde und ich es dadurch immer mehr hab schleifen lassen, kommt jetzt erstmal der Fileserver mit RAID-Z ins Haus. Wie ich Backups von dem mache muss ich mir aber auch erstmal überlegen. Am liebsten wäre mir was automatisches, wo man zB jede Nacht eine DVD-RAM rein legt und die Sicherung gestartet wird. Das Problem ist allerdings, dass man damit für eine Vollsicherung von 2 TB ca. 465 Tage brauchen würde. Also nicht wirklich praktikabel - zumindest nicht für mich auf lange Sicht gesehen.

Was gibt es noch? LTO hatte ich schon mal genannt, ist aber eindeutig zu teuer (> 1000 € alleine für das Laufwerk). Blu-Ray ist aktuell auch noch relativ teuer und mit aktuell max. 50 GB/Disk auch nicht die optimalste Lösung. Und wird Blu-Ray überhaupt von OpenSolaris unterstützt? Bleibt noch eine externe Festplatte, was ich aktuell als am sinnvollsten ansehe. Oder hat noch jemand andere Ideen?

edit:
Und passend dazu die heutige Meldung auf heise: Klick
Also nicht mehr lange und die ersten, perfekt für die angesprochene Datensicherung geeigneten Platten kommen in den Handel. ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich werd Backup auch weiterhin auf externe HDD machen, so wie bisher.

Alternative wäre noch ein Backupserver der im Normalfall nicht am Netz hängt. Hab ich heut was drüber gelesen, er hat einfach alle möglichen Platten die noch übrig waren in ne Kiste gesteckt die noch übrig war, einen Pool ohne Redundanz erstellt und macht darauf seine Backups vom eigentlichen Fileserver.
 
Alternative wäre noch ein Backupserver der im Normalfall nicht am Netz hängt. Hab ich heut was drüber gelesen, er hat einfach alle möglichen Platten die noch übrig waren in ne Kiste gesteckt die noch übrig war, einen Pool ohne Redundanz erstellt und macht darauf seine Backups vom eigentlichen Fileserver.

Ist letztendlich auch nichts anderes als eine große Festplatte. Ein Nachteil wäre allerdings, dass der dem Ziel Strom (und Geld) zu sparen, nicht gerade zuträglich ist. In der Regel wird man für sowas Komponenten nehmen, die man noch rum liegen hat. Und das werden dann welche sein, mit denen man wahrscheinlich nicht unter 100W bleiben wird. Wenn der dann jede Nacht oder so für vllt. eine Stunde angeworfen wird, sieht es schon nicht mehr so sehr nach Strom sparen aus. Und bei einer Vollsicherung von 2 TB, kann das über ein 1GBit-Netzwerk auch mal 10 Stunden oder länger dauern.

Am liebsten wären mir immer noch optische Lösungen. Relativ günstig, unabhängig von Elektronik (ein LW lässt sich einfach ersetzen, ohne dass man Daten verliert), einfach extern zu lagern... Wird Zeit, dass sich Blu-Ray fest etabliert und die 400GB-Rohlinge auf den Markt kommen. ;)
 
In der Regel wird man für sowas Komponenten nehmen, die man noch rum liegen hat. Und das werden dann welche sein, mit denen man wahrscheinlich nicht unter 100W bleiben wird. Wenn der dann jede Nacht oder so für vllt. eine Stunde angeworfen wird, sieht es schon nicht mehr so sehr nach Strom sparen aus. Und bei einer Vollsicherung von 2 TB, kann das über ein 1GBit-Netzwerk auch mal 10 Stunden oder länger dauern.

Stichwort inkrementelles Backup. Das erste Vollbackup dauert lange, danach werden nur noch die geänderten Daten gesichert, was im Normalfall recht schnell gehen sollte. Per WOL den Backup Rechner aufwecken, und nach vollendetem Backup wieder ausschalten.

Nachteil der optischen Lösung: Man muss die Medien per Hand wechseln, eine automatische Sicherung fällt also flach. Dann kann ich auch gleich mit externen Festplatten arbeiten, was zum einen flotter geht (eSATA), und zum anderen derzeit noch günstiger ist (1TB für ca 100 Euro). Mit DVD-R DL kostet es mind. 120 Euro, mit Bluray mind. 250 Euro zzgl Laufwerk.
 
ich macht nicht so oft ein Backup (zumindest nicht in der Form), einmal im Monat auf extern reicht. Dafür würde ein Backupserver schon passen.

Problem bei Optischen Medien ist halt die Haltbarkeit, nach paar Jahren sind die oft nix mehr. Im Heimbereich jetzt nicht das Megaproblem, aber trotzdem.
 
es gibt doch dvd brennroboter. aber ich würd sie auch niemals für ein backup verwenden!
 
Optische Medien sind zur Datensicherung nicht geeignet - viel zu unsicher und viel zu kleine Medien...

Da es hier nicht um Archivierung, sondern um Sicherung geht und eine Fehlerprüfung obligatorisch wäre, ist das eigentlich irrelevant. Dass optische Medien an sich nicht sicher sind, ist mir klar und habe ich schon oft genug am eigenen Leib erfahren. ;)

Dass die Medien aktuell zu klein sind, ist mir ebenfalls klar und hab ich ja auch schon vorgerechnet. Daher meine Hoffnung, dass die 400GB-Medien wirklich mal marktreif und wirklich brauchbar werden.


Stichwort inkrementelles Backup. Das erste Vollbackup dauert lange, danach werden nur noch die geänderten Daten gesichert, was im Normalfall recht schnell gehen sollte. Per WOL den Backup Rechner aufwecken, und nach vollendetem Backup wieder ausschalten.

Ich favorisiere da eher das differentielle Backup und dazu regelmäßige Vollbackups. Inkrementell ist mir zu viel Aufwand, wenn ich es zurück sichern will.

Um den Rechner per WOL zu starten, muss der dauerhaft Strom haben. Schon aus Sicherheits- und Stromspargründen würde ich den Backup-Server vom Strom nehmen, wenn ich ihn nicht brauche. Heißt also, dass ich vor jeder Sicherung zB die Steckdosenleiste einschalten müsste und danach wieder aus.


Nachteil der optischen Lösung: Man muss die Medien per Hand wechseln, eine automatische Sicherung fällt also flach. Dann kann ich auch gleich mit externen Festplatten arbeiten, was zum einen flotter geht (eSATA), und zum anderen derzeit noch günstiger ist (1TB für ca 100 Euro).

Wechseln per Hand sehe ich nicht als Nachteil. Vor jeder Sicherung einfach ein neues Medium einlegen und den Rest erledigt der Fileserver. Die Prüfung, ob das richtige Medium eingelegt ist, stellt normalerweise kein Problem dar.

Festplatten haben auch den Nachteil, dass sie ein- und ausgeschaltet werden sollten (Gründe, siehe oben). Außerdem kann ich die Daten vergessen, wenn die Elektronik kaputt geht - was zB durch einen Stromschlag passieren könnte, wodurch der Fileserver ebenfalls mitgerissen werden könnte - dann ist alles weg. Oder was ist bei einem Feuer? Die optischen Medien, die ich woanders lagern würde, könnten das hingegen überleben. Optische Medien sind außerdem unempfindlicher, was Beschleunigungskräfte angeht (Fallen lassen zB).

Ich bin gerade am überlegen. Evtl. werde ich einen Mix aus DVD-RAM und HD-Sicherung machen. Vollbackup auf HD alle paar Wochen (je nachdem, wie oft es nötig wird) und differentielles Backup jede Nacht, evtl. auch seltener, auf DVD-RAM. Dadurch umgehe ich das häufige An- und Ausschalten der HD, was mir und der Platte zu gute kommt, brauche allerdings durch die HD auch keine Unmenge an DVDs.
 
Zuletzt bearbeitet:
Hi,

ich hatte meine Backups früher (vor ca. 6-7 Jahren) auch auf DVDs gepackt. Tja inzwischen ist ein Großteil davon nicht mehr lesbar.

Ich hab' jetzt seit knapp 1 Jahr, nen LTO-3 Laufwerk in Verwendung und möchte es nicht mehr missen. Klar kostet das LW mit knapp 1000€ ne Menge, wenn man aber bedenkt das man für ein Tape ca. 25€ bezahlt auf das dann 400GB/800GB passen, relativiert sich das ganze wieder. Von der längeren Haltbarkeit und höheren Geschwindigkeit mal ganz zu schweigen.

cu
shuqi
 
ich hatte meine Backups früher (vor ca. 6-7 Jahren) auch auf DVDs gepackt. Tja inzwischen ist ein Großteil davon nicht mehr lesbar.

Ein Backup soll ja auch eigentlich kein Archiv sein. Ein Backup wird regelmäßig neu geschrieben und anschließend auf Fehler geprüft. Spätestens wenn die ersten Fehler auftreten, wird das Medium gewechselt.


Ich hab' jetzt seit knapp 1 Jahr, nen LTO-3 Laufwerk in Verwendung und möchte es nicht mehr missen. Klar kostet das LW mit knapp 1000€ ne Menge, wenn man aber bedenkt das man für ein Tape ca. 25€ bezahlt auf das dann 400GB/800GB passen, relativiert sich das ganze wieder. Von der längeren Haltbarkeit und höheren Geschwindigkeit mal ganz zu schweigen.

Wenn LTO, dann richtig: LTO-4
Mit LTO-3 bekommen wahrscheinlich die wenigsten ein Vollbackup auf ein Medium. Selbst LTO-4 (800/1600 GB) kann da schon knapp werden.

Nett ist es ja. Aber ob sowas wirklich mindestens 1500€ wert ist, wenn man es nur privat braucht? Mir im Moment jedenfalls nicht.
 
Ich favorisiere da eher das differentielle Backup und dazu regelmäßige Vollbackups. Inkrementell ist mir zu viel Aufwand, wenn ich es zurück sichern will.

Wieder was gelernt, vielen Dank. Kannte bisher nur ein inkrementelles Backup. Wobei man bei einem differentiellen Backup den erhöten Speicherplatz bedenken sollte, der unter Umständen recht groß werden kann (monatliches Vollbackup).

Schlumpf_79 schrieb:
Um den Rechner per WOL zu starten, muss der dauerhaft Strom haben.

Da hast du recht, bleibt also nur der manuelle Eingriff, egal ob mittels Festplatte oder mittels Rohlingen.

Außerdem kann ich die Daten vergessen, wenn die Elektronik kaputt geht - was zB durch einen Stromschlag passieren könnte, wodurch der Fileserver ebenfalls mitgerissen werden könnte - dann ist alles weg. Oder was ist bei einem Feuer? Die optischen Medien, die ich woanders lagern würde, könnten das hingegen überleben.

Externe Festplatten mit einem Vollbackup lassen sich auch an einem anderen Ort lagern. Für das differentielle Backup nehme ich dann einen alten Rechner her, der an einer USV hängt, um so die Elektrik zu schützen.

Schlumpf_79 schrieb:
Ich bin gerade am überlegen. Evtl. werde ich einen Mix aus DVD-RAM und HD-Sicherung machen. Vollbackup auf HD alle paar Wochen (je nachdem, wie oft es nötig wird) und differentielles Backup jede Nacht, evtl. auch seltener, auf DVD-RAM. Dadurch umgehe ich das häufige An- und Ausschalten der HD, was mir und der Platte zu gute kommt, brauche allerdings durch die HD auch keine Unmenge an DVDs.

Ich misstraue optischen Medien als Backup, habe damit leider schon schlechte Erfahrungen gemacht. Aber deinen Vorschlag könnte ich auch bei mir etwas verändert durchführen:

Meine wichtigen Daten sind auf meinem Desktop Rechner gespeichert. Täglich könnte ich nun ein differentielles Backup auf meinen Server schieben, und ab und ein ein Komplett-Backup auf eine externe Platte. Je nach Größe des differentiellem Backups könnte ich dieses zusätzlich noch z.B. jede Woche auf DVD brennen.
 
Da es hier nicht um Archivierung, sondern um Sicherung geht und eine Fehlerprüfung obligatorisch wäre, ist das eigentlich irrelevant. Dass optische Medien an sich nicht sicher sind, ist mir klar und habe ich schon oft genug am eigenen Leib erfahren. ;)

Dass die Medien aktuell zu klein sind, ist mir ebenfalls klar und hab ich ja auch schon vorgerechnet. Daher meine Hoffnung, dass die 400GB-Medien wirklich mal marktreif und wirklich brauchbar werden.

Ich favorisiere da eher das differentielle Backup und dazu regelmäßige Vollbackups. Inkrementell ist mir zu viel Aufwand, wenn ich es zurück sichern will.

Um den Rechner per WOL zu starten, muss der dauerhaft Strom haben. Schon aus Sicherheits- und Stromspargründen würde ich den Backup-Server vom Strom nehmen, wenn ich ihn nicht brauche. Heißt also, dass ich vor jeder Sicherung zB die Steckdosenleiste einschalten müsste und danach wieder aus.

Wechseln per Hand sehe ich nicht als Nachteil. Vor jeder Sicherung einfach ein neues Medium einlegen und den Rest erledigt der Fileserver. Die Prüfung, ob das richtige Medium eingelegt ist, stellt normalerweise kein Problem dar.

Festplatten haben auch den Nachteil, dass sie ein- und ausgeschaltet werden sollten (Gründe, siehe oben). Außerdem kann ich die Daten vergessen, wenn die Elektronik kaputt geht - was zB durch einen Stromschlag passieren könnte, wodurch der Fileserver ebenfalls mitgerissen werden könnte - dann ist alles weg. Oder was ist bei einem Feuer? Die optischen Medien, die ich woanders lagern würde, könnten das hingegen überleben. Optische Medien sind außerdem unempfindlicher, was Beschleunigungskräfte angeht (Fallen lassen zB).

Ich bin gerade am überlegen. Evtl. werde ich einen Mix aus DVD-RAM und HD-Sicherung machen. Vollbackup auf HD alle paar Wochen (je nachdem, wie oft es nötig wird) und differentielles Backup jede Nacht, evtl. auch seltener, auf DVD-RAM. Dadurch umgehe ich das häufige An- und Ausschalten der HD, was mir und der Platte zu gute kommt, brauche allerdings durch die HD auch keine Unmenge an DVDs.
Das Problem ist bei optischen Medien dass sie durch das Lagern schlechter werden - zum Teil schon nach deutlich unter einem Jahr können Daten defekt sein.
Bei DVD-RAM gibt es zusätzlich das Problem, dass es in Europa keine ordentliche Prüfstelle gibt - zumindest laut c't und die wissen normalerweise von was sich schreiben. So kann man leider nicht sagen ob DVD-RAM geeignet ist...

Zerstört oder gestohlen werden können alle Datenträger, irgendwo muss man auch eine Grenze setzen wie wichtig einem die Daten sind. Bei mir wird es ein ZFS-Server mit RAIDz2 werden + Backups. Wie die Backups aussehen kann ich heute noch nicht sagen, der Server ist erst in 1-1,5 Jahren geplant wenn mein Studium fertig ist und eine eigene Wohnung da ist. So lange komme ich mit einem HTPC + Backup und Notebook + Backup ganz gut klar.
 
Wieder was gelernt, vielen Dank. Kannte bisher nur ein inkrementelles Backup. Wobei man bei einem differentiellen Backup den erhöten Speicherplatz bedenken sollte, der unter Umständen recht groß werden kann (monatliches Vollbackup).

Kommt eben auf den individuellen Fall an, was besser passt. Das differentielle Backup ist für mich ein guter Kompromiss aus Speicherbedarf und Komplexität.


Externe Festplatten mit einem Vollbackup lassen sich auch an einem anderen Ort lagern. Für das differentielle Backup nehme ich dann einen alten Rechner her, der an einer USV hängt, um so die Elektrik zu schützen.

Stimmt, man kann die Platte auch woanders lagern. Aber: Erstens steigt dadurch die Gefahr, dass die Platte zB runter fällt, also physikalisch beschädigt wird und zweitens - ich bin von Natur aus faul und spare mir lieber den Weg. :d

Meine elektronischen Geräte hängen an Steckdosenleisten mit Überspannungsschutz und sind dadurch auch mit den "Hintertürchen" (Antenne, Telefon, Internet) abgesichert. Trotzdem - trust no one. Die Hardware wird zwar bezahlt, wenn was passieren sollte, die Daten kann dir allerdings niemand wiederherstellen. Außerdem bin ich mir nicht sicher, ob der Überspannungsschutz auch Störungen innerhalb des Netzes zuverlässig abfängt. Und was ist, wenn zB das Netzteil die Grätsche macht und dadurch die Platten mit nimmt? Das kann im schlimmsten Fall zB auch mit der externen Festplatte passieren, die zur Sicherung am Fileserver hängt.


Meine wichtigen Daten sind auf meinem Desktop Rechner gespeichert. Täglich könnte ich nun ein differentielles Backup auf meinen Server schieben, und ab und ein ein Komplett-Backup auf eine externe Platte. Je nach Größe des differentiellem Backups könnte ich dieses zusätzlich noch z.B. jede Woche auf DVD brennen.

Das wäre mir schon zu kompliziert, weil ich so schon wieder zu viel denken müsste, was wiederum schnell zu Fehlern führen kann. Deswegen gäbe es bei mir nur die beiden Möglichkeiten: Vollbackup auf HD und differentielles Backup auf DVD-RAM. Wenn Die differentiellen Backups zu groß werden (was mir zB per Mail gemeldet werden könnte), kommt wieder ein Vollbackup etc.

Außerdem widerspricht das meinem Konzept der zentralen Datenspeicherung, was einer der Hauptgründe für den Fileserver ist. Ich habe meinen Desktop-Rechner, meinen Laptop, den Laptop meiner Freundin, das Netbook meiner Freundin und in Zukunft ist noch ein HTPC geplant. Und ich möchte möglichst von allen Geräten auf den gleichen Datenbestand zugreifen können und eine einfache Möglichkeit haben, Daten mit meiner Freundin austauschen zu können. Außerdem muss ich mal gucken, in wie weit sich ein Media-Server mit OpenSolaris realisieren lässt, damit ich zB ein kleines WLAN-Küchenradio füttern kann. Aber das kommt erst, wenn der Fileserver steht.
 
Zuletzt bearbeitet:
Das Problem ist bei optischen Medien dass sie durch das Lagern schlechter werden - zum Teil schon nach deutlich unter einem Jahr können Daten defekt sein.
Bei DVD-RAM gibt es zusätzlich das Problem, dass es in Europa keine ordentliche Prüfstelle gibt - zumindest laut c't und die wissen normalerweise von was sich schreiben. So kann man leider nicht sagen ob DVD-RAM geeignet ist...

DVD-RAM kann man als DVD-RAM (format e:; copy xyz e: ) oder DVD-RW beschreiben (z. B. mit Nero). Wenn man sie als DVD-RW beschreibt, kann man sie ganz normal scannen. Dabei kommen sehr unterschiedliche Sachen zu Tage.

attachment.php


attachment.php


Wenn die DVD-RAM unmittelbar nach dem Schreiben i. O. ist, hält sie mehrere Jahre durch. Der Vorteil von opt. Medien zur Archivierung ist ja gerade, daß man die Materialqualität scannen kann. Wenn das Material altert, kopiert man die Daten um. Das geht nicht bei HDD und auch nicht bei LTO. Da hilft nur regelmäßiges komplettes Neubeschreiben der Medien.
 

Anhänge

  • dvd-ram-1.gif
    dvd-ram-1.gif
    43,8 KB · Aufrufe: 339
  • dvd-ram-2.gif
    dvd-ram-2.gif
    42,8 KB · Aufrufe: 343
Ich weiß ja nicht wie hoch das Budget ist... aber ein schicker LTO-4 8fach Loader ist doch mal ganz nett, ich installiere sowas öfters bei Kunden ;)
Problem was ihr ab LTO-3 habt ist, dass die Festplatten in der Regel nicht so schnell die Daten liefern können, wie es das Bandlaufwerk braucht um in den Streaming-Modus zu gehen. Wenn Bandlaufwerke nicht im Streaming-Modus arbeiten, dann kann man diese meist nach 1 Jahr mechanisch in die Tonne hauen + Bänder.
 
Problem was ihr ab LTO-3 habt ist, dass die Festplatten in der Regel nicht so schnell die Daten liefern können, wie es das Bandlaufwerk braucht um in den Streaming-Modus zu gehen.

Müsste man mal in der Praxis testen. Mit der relativ langsamen WD Green habe ich über 80 MB/s via eSATA. Im RAID wird die Leseleistung noch etwas steigen. Lt. Datenblatt eines LTO-4 von HP, kann der um die 80 MB/s unkomprimiert. Wenn die Daten einigermaßen im Stream gelesen werden können, sollte das also noch passen.

Aber wie gesagt. Für mich im Moment keine wirkliche Alternative.

Ob es auffällt, wenn ich eins der neuen LTOs bei uns für mich bei Seite lege? Die sollen erst noch eingebaut werden. :d
 
Für Linux sowie FreeBSD gibt es ein kleines Tool namens cpupowerd. Damit lässt sich bei AMD Prozessoren (K8 aufwärts) der Multiplikator sowie die Spannung on-the-fly ändern.
Das ist nicht ganz korrekt. cpupowerd unterstützt nur die AMD K8 Architektur. AMD hat beim Phenom(K10) und Turion Ultra (Mischung aus K8 und K10) die internen CPU-Register geändert, sodass cpupowerd bei diesen CPUs nicht funktioniert.

Opensolaris unterstützt auf AMD-Seite nur die Stromsparmechanismen des Phenom (K10). Das sollte man bedenken, falls man ein Opensolaris System mit AMD aufbauen will.
Wenn es trotzdem ein AMD-System sein soll und man unbedingt ZFS verwenden will, wäre auch noch FreeBSD 7.x eine alternative, da bei diesem OS auch das Cool'nQuiet vom K8 unterstützt wird.
 
Hallo Zusammen,

da ich auch nach einer Backuplösung suche, und mir das ausgesuchte NAS QNAP TS-409 Pro trotz seiner Funktionsvielfalt einfach zu teuer ist, habe ich mir heute folgendes ausgedacht, und beteilige mich hiermit einfach mal an diesem Thread.

1x Intel Essential Series Mainboard mit CPU (z.B. D945GCLF, i945GC, Mini-ITX (PC2-5300U DDR2)) ab 54,74 €
1x RAM GeIL Value DIMM 1GB PC2-5300U CL3-4-4-8 (DDR2-667) (GX21GB5300SX) ab 14.11 €
4x Samsung SpinPoint F1 1000GB, 32MB Cache, SATA II (HD103UJ) 7200rpm • 32MB Cache • 8.9ms • je ab 79,45 € (317,80 €)
1x Seasonic S12II 330W ATX 2.2 (SS-330GB) ab 42,72
1x Mini ITX Case, hierbei fehlt mir momentan noch die Idee, da ich keines finde, welches auch 4 HDD intern aufnimmt

Man wäre also preislich dann bei ca. 435 € excl. Versand und Gehäuse

Als Software würde ich vorerst auf FreeNAS setzen (www.freenas.org) laut WIKI FreeNAS ist ein Open-Source-Network Attached Storage. Es basiert auf FreeBSD.
Es ist auf x86-kompatiblen Plattformen lauffähig. Außerdem unterstützt FreeNAS seit der Version 0.69b1 - 0.68RC1 auch AMD64 Plattformen.


Durch Aufpreis erhält man auch ein Intel Essential Series Board mit GB LAN und Raid Controller...

Was haltet Ihr von solch einer Zusammensetzung?
 
Du hast dir ein Board mit 2SATA-Anschlüssen und 4 SATA-Platten heraus gesucht - das geht so nicht ;).

Nebenbei: Der ATOM ist recht langsam, leg noch ein paar €uro drauf und du hast auch bei Gigabit-LAN hohe Transferraten. Würde dir ein kleines AM2-Board mit 4x SATA mit einem kleinem Sempron empfehlen. Braucht kaum mehr Strom, kostet fast genauso wenig und hat deutlich mehr Netzwerkdurchsatz!
 
Also dann sicher nen X2 und kein Sempron. Nen guten X2 gibt's für 50 Euros. Dann nimmst Du ein M3N78-EM oder M3A78-em. Die kosten auch nur ca. 60 Euronen. Die haben 5 SATA und einen eSATA auf dem Board direkt. (Da kannst Du hinten am PC dann einfach ne externe SATA HD anhängen. Der Durchsatz ist mehr als doppelt so schnell, wie USB2. Wenn Du zum Beispiel ne F1 als HD dafür nimmst.) Externe Gehäuse gibt's auch ab 18 Euros komplett alles dabei. Die neueren Boards unterstützen auch Raid 5. Es gibt aber neuerdings auch Boards mit nem neueren GPU. Aber da ist eh nur an der Taktschraube gedreht. Die Boards sind Phenom-tauglich und auch 1066er Ram. Ich würde entweder guten DDr2-800 Ram nehmen, am Besten 2 x 2 GB. Nicht 4x1. Oder direkt 1066er Ram. Wenn dann in absehbarer Zeit die Phenoms im Preis runterkommen und es nötig sein sollte, könntest Du Dir deinfach nen Phenom auf's Board schnallen.
Es gibt noch Boards, die separate 128 MB DDR3 Grafikspeicher haben. Das ist gut, wenn Du ein bisschen schnelleren Seiten Aufbau willst. Die Boards sind ein wenig teurer. Aber es liegt im Rahmen.

Auf IntelBasis böte sich entweder ein ganz gübstiges Refresh eines 945-er Boards an, aber wenn Du Raid und (weiss nicht genau ob's esata hat) dann wäre da das Q35 Board von Gigabyte.

Aber ich sag Dir eines. Intel Atom ist nicht mal recht für Office geeignet. Und mit nem X2 AMD kannst Du auch so tiefe Stromeinheiten fahren. Und hast aber mehr Leistung.

Als Alternative zu den erstgenannten Boards wären da noch die Gigabyte Boards. Da gibt's gerade die neuen UD3 Boards. (UltraDurable)

Jedenfalls ist ein X2 sicher mal nem Atom vorzuziehen. Diese Boards sind mAtx. Es gibt da gute Boards von Asus und Gigabyte. Es gibt aber in Deutschland auch andere Hersteller, die den neusten Chuipsatz anbieten. Aber die für 60 Euro's tun es auch. Die haben alles drin, was Du brauchst. DVI/HDMI/D-Sub, eSata, Raid.

Die neueren haben aber erst Raid5. Das wäre dann das Gigabyte 790GP ist des richtig? Die 790-er Board's sind aber echt teuer. Ich würd sagen, die normalen Komplettboards reichen längst aus für das, was Du vorhast und kosten nur 60.- Euros. Und die unterstützen sicher Raid 0+1. Wenn's Raid 5 sein muss, dann kannst Du dies sagen und es wird Dir sicher geholfen.

Wenn's Dich interessiert, können Dir sicher andere noch weiterhelfen.
 
Zuletzt bearbeitet:
Das Board darf ruhig günstig sein, solange es genug sATA Anschlüsse und Gigabit Ethernet mitbringt. Ob der Onboard Controller letztendlich Raid0,1,5 oder 10 unterstützt ist unerheblich. Diese Funktionalität bei nem Softraid eh nicht braucht. Solang die Platten vom OS gesehen werden ist das ausreichend, das Array wird dann auf OS Ebene eingerichtet. So ist es unter Linux, ich denke das wird unter BSD ähnlich sein.
Da Linux ohne Verrenkungen nicht vom (Soft-)Raid5 booten kann, empfiehlt es sich entweder noch ne kleine Systemplatte zu erwerben (oder in der heimischen Grabbelschublade zu finden), von der es dann bootet. An meinem GB P35 DS3, das nur ne normale ICH9 Southbridge ohne Raidfunktionalität hat, hängt eine alte 40GB IDE Platte von der es bootet. Während des Bootvorgangs dann baut Linux aus den 3 ansonsten unabhängig "sichtbaren" WD AAKS 640GB ein RAID5 zusammen. Fertig die Hütte...
Die Bootplatte zu spiegeln lohnt sich meines Erachtens nur bei professionellem Einsatz, sprich wenn Downtime Geld kostet. Ansonsten reicht es Linux (bzw. die Storagedistribution) auf ner anderen Platte neu aufzusetzen. Die RAID-Konfiguration kann dann aus dem RAID Superblock der Platten ausgelesen werden und damit ist das RAID wieder einsatzfähig. Wenn keine alte Platte zur Verfügung steht reicht auch ein IDE Flash Modul <2GB vollkommen aus, spart Platz, Energie und Geräusch.

Generell gilt es bei den ganzen HA/Backupgeschichten die hier gern besprochen werden das Verhältnis zu bewahren.
Wenn ein Softraid vernünftig implementiert ist (die Umsetzung in Software) reicht das i.d.R. für nen Heimserver.
Mit obigen Setup komm ich lesend auf >200MB und schreibend immernoch auf 130-150MB pro Sekunde, weitaus mehr als jede GBit Schnittstelle überhaupt durchs Netz kriegt. Reicht also...
Soweit meine Erfahrung zu Softraid unter Linux, unter BSD wird das wohl zu 99% das gleiche sein.

edit:

http://www.openfiler.com/ - vielleicht ebenfalls nen Blick wert
 
Zuletzt bearbeitet:
Mit obigen Setup komm ich lesend auf >200MB und schreibend immernoch auf 130-150MB pro Sekunde, weitaus mehr als jede GBit Schnittstelle überhaupt durchs Netz kriegt. Reicht also...
Soweit meine Erfahrung zu Softraid unter Linux.

Interessante Werte, könntest du noch dazu schreiben, welche CPU du verwendest, und wie hoch die CPU Last beim schreiben ist?
 
Was ist eigentlich am Zuverlässigsten? Und wieviele Platten braucht ein Raid 5.

Ich meinte bisher, dass 0+1 eigentlich das Beste wäre. Wie ist es wirklich? Man muss beachten, dass viele Boards nicht 6verfügbare SATA's haben. Ebenso weil's ja Boards gibt, mit ner festen esata Schnittestelle. So bleiben noch 5 übrige SATA's.
 
Zuletzt bearbeitet:
Wenn du ein bisschen Zeit hast, lies dir doch mal folgenden Wikipedia Eintrag durch.

Am zuverlässigsten ist immer ein RAID1, denn hier können sämtliche Platten bis auf eine ausfallen.

Ein RAID5 benötigt mind. 3 Platten, man hat immer die Kapazität von n-1 Platten, also im Falle eines 3 Platten RAID5 die Kapazitäz von 2 Platten.

0+1 benötigt mindestens 3 Platten, man hat dann die Kapazität von 1,5 Platten. Vorteil gegenüber RAID 5 ist die geringere CPU Last.
 
Raid 5 benötigt doch 5 HD's... habe ich gemeint, aber es sind. drei. Aber da stellt sich beim Lesen auch gerade heraus, dass wenn mal bei einem Raid 5 ne Platte aussteigt und die Neue eingebunden wird, der Datendurchsatz erheblich vermindert wird. hmm...

Früher meinte ich, es brauche für ein Raid 5 6 Festplatten, aber nun sehe ich, dass des Raid 05 ist. Das ist ein Stripped Raid 5 Verbund.

Da sieht man, wie wir Hardwaremässig abgespeist werden. Da gäbe es nämlich noch einige gute Raid 5 Varianten. Wir können andererseits auch froh sein, dass die Preise runter gekommen sind und die Boards viel mehr bieten. Daruunter hat aber auch, wie man in der letzten Zeit sieht, die Qualität geklitten. Ich hatte noch nie soviele defekte Hardware, wie in den letzten 1 1/2 Jahren. Neues NT, das nicht ging. Neue HD's, die kaputt waren. Einer hatte ein neues Board, was nicht funktionierte.
Ich war eben grade mit defekten HD's geplagt. Ich wiollte eigentlich erst Raid0+1 machen, bis sich herausstellte, dass Vista total nicht damit klar. Die Starts und das Herunterfahren dauerte viel länger, als mit nur einer Platte. Der hängte richtig. JHeute weiss ich wieso. Denn 2 der vier HD322HJ sind nach einigen Wochen dann ganz ausgefallen, nachdem wochenlang in Vista ständig Fehler gemeldet wurden. Und immer wieder die ganze Datenherumschieberei ödet mit der Zeit auch an, da bei Testen der HD's dem anschliessenden Klonen und dem Backup einfach sehr viel Zeit vergeht.

Deshalb sueche ich eine Möglichkeit, die Redundanz insofern bietet, dass man in Windows selbst nicht im Arbeiten beeinträchtigt wird, sollte eine HD spucken. Das sollte gemeldet werden und es wäre super, wenn man per HotSwap(wie zum Beispiel in nVidia einfach das Dingens lösen könnte, indem man dann die defekte HD ausbaut, die neue reinmontiert und in Windoof dann die Software das Ganze wieder einbindet und die Daten auch wieder richtig verteilt.

Wie kann man das bewerkstelligen, ohne dass man jedesmal so viel Zeit verliert.

Im Moment habe ich das so gelöst.

> System HD ist eine HD322HJ ... C:\

> DatenHD ist auch eine GD3222HJ ... D:\

> SicherungesHD ist eine HD642JJ ... E:\ (Neu)

> Externe HD über eSATA ist eine HD642JJ ... F:\

Von der Trennung der Daten und der Schreibleistung ist das gut. Aber es wäre ja schön, wenn man auch, wenn ne HD sich abmeldet, bzw. anfängt Fehler zu produzieren, sich eben die Software einschaltet und die selbständig auf ne intakte HD wechselt.

Das geht doch ... Was wäre dafür predistiniert? Und wenn, mit wievielen Platten? Raid 0+1 mit 4 Platten dachte ich Anfangs. Weil eben als Neu zwei der HD's bereits angeschlagen waren, verlangsamte sich die Leitung immens im RaidVerbund. Ich führte es erst auf die Warnung der Plattenhersteller, dass Non-Raid-HD's, bzw. deren Fehlerkorrektur in Konflikt geraten mit der RaidControllerFehlerKontrolle. Deshalb gibt's ja RaidHD's. Wie zum Beispiel die HE3222HJ. usw.

Ich hab gerade was interessantes gelesen. Neuere, teurere Boards unterstützen ja auch Raid 10. Das sieht aber nicht mal schlecht aus. Vorteil ggü. Raid 0+1 ist eine bessere Ausfallsicherheit und schnellere Rekonstruktion.

0+1 wär ja schon gut, leider macht uns da im Moment die Qualität der HD's eindeutig nen Strich durch die Rechnung. Wenn die Dingens bvereits von Neu an angeschlagen sind.
 
Zuletzt bearbeitet:
Ich hoffe du bist jetzt, nach mindestens drei Mal, mit dem Editieren fertig. :d

Aber da stellt sich beim Lesen auch gerade heraus, dass wenn mal bei einem Raid 5 ne Platte aussteigt und die Neue eingebunden wird, der Datendurchsatz erheblich vermindert wird. hmm...

Ja, aber nur so lange, wie die Einbindung der neuen Platte dauert. Danach ist wieder alles schön.


nachdem wochenlang in Vista ständig Fehler gemeldet wurden. Und immer wieder die ganze Datenherumschieberei ödet mit der Zeit auch an, da bei Testen der HD's dem anschliessenden Klonen und dem Backup einfach sehr viel Zeit vergeht.

Von den on-board-RAIDs solltest du nicht viel erwarten. Es gibt einen Grund, warum RAID-Controller so teuer sind. Sie haben u.a. einen eigenen Prozessor, der die Berechnungen durchführt und meistens (oder immer?!) auch noch einen eigenen Cache.


Ich führte es erst auf die Warnung der Plattenhersteller, dass Non-Raid-HD's, bzw. deren Fehlerkorrektur in Konflikt geraten mit der RaidControllerFehlerKontrolle. Deshalb gibt's ja RaidHD's. Wie zum Beispiel die HE3222HJ. usw.

RAID-HDs sind nur von der Mechanik her auf den Dauerbetrieb ausgelegt und haben ggf. mehr Cache. Ansonsten haben die AFAIK keine besondere Fehlerkorrektur.
 
Nein... stimmt so nicht. Die Fehlerkorrektur wird anders gemanagt, weil eben RaidKontroller eine eigene Prozzedur haben.

Das steht auch bei Western Digital, die ausschliesslich die NonRaid HD's deswegen "nicht" für Raid's empfehlen.

Und des in Vista mit den Fehlern, war nicht wegen dem Kontroller, sondern wegen der defekten HD.

Das mit den NonRaid HD's nicht geeignet für Raid's kannst Du hier nachlesen.

http://wdc.custhelp.com/cgi-bin/wdc...TEmcF9zZWFyY2hfdGV4dD1UTEVS&p_li=&p_topview=1

Das mit den separaten Kontrollern stimmt auch nicht ganz. Der einzige Vorteil ist eigentlich, dass die CPU entlastet wird, aber das lohnt sich bei einem HomePC nicht, da dort eh genug Leistung übrigbleibt. Auch wenn man nebenbei noch Anderes macht. Wie gesagt. Für HomeAnwender und Gamer lohnt ein separater RaidController nicht.
 
Zuletzt bearbeitet:
Da Linux ohne Verrenkungen nicht vom (Soft-)Raid5 booten kann,

das stimmt nicht. Du kannst ohne Probleme von einem Raid booten.
Unter Debian kannst du das ganz einfach bei der Installation alles einrichten.
Das wird bei anderen Dist bestimmt auch gehen.

Mit obigen Setup komm ich lesend auf >200MB und schreibend immernoch auf 130-150MB pro Sekunde, weitaus mehr als jede GBit Schnittstelle überhaupt durchs Netz kriegt.

Auf solche Wert komme ich bei meinem Softraid 5 auch.

CPU: 4850e
Mobo: ASUS M3N78
Platten: 1x 80GB Samsung und 3x Western Digital RE3 1000GB

Jedoch muss mal sagen, dass auf dem Raid XFS als Dateisystem ist. Unter Ext3 waren ist Leistung schlechter.

Nein... stimmt so nicht. Die Fehlerkorrektur wird anders gemanagt, weil eben RaidKontroller eine eigene Prozzedur haben.

Das steht auch bei Western Digital, die ausschliesslich die NonRaid HD's deswegen "nicht" für Raid's empfehlen.

Und des in Vista mit den Fehlern, war nicht wegen dem Kontroller, sondern wegen der defekten HD.

Das mit den NonRaid HD's nicht geeignet für Raid's kannst Du hier nachlesen.

ne, da hat er schon recht, das die keine besondere Fehlerkorrektur haben. Normale Platten versuchen Fehler selber zubeheben und werden, wenn sie es nicht schaffen irgendwann aus dem Raid geworfen. Bei den Raid Platten versuchen die das nur ganz kurz und übergeben danach an den Controller und werden so gegebenfalls nicht rausgeworfen. D.h. aber nicht das die nicht für ein Raid geeigent sich. Das was WD da schreibt ist auch zum teil marketing ;)
 
Zuletzt bearbeitet:
http://wdc.custhelp.com/cgi-bin/wdc...TEmcF9zZWFyY2hfdGV4dD1UTEVS&p_li=&p_topview=1

Da ist die Fehlerkorrekturzeit begrenzt. Da sich diese sonst mit der RaidKontrollerFehlerkorrektur in die Haare kriegt.

Darüberhinaus haben die RaidHD's nen Sensor mehr.

Bei Samsung heisst's einfach ein bisschen anders. Aber es ist dasselbe Prinzip. http://www.samsung.com/global/business/hdd/learningresource/whitepapers/LearningResource_CCTL.html

Western Digital does not recommend installing desktop edition hard drives in an enterprise environment (on a RAID controller
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh