[Kaufberatung] Zukunftssichere Daten Sicherung.

Alternativ vier Spindeln a 25 DVD-R Rohlinge kaufen mit passenden Hüllen und nach dem Brand kühl, trocken und lichtgeschützt lagern. Dann halten diese auch länger als deine angepeilten 10 Jahre.
Kostenpunkt für die DVDs = 4x40 Euro = 160 Euro.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ok das hört sich schon besser an,könnte die Gesamtgröße des Backups sowieso noch reduzieren dann brauche ich gar keine 500 GB.
Kannst du mir ein Hersteller empfehlen und muss ich da auf was besonderes achten ?
Edit : Gegen DVD+R Rohlinge auch ?
 
Zuletzt bearbeitet:
Hast du dazu belastbare Aussagen parat? Das Thema interessiert mich nämlich auch mal.

Lies doch bitteschön einfach die Herstellerhandbücher zu den entsprechenden HDD-Modellen.
Handbücher sind diese welche in der Regel ~50-200 Seiten umfassen!
Die ATA-Streaming Erweiterung ist schon sehr alt und gab es schon zu PATA Zeiten.

---------- Post added at 21:43 ---------- Previous post was at 21:42 ----------

Die Verbatim Archival Grade DVD-Rs sind sogar auf der ersten Seite schon verlinkt. Die hatte ein Benutzer nach dem lesen des c't Artikels auf der Herstellerseite gefunden.
 
Feuersichere Tresore für DS 120 wiegen ein paar hundert Kilo. So etwas dürfte in privaten Haushalten wohl kaum anzutreffen sein. Alleine schon weil der Boden dieses Gewicht nicht tragen muss. ...

Also ich kenne schon eine Hand voll Leute die sowas im Keller haben. Und ja - teils wurde das Fundament extra dafür konstruiert und der Tresor vor Errichtung der Kellerdecke eingebaut. Allerdings muss man ja nicht gleich in Unternehmenswelten denken. Ein "kleiner, leichterer" Tresor mit Klasse S 60 für ein paar Dokumente, Schmuck, Wertpapiere und eben ein paar solcher Datenmedien sollte auch für den Privatanwender ausreichen. Kosten nicht die Welt, sind nicht sonderlich schwer und halten sicherlich auch einen kleineren Brand aus. (Klar - wenn das Haus komplett über mehrere Stunden abbrennt hilft der wohl nicht mehr, aber da wird es auch mit S 120 kritisch)

Aber wir schweifen da vom Thema ab denn eigentlich ging es ja um die Sicherung und den Medien selbst und nicht direkt um die Lagerung.

...
Da brauchst du nicht lange schauen: PCIe-SSD: SATA Express und NGFF sind das Ende von SATA - Golem.de
PCI-X hat keine 8 Jahre überlebt. PCI stirbt nach > 20 Jahren auch schön langsam aus. IDE ist auch nicht mehr wirklich vorhanden. Gibt es noch Laufwerke neu damit? Oder SCSI CD/DVD/MO-Laufwerke? ...

Schon klar daß sich viele Standards nicht sehr lange halten weil ja gerade in der Computerbranche die Entwicklung so rasant voran schreitet.
PCI-X ist ja eigentlich Server (bzw. Workstation) only und da geht es teils schneller voran als im Desktop Bereich weil man dort ja öfters und meist die komplette Hardware wechselt. Sieht man ja auch gut an SCSI - den Standard gibt es auch schon sehr lange, allerdings hat der sich von den Schnittstellen sehr oft verändert. Sprich zuerst 50 polige Stecker/Kabel, dann 68 polige und 80 polige SCA Anschlüsse bzw. Wechsel auf Fiber Channel. Bei IDE ist der Anschluss immer gleich geblieben.
Wenn man jetzt z.B. IDE (bzw. den ATA/ATAPI) Standard her nimmt finde ich die Lebensdauer schon beachtlich. Eine Festplatte von 1990 kannst Du heute noch relativ problemlos auslesen, selbst wenn Du jetzt einen aktuellen PC hast der kein IDE mehr hat. PCI (und auch PCI-E) IDE Controller gibt es noch jede Menge neu zu kaufen. IDE Laufwerke (HDDs, DVD-RWs etc.) gibt es ebenfalls noch, allerdings nur noch wenige und es werden wohl auch kaum noch welche hergestellt sondern meist nur Lagerbestände abverkauft.
Aber es geht ja nicht darum daß man sich jetzt ein neues Laufwerk kauft - sondern daß man die alten noch auslesen kann und auf neue Medien bringen kann.

Auf was ich raus will ist daß wir ja nicht zwingend ein Medium brauchen das eine sehr lange Zeit überdauert. Es genügen wohl einige Jahre bis man die Daten auf ein neues Medium kopiert. Wir sind ja keine wissenschafltiche oder behördliche bzw. militärische Einrichtung wo man Dokumente, Informationen und Sonstiges für die "Ewigkeit" speichern will. Im Gegensatz dazu können wir ja alle paar Jahre all unsere Daten auf neue Medien übertragen - und das oft sehr schnell und sehr kostengünstig.
Dann liegen halt nach 20 Jahren ein paar USB 3.0 HDDs, Thunderbolt oder ePCI-E2 SSDs (bzw. was halt immer dann aktuell ist) die teils das selbe gespeichert haben im Safe/Schrank.

...
Wenn du die Roadmaps bis 2020 bei Supercomputern anschaust und wie krank die Vernetzung heute schon ist und auch die optische Übertragung auf Platinen heute schon funktioniert. Ney, der Endverbraucher schaufelt sich sein eigenes Digitales Grab. Nur noch "dumme" Terminals und alle Daten in der "Cloud".

Das Thema Cloud ist wohl auch ein Thema wenn es um Daten Sicherung geht. Wobei es halt eines mit sehr gemischten Gefühlen ist - zumindest bei mir. Klar ist im Vergleich zu einem Privatanwender und dessen normalen Sicherungsmöglichkeiten (siehe oben) ein Cloud Service mit Serverfarmen (die wohl dementsprechend gesichert und hoffentlich hochverfügbar sind) die besser abgesichtere Wahl. Nur ist es halt ein komisches Gefühl wenn die Daten "irgendwo" bei "irgendwem" liegen und wer weiß was damit passieren könnte? Thema Sicherheit (unbefugten Zugriff). Ebenfalls was ist wenn das Unternehmen / der Anbieter dicht macht? Wie lange gibt es einige dieser Anbieter schon bzw. noch?

Ist aber wohl ähnlich wie damals als es die ersten (Geld-)Banken gab. "Leg ich meine Goldmünzen auf die Bank oder lieber daheim unters Bett?" - hehe

Würde hier zum Thema Cloud aber auch gerne Erfahrungen und Meinungen anderer Leute hören da ich mich mit dem Thema noch kaum beschäftigt habe. Somit sorry falls meine Infos dazu falsch oder eine falsche Sichtweise sind.


Vergiss es.
Du kannst es mit neuen 600GB SAS-Festplatten im 2.5" oder 3.5" Format mit 10 bzw. 15k rpm probieren und hoffen das in 10 Jahren noch Controller exisitieren die diese HDDs ansprechen können.
Festplatten fallen oft innerhalb der ersten paar Monate aus und laufen ansonsten jahrelang ohne Probleme. In der Praxis max. 7-12 Jahre.
Nach 3-5 Jahren gehören Festplatten im produktiven Betrieb ausgetauscht. Außer es existieren einige Backups auf diversen Datenträgern. Dann kann man diese auch bis zum bitteren Ende mit ggf. sporadisch auftretenden Fehlern einsetzen.

Bei SSDs müssen die Zellen nach dem ersten Schreibvorgang die Daten sogar nur 10 Jahre lang halten. Mehr garantiert dir kein Hersteller und ist auch so von der Technik nicht vorgesehen.

Genau das ist nochmal mein Punkt auf den ich raus will:
Wir brauchen ja keine Medien die für die Ewigkeit halten - wenn gute Platten (bei sehr seltener Nutzung) 5-10 Jahre halten ist das ja eh schon genug. Nach ein paar Jahren würde ich diese eben sowieso auf neue Medien übertragen ... und diese nach ein paar Jahren wieder etc.
Und die alten Medien halt zusätzlich behalten - vielleicht laufen die ja nach 15-20 Jahren bei Bedarf immer noch?
 
Zuletzt bearbeitet:
So nun ist ehr zum entschlus gekommen das es mit DvDs ihm zulange dauert.
Werden es auf den platen lassen und ein Nas-System anschafen.

welches genau keine anung bin da raus macht ehr alles mit seinem Arbeitskollegen.

Ja es gibt leute die haben fotos ohne ende sind bearbeit und sotiert in Länder Stäte usw....
eine kamera ja der wahr gut :haha:
Das es nicht bilig wird ist ihm auch klar,mann hat halt nur ein hobby.


Danke für eure zahlreichen antworten.

MFG Mauerfosch
 
Wobei das nicht unbedingt sündhaft teuer sein muss. Z. B. ein gutes / brauchbares 2- oder 4-Bay NAS (grob ca. 250-500 EUR), dazu dann 2 bzw. 4 Platten a 3 TB (je ca. 130 EUR) und ggf. zusätzlich nochmal 1 (oder 2) externe HDDs... (als weiteres Backup) - biste bei ~ 800 - 1.200 EUR, sprich bei einem Objektiv ;) (Oder natürlich einen kleinen HP-Server a la N36 / N40L - aber dann mit etwas mehr Konfigurationsaufwand...)

In zwei bis fünf Jahren ggf. die Platten und/oder NAS erneuern und Daten umkopieren - ähnlich wie er ja vielleicht Kamera-Gehäuse immer mal wieder austauscht.
 
www.net-tex.de Wirst du ja wohl schon gelesen haben. Ich habe niemals bestritten das man tar und konsorten (zip, rar) nicht zum archivieren von wichtigen Daten benutzen soll. Diese sind wie USB-Sticks nur für den temporären Transport von a nach b nützlich. Ende der Diskussion.
die meisten backup programme nutzen zip oder ein anderes archiv zur speicherung, also ist es leider nicht so einfach wie du es dir vorstellst.

---------- Post added at 09:57 ---------- Previous post was at 09:57 ----------

So nun ist ehr zum entschlus gekommen das es mit DvDs ihm zulange dauert.
wunrdert mich nicht.

---------- Post added at 09:59 ---------- Previous post was at 09:57 ----------

Also ich mache mir auch so meine Gedanken bzgl Backup.
Ich würde gerne ca 500 GB an Daten auf ne externe Platte sichern und diese dann einfach an einen sicheren Ort bringen und erst in 10 Jahren oder so wieder hervorholen.
Meint ihr eine Platte hält so lange ?
mindestens alle paar jahre die HDD einschalten und bisschen laufen lassen.
 
Also ich kenne schon eine Hand voll Leute die sowas im Keller haben. Und ja - teils wurde das Fundament extra dafür konstruiert und der Tresor vor Errichtung der Kellerdecke eingebaut. Allerdings muss man ja nicht gleich in Unternehmenswelten denken. Ein "kleiner, leichterer" Tresor mit Klasse S 60 für ein paar Dokumente, Schmuck, Wertpapiere und eben ein paar solcher Datenmedien sollte auch für den Privatanwender ausreichen. Kosten nicht die Welt, sind nicht sonderlich schwer und halten sicherlich auch einen kleineren Brand aus. (Klar - wenn das Haus komplett über mehrere Stunden abbrennt hilft der wohl nicht mehr, aber da wird es auch mit S 120 kritisch)
DS 120 sind für Datenträger und nicht nur Dokumente und erwärmen sich selbst nach zwei Stunden Brand nicht auf über 30°C im inneren. Die normalen feuersicheren dürfen 50°C warm werden.
Ein kleiner DS120 wiegt ca. 500kg, die größeren (richtigen) Schränke ~ 2000kg. Kostenpunkt 4000-10000 Euro.
Und ja, so etwas sollte man vor dem Bau mit einplanen. ;)


Auf was ich raus will ist daß wir ja nicht zwingend ein Medium brauchen das eine sehr lange Zeit überdauert. Es genügen wohl einige Jahre bis man die Daten auf ein neues Medium kopiert. Wir sind ja keine wissenschafltiche oder behördliche bzw. militärische Einrichtung wo man Dokumente, Informationen und Sonstiges für die "Ewigkeit" speichern will. Im Gegensatz dazu können wir ja alle paar Jahre all unsere Daten auf neue Medien übertragen - und das oft sehr schnell und sehr kostengünstig.
Dann liegen halt nach 20 Jahren ein paar USB 3.0 HDDs, Thunderbolt oder ePCI-E2 SSDs (bzw. was halt immer dann aktuell ist) die teils das selbe gespeichert haben im Safe/Schrank.
Das ist das Thema mit dem ständigen um kopieren auf neuere Datenträger/Techniken.
Wobei ich sehr stark bezweifele, dass USB 3.0, PCIe und Thunderbolt noch in 15-20 Jahren an einen dann aktuellen Rechner angeschlossen werden können.
PCIe und SATA stoßen jetzt schon wieder an technische Grenzen welche ein PCI-X 566 und 1066Mhz sowie U640 SCSI nicht mehr auf dem Markt erscheinen ließen.
Guck dir doch mal das krampfhafte festhalten an immer schnelleren Übertragungsverfahren bei Ethernet an. Bei 40 und 100Gbit werden einfach nur vier bzw. zehn LWL Fasernpaare in einem MPI-Kabel gebündelt um sagen zu können, dass dies ein Port ist. Schneller als 25Gbit/sec ist bisher noch keine (einzelne) optische Datenübertragung.

Künftige Serverprozessoren mit eingebauten Cluster-Schnittstellen | heise online
Speziell
Fuad Doany von IBM stellte in seiner Keynote (PDF-Datei) den Stand der Technik bei optischen HPC-Interconnects dar.
Seite 3, 11-14, 16, 19, 30 ist etwas für die Case-Modder ;) und die Seite 41.

Ist zwar klar, dass die Technik von "Supercomputern" nicht so schnell in normalen Desktop PCs umgesetzt wird, aber Intel hatte ja auch schon früh angefangen CPUs mittels optischer Datenübertragung auf dem Mainboard (im Labor) anzubinden. Inzwischen ist mit der Southbridge (PCH) auch schon so gut wie alles in CPUs integriert.
Ein Problem wie schon gesagt sind die Kunden selbst. Intel verkauft schon seit einiger Zeit mehr CPUs für diese Cluster als für den normalen PC-Markt, sei es nun an die großen OEMs oder an Großhändler welche den Einzelhandel beliefern.

Das Thema Cloud ist wohl auch ein Thema wenn es um Daten Sicherung geht. Wobei es halt eines mit sehr gemischten Gefühlen ist - zumindest bei mir. ...

Ist aber wohl ähnlich wie damals als es die ersten (Geld-)Banken gab. "Leg ich meine Goldmünzen auf die Bank oder lieber daheim unters Bett?" - hehe

Würde hier zum Thema Cloud aber auch gerne Erfahrungen und Meinungen anderer Leute hören da ich mich mit dem Thema noch kaum beschäftigt habe. Somit sorry falls meine Infos dazu falsch oder eine falsche Sichtweise sind.
Clouds sind nichts anderes als ungenutzte Resourcen großer Firmen. Wenn man entsprechende (Hoch) Verfügbarkeit und Redundanz haben will, muss man da auch entsprechend viel Geld hinlegen. Aber die Masse wird es nutzten, da ja frei/umsonst und doch so viel einfacher. ;)
Das Amazon und Co. in der Vergangenheit Kundendaten verloren haben ist auch nichts neues.

Genau das ist nochmal mein Punkt auf den ich raus will:
Wir brauchen ja keine Medien die für die Ewigkeit halten - wenn gute Platten (bei sehr seltener Nutzung) 5-10 Jahre halten ist das ja eh schon genug. Nach ein paar Jahren würde ich diese eben sowieso auf neue Medien übertragen ... und diese nach ein paar Jahren wieder etc.
Und die alten Medien halt zusätzlich behalten - vielleicht laufen die ja nach 15-20 Jahren bei Bedarf immer noch?
Das Problem bei aktueller Hardware und den Preisverfall den wir die letzten Jahre vor der Flut hatten:
Es gibt schon HDD-Serien bei denen die Kontakte oxidieren und diese auch bei nicht Benutzung dementsprechend nach einigen Jahren nicht mehr auslesbar sind. Mit reserve PCBs sieht es dann auch schlecht aus. :)

Bei Datenträgern gilt es wie bei keiner anderen Sache auch: You get what you pay for.

Schön das man sich mal mit jemanden ausführlicher über das Thema unterhalten kann. :)

---------- Post added at 10:25 ---------- Previous post was at 10:20 ----------

die meisten backup programme nutzen zip oder ein anderes archiv zur speicherung, also ist es leider nicht so einfach wie du es dir vorstellst.
Ich weiß ja nicht was du unter Backup Programm verstehst, bei mir sind dies eher dump, rsync, amanda und baccula.
Das die meisten tar Implementierungen nichts taugen wurde auch in der neueren Untersuchung festgestellt.
Wenn du daraus keine Konsequenzen ziehen kannst, ist dies dein persönliches Problem.
 
~ 1/3 des Dokumentes befasst sich damit!
Ist aber auch ziemlich zum Schluss noch einmal aufgeführt. Auch worauf die Tests basieren. In vernünftigen Dokumenten gibt es auch Literaturverweise.
 
nagut, durchlesen werde ich mit 1/3 des dokuments nicht. und naja, bis auf eine tabelle in der die festplatte ein - als datensicherung bekommen hat finde ich zum thema festplatten auch nicht :lol:
 
Es geht nicht um den Datenträger, aber Querlesen hast du anscheinend ja noch nicht gelernt. Oder denkst du ich lese alles komplett wenn mich mal schnell etwas interessiert? Genau kann man danach auch noch alles durchlesen, wenn es einen interessiert.

Oh, gibt sogar eine zweite Auflage:
So 15 Mai 2011 17:12:38 CEST
2. Auflage 2007
Dies ist Version 1.132 mit 107 Seiten, kompiliert am 15. Mai 2011 mit pdfLATEX
3.141592-1.21a-2.2 (Web2C 7.5.4).

Download, Inhaltsverzeichnis bis zum Literaturverzeichnis schnell durchgeschaut, klick auf den Link, und am Ende:
[Zwicky 1991] Zwicky, Elizabeth D.: Torture-testing Backup and Archive
Programs: Things You Ought to Know But Probably Would Rather Not.
In: Proceedings of the 5th Large Installation Systems Administration Conference.
San Jose, California : USENIX, October 1991, S. 1 – 13. – URL http://www.usenix.org/events/lisa03/tech/fullpapers/zwicky/zwicky.pdf
[Zwicky 2003] Zwicky, Elizabeth D.: Further Torture: More Testing of
Backup and Archive Programs. In: Proceedings of the 17th Large Installation
Systems Administration Conference. San Jose, California : USENIX, Octo-
ber 2003, S. 1 – 13. – URL LISA '03: 17th Large Installation Systems Administration Conference - Technical Sessions full_papers/zwicky/zwicky.pdf
Ist das so schwierig?
Wie gesagt, die Arbeit von 2003 ist nicht die letzte.

Gut, Kapitel 9 ist deutlich weniger als 1/3. Ist schon einige Jahre her, dass ich das Dokument gelesen habe.
Verweise aber gerne auf diese Arbeit, da so ziemlich alles an Themen der Software abgedeckt wird - bis auf die fehleranfälligen Datenträger.
 
Zuletzt bearbeitet:
DS 120 sind für Datenträger und nicht nur Dokumente und erwärmen sich selbst nach zwei Stunden Brand nicht auf über 30°C im inneren. Die normalen feuersicheren dürfen 50°C warm werden.
...

Klar - die sind für Disketten, Bänder und optische Medien wie CDs/DVDs gedacht. Bei denen ist eine hohe Temperatur schlecht - logisch.
Bei Festplatten ist das nicht so tragisch denke ich denn lt. Herstellerangaben kann man die etwa bei -40 bis 70°C lagern. Klar ist es nicht zu empfehlen die bei so extremen Werten zu lagern und ein spontaner Temperaturanstieg bzw. -abfall ist auch nicht gut (deswegen sollte man die Platten falls sie sehr kalt durch Transport / Lagerung sind auch immer etwas auf Raumtemperatur kommen lassen (liegend) bevor man sie in Betrieb nimmt.
Also ich hätte da nicht so Bendenken falls mal so ein Schrank im Falle eines Brandes 50 oder 60°C warm im Inneren wird bei Festplatten.
Nochmal - optimal ist das natürlich nicht, aber ein Brand ist halt nicht optimal :fresse:

...
Das ist das Thema mit dem ständigen um kopieren auf neuere Datenträger/Techniken.
Wobei ich sehr stark bezweifele, dass USB 3.0, PCIe und Thunderbolt noch in 15-20 Jahren an einen dann aktuellen Rechner angeschlossen werden können. ...
Naja "ständig" würde ich alle paar Jahre nicht bezeichnen. Und in diesen paar Jahren behaupte ich auch mal stark daß die Schnittstellen noch vorhanden sind um die alten Medien auszulesen.
Und so grosse Standards wie USB sterben auch nicht so rasch aus. Ich mein USB gibt es soweit ich mich zurückerinnere seit einigen späteren Sockel 7 (Pentium/MMX) Boards als Blendenausführung und wurde mit dem ATX Format (Pentium II/Athlon) fast immer auf der ATX Blende ausgeführt. Also vermute ich mal so 1997-1998 herum. Das sind schon gute 15 Jahre und ein Ende von USB bzw. dessen Wegfall ist derzeit noch nicht in Sicht. USB 3.0 ist noch ganz neu und Thunderbolt sowieso - ich denke das wird uns noch einige Jahre begleiten.

Klar schreitet die Technik in grossen Schritten voran, aber wie gesagt würde ich mal behaupten wenn ich jetzt eine externe USB 3.0 Platte kaufe daß ich die noch ohne Probleme in 5 Jahren an meinem dann aktuellen PC verwenden kann. Und das hätte ich auch als Zeitraum geschätzt wo man seine Backup Platten mal wechseln sollte (wenn noch schon früher) - dann natürlich gegen welche mit aktueller Schnittstelle.

...
Clouds sind nichts anderes als ungenutzte Resourcen großer Firmen. Wenn man entsprechende (Hoch) Verfügbarkeit und Redundanz haben will, muss man da auch entsprechend viel Geld hinlegen. Aber die Masse wird es nutzten, da ja frei/umsonst und doch so viel einfacher. ;)
Das Amazon und Co. in der Vergangenheit Kundendaten verloren haben ist auch nichts neues. ...
Ja oder Sony etc.
Ich schätze jedoch daß hier recht viel Potential drin steckt und bestimmt viele Leute (vor allem im Privatbereich) Cloud Storage als Sicherung nutzen werden. Wie gesagt sind die Anbieter ja doch deutlich besser ausgestattet als die meisten Privatpersonen.

...
Es gibt schon HDD-Serien bei denen die Kontakte oxidieren und diese auch bei nicht Benutzung dementsprechend nach einigen Jahren nicht mehr auslesbar sind. Mit reserve PCBs sieht es dann auch schlecht aus. :)
Klar sowas gibt es bestimmt. Ist mitunter auch eine Frage der Lagerung. Trotzdem vermute ich daß das eben bei einem "alle paar Jahre auswecheln" Rythmus selten der Fall ist.

...
Schön das man sich mal mit jemanden ausführlicher über das Thema unterhalten kann. ...
Ist ja auch ein interessantes Thema das bestimmt für viele von Bedeutung ist.

Bzgl. Archivprogrammen wie TAR, RAR, ZIP etc. ...
Hier könnte man ja auch Wiederherstellungsinformationen speichern, das bieten viele Programme an. Damit verliert man zwar wieder einiges an Platz bzw. an dem (falls genutzt) Komprimierungsplatzgewinn, aber man kann damit defekte Daten teilweise bis ganz wieder herstellen. Kann man unabhängig von Archivierungsprogrammen auch verwenden soviel ich weiß. (Stichwort Parität und Checksummen)
 
bleibt immer noch die frage warum ein archiv wie tar, rar usw. nun schlecht sein soll...
 
Das Problem ist, das es von allen nicht nur eine Version x gibt sondern dutzende Varianten. Und die wenigsten kommen mit "Problemen" klar. Alleine schon wenn die Datei vor dem Archivieren leere Bereiche enthalten hat.
Im alten Dokument von 1991 dürfte darüber mehr drinnen stehen. In der 2003er Version ist es ja schon fast nur noch eine Zusammenfassung.
Das Problem bei Archiven ist oft, dass die Zuordnung wo welche Datei darin enthalten ist und wie das Archiv komprimiert wurde oft nicht redundant abgespeichert wird. Ist dann quasi so, als ob du bei einem Buch das Inhaltsverzeichnis und die Seitennummern wegschmeißt.
Vergleichen kann man so etwas schlecht. Aber es dürfte reichen wenn du dir ein Archiv ohne Komprimierung mit mehreren ~ kbyte Textdateien mal in einem Hexeditor anschaust.
Da hilft es dann auch nicht viel, wenn die Nutzdaten aufgebläht werden.
 
Habe mal quergelesen, interessantes Thema.

So nun ist ehr zum entschlus gekommen das es mit DvDs ihm zulange dauert.
Werden es auf den platen lassen und ein Nas-System anschafen.

welches genau keine anung bin da raus macht ehr alles mit seinem Arbeitskollegen.

Ja es gibt leute die haben fotos ohne ende sind bearbeit und sotiert in Länder Stäte usw....
eine kamera ja der wahr gut :haha:
Das es nicht bilig wird ist ihm auch klar,mann hat halt nur ein hobby.

Ich bitte darum in Zukunft nicht mehr "ehr" und "platen" und "anung" usw. zu schreiben,
sonst setzt mein Hirn aus ....
 
Wieso hat noch keiner BD Rohlinge zur Sicherung empfohlen?
Mit einem aktuellen Pioneer Bd Brenner unter 80eu kann man sogar BDXL (100GB) und BDQL (128GB) brennen. Rohlinge dafür sind sehr teuer bzw. gibts noch nicht, aber 25GB Rohlinge kosten derzeit ab 1eu pro Stück. Damit bekommt man relativ günstig eine größere Menge an Daten weggeschafft und wenn in ein paar Monaten oder Jahren dann 50-100GB Rohlinge deutlich im Preis fallen dann ziehste deine Daten darauf um.
Dabei haste auch den Vorteil das deine herumstehenden BDs reduziert werden und du gleichzeitig eventuellen Alterserscheinungen vorgebeugt hast dadurch das du nach einigen Jahren wieder alles neu sicherst.
 
Ich würde meinen BDs sind super-empfindlich aufgrund der Datendichte und Dual-Layer fällt wohl aus den gleichen Gründen aus wie bei DVDs, der Laser muss ziemlich genau kalibriert sein damit er zweilagig sauber trennen kann.
 
Wieso hat noch keiner BD Rohlinge zur Sicherung empfohlen?
Mit einem aktuellen Pioneer Bd Brenner unter 80eu kann man sogar BDXL (100GB) und BDQL (128GB) brennen. Rohlinge dafür sind sehr teuer bzw. gibts noch nicht, aber 25GB Rohlinge kosten derzeit ab 1eu pro Stück. Damit bekommt man relativ günstig eine größere Menge an Daten weggeschafft und wenn in ein paar Monaten oder Jahren dann 50-100GB Rohlinge deutlich im Preis fallen dann ziehste deine Daten darauf um.
Dabei haste auch den Vorteil das deine herumstehenden BDs reduziert werden und du gleichzeitig eventuellen Alterserscheinungen vorgebeugt hast dadurch das du nach einigen Jahren wieder alles neu sicherst.
Das Problem bei mehrschichtigen optischen Datenträgern ist wie schon von hotzen angemerkt, dass nur noch ein sehr geringer Anteil an Licht von den zusätzlichen Schichten reflektiert wird. Des weiteren wurde bei Blue-Ray Discs inzwischen die Fertigung auch schon hin zu günstigeren Dye Materialien umgestellt. Sprich du hast dann genau so eine kurze Lebenserwartung von 3-24 Monaten wie bei den "aktuellen" billigen CD und DVD-Rohlingen. Die ersten 100GB Blue-Ray Discs gibts inzwischen schon zu kaufen. Wenn du dir dagegen ein LTO5 Magnetband für den selben Preis (~40 Euro) bei 1500GB und 160MB/sec konstant anschaust, darfst dich gerne verschaukelt fühlen. :)
15x Kapazität und ~ 10x Schreibgeschwindigkeit, wenn nicht sogar mehr.
Die im c't Artikel unter der damals neuen strengeren Norm getesteten günstigeren besten Rohlinge sollte man spätestens alle 5 Jahre um kopieren, das schaffen nur die TY. Bei den schon mehrmals angesprochenen Verbatim Archival Grades reicht es alle 18 Jahre!
 
Zuletzt bearbeitet:
alles andere als festplatten bei einem normalen heimanwender ist doch echt unsinnig...
 
Definiere normal. Ein normaler Heimanwender macht in der Regel gar keine Backups. Alle wollen dann aber gerne ein Restore, aber nur wenn es nicht zu viel kostet.
 
Das Problem bei mehrschichtigen optischen Datenträgern ist wie schon von hotzen angemerkt, dass nur noch ein sehr geringer Anteil an Licht von den zusätzlichen Schichten reflektiert wird. Des weiteren wurde bei Blue-Ray Discs inzwischen die Fertigung auch schon hin zu günstigeren Dye Materialien umgestellt. Sprich du hast dann genau so eine kurze Lebenserwartung von 3-24 Monaten wie bei den "aktuellen" billigen CD und DVD-Rohlingen. Die ersten 100GB Blue-Ray Discs gibts inzwischen schon zu kaufen. Wenn du dir dagegen ein LTO5 Magnetband für den selben Preis (~40 Euro) bei 1500GB und 160MB/sec konstant anschaust, darfst dich gerne verschaukelt fühlen. :)
15x Kapazität und ~ 10x Schreibgeschwindigkeit, wenn nicht sogar mehr.
Die im c't Artikel unter der damals neuen strengeren Norm getesteten günstigeren besten Rohlinge sollte man spätestens alle 5 Jahre um kopieren, das schaffen nur die TY. Bei den schon mehrmals angesprochenen Verbatim Archival Grades reicht es alle 18 Jahre!

Das mit der mehrschichtigen BDs leuchtet mir ein, aber die einschichtigen BDs würde ich dann noch nicht ganz abhaken als gutes Speichermedium.
Das Hauptproblem dürfte wohl sein, dass man nicht wieß wie lange die Disk am Ende hält, aber man weiß auch nicht wie lange eine Festplatte durchhält :d. Ich habe CDs hier die haben nach einigen Jahren sogar Teile ihrer Beschichtung verloren, ich habe aber auch noch etliche CDs hier die aus der Zeit von 2fach CD! Brennern stammen und noch einwandfrei funktionieren.
Das trifft vor allem auf die Mehrheit meiner CDs und DVDs zu, dass sie bisher immernoch lesbar sind.
Deshalb würde ich optische Datenträger noch nicht ganz abhaken, vorallem wenn sie nach wneigen Jahren nochmal neu gesichert werden. Ich vertraue einer Disk in der Hand irgendwie immernoch mehr wie einer HDD :d
 
Ich vertraue den Verbatim Archival Grades uneingeschränkt. Wenn du weißt was bei diesen Discs anders ist und auch mal die Randversiegelung abgetastet hast, dann weiste was dir auch bei den gepressten CDs/DVDs inzwischen für ein Müll angedreht wird.
Wenn man bei den optischen Discs bleibt sind das nächste die alten DVD-RAMs und MO-Medien (hab genug 9GB Laufwerke).
Ansonsten eher meiner Datensicherung auf den LTO-Bändern.
Danach kommen die neueren SAS und SCSI (letzte Modellgeneration mit Restgarantie) Festplatten, neben den Barracuda ES.2.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh