Also ich kenne schon eine Hand voll Leute die sowas im Keller haben. Und ja - teils wurde das Fundament extra dafür konstruiert und der Tresor vor Errichtung der Kellerdecke eingebaut. Allerdings muss man ja nicht gleich in Unternehmenswelten denken. Ein "kleiner, leichterer" Tresor mit Klasse S 60 für ein paar Dokumente, Schmuck, Wertpapiere und eben ein paar solcher Datenmedien sollte auch für den Privatanwender ausreichen. Kosten nicht die Welt, sind nicht sonderlich schwer und halten sicherlich auch einen kleineren Brand aus. (Klar - wenn das Haus komplett über mehrere Stunden abbrennt hilft der wohl nicht mehr, aber da wird es auch mit S 120 kritisch)
DS 120 sind für Datenträger und nicht nur Dokumente und erwärmen sich selbst nach zwei Stunden Brand nicht auf über 30°C im inneren. Die normalen feuersicheren dürfen 50°C warm werden.
Ein kleiner DS120 wiegt ca. 500kg, die größeren (richtigen) Schränke ~ 2000kg. Kostenpunkt 4000-10000 Euro.
Und ja, so etwas sollte man vor dem Bau mit einplanen.
Auf was ich raus will ist daß wir ja nicht zwingend ein Medium brauchen das eine sehr lange Zeit überdauert. Es genügen wohl einige Jahre bis man die Daten auf ein neues Medium kopiert. Wir sind ja keine wissenschafltiche oder behördliche bzw. militärische Einrichtung wo man Dokumente, Informationen und Sonstiges für die "Ewigkeit" speichern will. Im Gegensatz dazu können wir ja alle paar Jahre all unsere Daten auf neue Medien übertragen - und das oft sehr schnell und sehr kostengünstig.
Dann liegen halt nach 20 Jahren ein paar USB 3.0 HDDs, Thunderbolt oder ePCI-E2 SSDs (bzw. was halt immer dann aktuell ist) die teils das selbe gespeichert haben im Safe/Schrank.
Das ist das Thema mit dem ständigen um kopieren auf neuere Datenträger/Techniken.
Wobei ich sehr stark bezweifele, dass USB 3.0, PCIe und Thunderbolt noch in 15-20 Jahren an einen dann aktuellen Rechner angeschlossen werden können.
PCIe und SATA stoßen jetzt schon wieder an technische Grenzen welche ein PCI-X 566 und 1066Mhz sowie U640 SCSI nicht mehr auf dem Markt erscheinen ließen.
Guck dir doch mal das krampfhafte festhalten an immer schnelleren Übertragungsverfahren bei Ethernet an. Bei 40 und 100Gbit werden einfach nur vier bzw. zehn LWL Fasernpaare in einem MPI-Kabel gebündelt um sagen zu können, dass dies ein Port ist. Schneller als 25Gbit/sec ist bisher noch keine (einzelne) optische Datenübertragung.
Künftige Serverprozessoren mit eingebauten Cluster-Schnittstellen | heise online
Speziell
Fuad Doany von IBM stellte in seiner
Keynote (PDF-Datei) den Stand der Technik bei optischen HPC-Interconnects dar.
Seite 3, 11-14, 16, 19, 30 ist etwas für die Case-Modder
und die Seite 41.
Ist zwar klar, dass die Technik von "Supercomputern" nicht so schnell in normalen Desktop PCs umgesetzt wird, aber Intel hatte ja auch schon früh angefangen CPUs mittels optischer Datenübertragung auf dem Mainboard (im Labor) anzubinden. Inzwischen ist mit der Southbridge (PCH) auch schon so gut wie alles in CPUs integriert.
Ein Problem wie schon gesagt sind die Kunden selbst. Intel verkauft schon seit einiger Zeit mehr CPUs für diese Cluster als für den normalen PC-Markt, sei es nun an die großen OEMs oder an Großhändler welche den Einzelhandel beliefern.
Das Thema Cloud ist wohl auch ein Thema wenn es um Daten Sicherung geht. Wobei es halt eines mit sehr gemischten Gefühlen ist - zumindest bei mir. ...
Ist aber wohl ähnlich wie damals als es die ersten (Geld-)Banken gab. "Leg ich meine Goldmünzen auf die Bank oder lieber daheim unters Bett?" - hehe
Würde hier zum Thema Cloud aber auch gerne Erfahrungen und Meinungen anderer Leute hören da ich mich mit dem Thema noch kaum beschäftigt habe. Somit sorry falls meine Infos dazu falsch oder eine falsche Sichtweise sind.
Clouds sind nichts anderes als ungenutzte Resourcen großer Firmen. Wenn man entsprechende (Hoch) Verfügbarkeit und Redundanz haben will, muss man da auch entsprechend viel Geld hinlegen. Aber die Masse wird es nutzten, da ja frei/umsonst und doch so viel einfacher.
Das Amazon und Co. in der Vergangenheit Kundendaten verloren haben ist auch nichts neues.
Genau das ist nochmal mein Punkt auf den ich raus will:
Wir brauchen ja keine Medien die für die Ewigkeit halten - wenn gute Platten (bei sehr seltener Nutzung) 5-10 Jahre halten ist das ja eh schon genug. Nach ein paar Jahren würde ich diese eben sowieso auf neue Medien übertragen ... und diese nach ein paar Jahren wieder etc.
Und die alten Medien halt zusätzlich behalten - vielleicht laufen die ja nach 15-20 Jahren bei Bedarf immer noch?
Das Problem bei aktueller Hardware und den Preisverfall den wir die letzten Jahre vor der Flut hatten:
Es gibt schon HDD-Serien bei denen die Kontakte oxidieren und diese auch bei nicht Benutzung dementsprechend nach einigen Jahren nicht mehr auslesbar sind. Mit reserve PCBs sieht es dann auch schlecht aus.
Bei Datenträgern gilt es wie bei keiner anderen Sache auch:
You get what you pay for.
Schön das man sich mal mit jemanden ausführlicher über das Thema unterhalten kann.
---------- Post added at 10:25 ---------- Previous post was at 10:20 ----------
die meisten backup programme nutzen zip oder ein anderes archiv zur speicherung, also ist es leider nicht so einfach wie du es dir vorstellst.
Ich weiß ja nicht was du unter Backup Programm verstehst, bei mir sind dies eher dump, rsync, amanda und baccula.
Das die meisten tar Implementierungen nichts taugen wurde auch in der neueren Untersuchung festgestellt.
Wenn du daraus keine Konsequenzen ziehen kannst, ist dies dein persönliches Problem.