Festplatten-Demo: Toshiba zeigt HDD mit mehr als 30 TB

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.147
toshiba.png
Festplattenspeicher kann man sicherlich nie genug haben. Ob für Spiele, Bilder oder andere große Dateien: der Platzbedarf in der digitalen Welt nimmt kontinuierlich zu. Toshiba hat jetzt weitere Informationen zum kommenden MAS-MAMR-Aufzeichnungsverfahren (Microwave Assisted Switching Microwave Assisted Magnetic Recording) bekannt gegeben. Der Hersteller verspricht sich hiervon Festplatten mit einer Kapazität von 30 TB zu produzieren. Allerdings werden hierfür sowohl neue Plattern als auch modifizierte Lese-, bzw. Schreibköpfe benötigt.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde mich an der Stelle mal interesieren ob das ganze auch praktikabel ist um die Datendichte zu erhöhen ohne dabei auf Helium als Füllgas zurückgreifen zu müssen.
 
Naja, deutlich größere Kapazitäten ließen sich auch mit den herkömmlichen Techniken verwirklichen.
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe (Ein normales CD-Laufwerk hat halbe Bauhöhe!).
Da drin steckten 9 Platten mit zusammen 17 Köpfen.
Das Ding hatte nur 3 GB Kapazität, was damals aber riesig groß war.
3,5"-Laufwerke gabs damals nur mit max. 500 MB.
Mit solchen Monstern und heutigen Aufzeichnungstechniken wäre die 100 TB-Grenze schon lange gefallen.
 
Zuletzt bearbeitet:
Würde mich an der Stelle mal interesieren ob das ganze auch praktikabel ist um die Datendichte zu erhöhen ohne dabei auf Helium als Füllgas zurückgreifen zu müssen.
Was ist denn dein Problem mit Helium-Platten? Sie sind günstiger pro TB und effizienter zugleich.
 
Naja, deutlich größere Kapazitäten ließen sich auch mit den herkömmlichen Techniken verwirklichen.
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe (Ein normales CD-Laufwerk hat halbe Bauhöhe!).
Da drin steckten 9 Platten mit zusammen 17 Köpfen.
Das Ding hatte nur 3 GB Kapazität, was damals aber riesig groß war.
3,5"-Laufwerke gabs damals nur mit max. 500 MB.
Mit solchen Monstern und heutigen Aufzeichnungstechniken wäre die 100 TB-Grenze schon lange gefallen.

Vor 20 Jahren wäre 2002 ... damals gabs sicher schon Platten mit 60GB und mehr. Ich denke du meinst eher 25 bis 30 Jahre. So schnell geht die Zeit.

Aber auch moderne TB-Riesen haben 9 Platter ... und ich habe hier eine alte 3.5" mit voller Bauhöhe liegen, die hat sogar 10 Platter (wenn ich mich nicht verzählt hab...).

Eine 5.25" Platte will heute keiner mehr haben - Stromverbrauch und Lautstärke wären enorm. Dann lieber 2 bis 3 Platten a 20TB ...
 
Was ist denn dein Problem mit Helium-Platten? Sie sind günstiger pro TB und effizienter zugleich.
Das Helium als zusätzlicher point of failure und die Schwierigkeiten/Kosten bei der Datenwiederherstellung im Falle eines Defektes. Effizienz ist mir presönlich eher egal, die fällt für mich nicht merklich ins Gewicht.
Naja, deutlich größere Kapazitäten ließen sich auch mit den herkömmlichen Techniken verwirklichen.
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Okay, ich gebe zu da war meine Aussage nicht präzise genug wenn man Baugröße als Faktor miteinbezieht. Dachte das "Datendichte" da eindeutig genug wäre, aber offensichtlich hätte ich Datendichte/Platter/3,5 Zoll schreiben sollen.
 
Ah ja, haben die wirklich eine HDD mit >30TB "gezeigt" oder doch eher nur tolle Powerpoint Folien darüber? Ich habe ehrlich gesagt keine Lust mehr auf solche News. Von den tollen neuen Aufnahmetechniken und riesigen Kapazitäten fabulieren die Hersteller nun seit 15 Jahren. Seagate wollte 30TB zum Jahr 2010 liefern :haha: Ich glaube das, wenn ich die Dinger kaufen kann.
 
Ich sehe auch keinen Zusammenhang zwischen Überschrift und Artikel, weil die vermeintlich vorgestellte 30 TB Platte im Artikel nicht erwähnt wird.
 
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe (Ein normales CD-Laufwerk hat halbe Bauhöhe!).
Da drin steckten 9 Platten mit zusammen 17 Köpfen.
So einfach ist das nicht, bzw. hätte dann noch ganz andere Nachteile.
9 Platten haben heute auch 3,5" HDDs. Die gingen nur früher nicht so dünn.
Wenn man jetzt wieder volle Bauhöhe machen würde, hätte man wohl eher 25-30 Platten. Dafür brauchts dann auch entsprechend viele Köpfe. Und da kommt man dann schnell an Massenprobleme.
Auch die Disks selber haben eine wesentlich höhere Masse, weswegen die uralten 5,25"-Dinger auch nicht annähernd mit 7200rpm gedreht haben. Und ob die auch ruhig liefen? Ich denke eher nicht.
Abgesehen geht es ja eher um Speicherdichte. Wenn so ein 5,25" FH Monster 100TB hätte, wäre die Speicherdichte immernoch geringer als bei einer 3,5" mit 30TB.
Also wenn du 100TB brauchst, nimm doch einfach 4 von diesen 3,5" 30TB, dann hast sogar 120TB Speicherkapazität und 4x3,5" dürfte immernoch kleiner sein als 1x5,25" FH. :d

Und jaja, vor 20 Jahren... mein erster PC war 1992. Da waren 3,5" Platten schon üblich, ich hatte nie eine 5,25" FH, nichtmal eine 5,25" HH. Also wenn man sowas vor 30 Jahren noch hatte, war das eher schon Altbestand. :d
 
Die Überschrift ist mal wieder unpassende, denn Toshiba hat ja keine 30TB HDD gezeigt, wie die Überschrift behauptet, sondern den Weg auf dem sie dahin kommen wollen. Denn wie im Text steht, fehlt noch einiges bis damit wirklich 30TB HDDs erreicht werden:
Der Hersteller verspricht sich hiervon Festplatten mit einer Kapazität von 30 TB zu produzieren. Allerdings werden hierfür sowohl neue Plattern als auch modifizierte Lese-, bzw. Schreibköpfe benötigt.
Würde mich an der Stelle mal interesieren ob das ganze auch praktikabel ist um die Datendichte zu erhöhen ohne dabei auf Helium als Füllgas zurückgreifen zu müssen.
Das Helium hat nichts mit der Datendichte zu tun, sondern damit wie viele Platter man verbaut und damit welchen Abstand diese zueinander haben. Dabei geht es um die Luftwirbel die erzeugt werden und sich auf die Köpfe bzw. deren Ausleger auswirken, wenn die Platter zu dicht nebeneinander verbaut werden. Da Helium eine viel geringere Dichte als Luft hat, sind die Kräfte die da wirken dann auch entsprechend geringer und deshalb verwendet man Helium.

Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Nein, diese Formfaktoren wurden aus gutem Grund aufgegeben, da man hier viel zu lange Hebel und damit große Ausschläge bei Vibrationen hat. Die Abstände der Spuren sind heute im mittleren zweitstellen nm Bereich und die Köpfe werden im Teilkontakt mit der Oberfläche betrieben, da kann man sich keine größere Amplituden bei Vibrationen erlauben und die Vibrationen wird man nie zu 100% vermeiden können. Es hat ja auch seine Gründe, warum man bei den SAS Enterprise HDDs von 3.5" auf 2.5" gewechselt hat und warum der Durchmesser der Platter in den letzten 3.5" Generationen immer geringer geworden ist. Oder glaubst Du die Ingenieure bei den HDD Herstellern wäre sonst nicht auch schon längst auf diese einfache Idee gekommen?

Das man sich dafür dann als Genie feiern lassen kann, hat Musk ja bewiesen als er die 4680 Batterie vorgestellt hat!

Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe
Auch für die Bauhöhe gilt das Problem der Vibrationen, denn dadurch wird die Achse länger und da man sie ja schlecht in der Mitte lagern kann, wären damit die Amplituden größer die dann über die Platter entsprechend verstärkt werden.

Vor 20 Jahren waren die Datendichten und damit Dimensionen noch andere, aber heute haben wir fast 500.000 Spuren pro Zoll, bei der Exos X18 sind es "Track density, KTPI (ktracks/in avg.) 482". Dies sind 482.000 auf 25,4mm, also 18.976 Spuren pro mm oder ca. 19 pro µm und damit so alle 53nm eine Spur. Zum dergleich, dass ist praktisch genau die Gate Pitch eines Transistors einer Intel 14nm CPU (52nm) und die Transistor Gate Pitch ist mit 70nm sogar um einiges größer. Da kann man sich vielleicht vorstellen welche Präzision die HDDs heute schon erreicht haben und wie minimal die Amplituden von Vibrationen nur sein dürfen bevor sie zum Problem werden.

oder doch eher nur tolle Powerpoint Folien darüber?
Eben, aber es gilt eben leider immer öfter, dass schon das Erzählte reicht und nicht nur das Erreichte zählt.
Beitrag automatisch zusammengeführt:

hätte man wohl eher 25-30 Platten. Dafür brauchts dann auch entsprechend viele Köpfe. Und da kommt man dann schnell an Massenprobleme.
Neben den Vibrationen hätte man vor allem ein Kostenproblem, denn die Platter und ihre Köpfe sind einer der großen Kostenfaktoren einer HDD und zugleich steigt das Risiko von Ausfällen, wenn einer der Köpfe ein Problem hat. Von den technischen Problemen abgesehen, dürfte es nicht viel teurer sein diese Platten auf 3 HDDs zu verteilen, statt in einer zu verbauen und wenn es dann mehr Aufwendung für Garantiefälle gäbe, am Ende vielleicht sogar günstiger.
Abgesehen geht es ja eher um Speicherdichte.
So ist es, der Platz kostet im Rechenzentrum eine Menge Geld und die Maßeinheit auf die es am Ende ankommt ist da PB pro Rack statt TB/HDD.
 
Zuletzt bearbeitet:
Auch die Disks selber haben eine wesentlich höhere Masse, weswegen die uralten 5,25"-Dinger auch nicht annähernd mit 7200rpm gedreht haben. Und ob die auch ruhig liefen? Ich denke eher nicht.
Die Platte lief sehr ruhig, auch direkt mit der Hand drauf konnte man keine Vibrationen spüren.
Und mit 7200 UPM haben die damals auch nicht gedreht.
Eher in der Gegend von 4500 - 5400 UPM.
Aber hohe Drehzahlen müssen die ja gar nicht machen.
Als Datengrab reichen auch langsame Platten.
Wer es schnell haben will, nimmt eh SSDs.
Und FH muß man ja auch nicht nehmen.
HH reicht doch auch.

Im Übrigen:
In den 70ern gabs sogar mal 12"-Platten.
 
Eher in der Gegend von 4500 - 5400 UPM.
Eher so mit 3200 was ich auf die schnelle gefunden habe.

Als Datengrab reichen auch langsame Platten.
Als Backup ja, Als aktives Datengrab... ne, eher nicht. Das Problem ist nicht die Transfergeschwindigkeit sondern die Zugriffszeit und die steigt gerade mit langsamen Drehzahlen.
Ich würde auch mal davon ausgehen, das die dann wegen der größeren Teile noch teurer wären.
Das es ginge will ich gar nicht bezweifeln, aber sehr wohl das es sinnvoll wäre und vorallem der Markt das annehmen würde.

Wie gesagt, es ist wahrscheinlich einfacher und günstiger statt einer 5,25" drei 3,5" zu nehmen.
 
Das Helium als zusätzlicher point of failure und die Schwierigkeiten/Kosten bei der Datenwiederherstellung im Falle eines Defektes. Effizienz ist mir presönlich eher egal, die fällt für mich nicht merklich ins Gewicht.
Das mit dem Helium als Point of failure kann ich nicht so Recht nachvollziehen. Sollte wirklich ein Leck vorliegen wird einem das bei der Inbetriebnahme der Platte via S.M.A.R.T. mitgeteilt.

Und zu dem mit der Datenwiederherstellung. Wer speichert denn wichtige Daten Nicht-Redundant auf Spinning-Rust. Selbst bei konventionellen Platten ist der Erfolg einer Datenwiederherstellung nicht garantiert. Ist meiner Meinung kein Grund sich dem technologischen Fortschritt zu verweigern.

Ich nutze in meinen Servern seit über 2 Jahren ausschließlich Helium-Platten und kann mich eigentlich nicht beklagen.
 
Eher in der Gegend von 4500 - 5400 UPM.
Die letzten 5¼" HDDs, die Quantum Bigfoot hatte in den ersten beiden Generation 3600rpm und in den letzten beiden 4000rpm.
Aber hohe Drehzahlen müssen die ja gar nicht machen.
Die Frage ist eher, ob sie mehr machen könnte, denn wie gesagt spielen Vibrationen einen immer größere Rolle je höher die Datendichte wird. Die Masse und die Abstände zur Achse sind wegen des größeren Durchmessers bei 5¼" höher als bei 3½" und dazu geht die Drehzahl in die Momente im Quadrat ein.
Im Übrigen:
In den 70ern gabs sogar mal 12"-Platten.
Ja und von da an wurden die Datendichte immer höher und die Formfaktoren immer kleiner und dies hatte eben gute Gründe, die Leute die sowas entwickeln sind ja nicht alle blöd und wussten sehr wohl, dass sie bei mehr Durchmesser mehr Daten auf einem Platter unterbringen könnten und bei mehr Bauhöhe auch mehr Platter pro HDD und haben trotzdem ständig die Durchmesser und Bauhöhe verringert.
Das Problem ist nicht die Transfergeschwindigkeit sondern die Zugriffszeit und die steigt gerade mit langsamen Drehzahlen.
Und mit zunehmenden Durchmesser, da die Köpfe dann ja im Zweifel längere Wege zurücklegen müssen und außerdem müssten die Ausleger der Köpfe natürlich stabiler sein.
Das mit dem Helium als Point of failure kann ich nicht so Recht nachvollziehen.
Eben, ich auch nicht, es gibt keine Meldungen über haufenweise wegen Heliumverlust defekten HDDs, obwohl [URL=https://www.techpowerup.com/193800/hgst-ships-6-tb-ultrastar-he6-helium-filled-hard-drives]HGST ab Ende 2013 die He6 ausgeliefert hat, die erste mit Helium gefüllte HDD.

Außerdem sollte man sich besser Gedanken um seine Backupstrategie machen als über die Chancen einer Datenrettung, denn mit ordentlichen Backups braucht man keine Datenrettung!
 
Das mit dem Helium als Point of failure kann ich nicht so Recht nachvollziehen. Sollte wirklich ein Leck vorliegen wird einem das bei der Inbetriebnahme der Platte via S.M.A.R.T. mitgeteilt.
Jo, und das wäre an der Stelle eben ein zusätzlicher point of failure auf den ich getrost verzichten kann.

Das Helium entweicht dir halt zwangsläufig aus der Platte, weil dir Helium als kleinstes Molekül quasi durch alles durchdiffundiert. Ist eine Frage der Zeitspanne, aber auf meine alten ausrangiert Platten von vor zwanzig Jahren kann ich imemr noch zugreifen und muss mir keine Gedanken darüber machen wie gut die Festplatten verschweißt sind.

Und zu dem mit der Datenwiederherstellung. Wer speichert denn wichtige Daten Nicht-Redundant auf Spinning-Rust. Selbst bei konventionellen Platten ist der Erfolg einer Datenwiederherstellung nicht garantiert. Ist meiner Meinung kein Grund sich dem technologischen Fortschritt zu verweigern.
Die Redundanz hilft dir an der Stelle nicht weiter wenn dir deine redundante Platte auch ausfällt - Widerherstellung und Reparatur kann ein Faktor sein. Die Festplatte dafür mittels CNC-Fräse öffnen zu müssen wäre für mich ein Argument gegen die Anschaffung, ebenso die Unmöglichkeit das Gehäuse wieder mit Helium auffüllen zu können.

Die Heliumfüllung sehe ich an der Stelle ehrlich gesagt nicht als technologischen Fortschritt sondern als Krücke an. Wenn dein Speicher auf ein ohnehin knappes Gas angewiesen ist - welches auf diesem Planeten nichtmal schwerkraftgebunden ist - wäre das für mich ein Argument gegen den Einsatz so es es Alternativen gibt. Daher meine Frage ob der tatsächliche technologische Fortschritt einen Verzicht auf dieser Krücke möglich macht.
 
Eher so mit 3200 was ich auf die schnelle gefunden habe.
Das war damals eine Micropolis, Modell weiß ich leider nicht mehr.
Die Micropolis 1991WAV ist auch so ein Monster, allerdingt mit immerhin 9 GB.
Die dreht mit 5400 UPM.
Micropolis hatte damals diverse 5 1/4"-Platten mit 5400 UPM im Programm.
Auch z.B. die 1924-15 dreht mit 5400 UPM.

Auch eine Seagate ST-42000N dreht mit 5400 UPM.
Es gab also eine ganze Reihe von 5 1/4"-Platten mit 5400 UPM.
 
Das Helium entweicht dir halt zwangsläufig aus der Platte, weil dir Helium als kleinstes Molekül quasi durch alles durchdiffundiert.
Nein, es entweicht ja offenbar nicht aus den Heliumplatten und irgendwie haben es die HDD Hersteller geschafft, dass es eben nicht innerhalb der geplanten Nutzungsdauer (die bei HDDs üblicherweise 5 Jahre beträgt) durch ihre Gehäuse durchdiffundiert und nur weil Du nicht weißt wie sie das geschafft haben, heißt es nicht das sie es nicht geschafft haben können.
Ist eine Frage der Zeitspanne, aber auf meine alten ausrangiert Platten von vor zwanzig Jahren kann ich imemr noch zugreifen
Richtig, aber ob Du auf eine heutige HDD auch ohne Heliumfüllung in 20 Jahren noch zugreifen kannst, da habe ich auch meine Zweifel, denn abgesehen von der Heliumfüllung hat sich in den letzten rund 10 Jahren sehr, sehr viel bei HDDs geändert, nur haben die Hersteller dies nicht kommuniziert. So arbeiten die Köpfe jetzt im Teilkontaktbetrieb, seither gibt es bei HDDs ja auch ein Workload Rating welches es früher nicht gab und dies erfordert nicht nur eine spezielle Beschichtung der Köpfe und Platteroberfläche, sondern auch eine Schmierung, also Chemie die auch nicht ewig hält und ihre eigenen Probleme macht.

Dynamic Fly Height (DFH) 2.png


Wobei die Flughöhe hier großzügig dargestellt ist, in Wahrheit fliegen sie nicht über die höchsten "Hügel" hinweg, sonst bräuchte man die folgenden Maßnahmen nicht und hätte die dort beschriebenen Problem ja auch nicht, schon gar nicht den ganz unten genannten Karbonabrieb auf den Köpfen.

HDD HDI Head Disk Interface (1).png

HDD HDI Head Disk Interface 2 (1).png

HDD Head Wear (1).png


Wie man sieht hat sich bei HDDs viel verändert um auf die heutigen Datendichten kommen zu können, denn das Problem ist immer die geringere Magnetkraft der mit steigernder Datendichte zwangsläufig immer kleiner werdenden Schreibköpfe. Dies hat man mit der Senkung des Abstands der Köpfe zum Platter gelöst und musste vor etwa so 10 Jahren eben damit den Teilkontaktbetrieb in Kauf nehmen, immerhin gibt es seither praktisch kaum noch Headcrashes, da die Köpfe sowieso laufende in Kontakt mit der Oberfläche treten und beide durch Beschichtungen besser geschützt sind. Aber dies alles dürfte eben auch dafür sorgen, dass HDDs halt nicht mehr wenig halten, schon gar nicht wenn sie lange ungenutzt im Schrank liegen, weil es dann eben auch Probleme mit dem Schmiermittel gibt, welches sich halt lieber zu 3 oder 5 Lagen auftürmt, statt monolayer zu bleiben und dann bleibt eine entsprechend große Fläche ohne Schmiermittel.

WD gibt doch sogar an, dass einige von deren HDDs im Idle immer wieder rattern, wenn die Köpfe bewegt werden um das Schmiermittel zu verteilen.

Toshiba hat übrigens sogar Dual Heater Köpfe entwickelt um die Abstände der Lese und Schreibelemente zum Platter getrennt steuern zu können:

Dual-Heater (1).png


Auch hier wird die Oberfläche natürlich ganz flach gezeigt, was in den Dimensionen um die es hier geht aber nicht ist und die Elemente werden mit einem Abstand zu dieser flachen Oberfläche gezeichnet, den sie halt in Wahrheit nicht immer haben, sonst hätte man sie den ganzen Zirkus nämlich auch sparen können. Würden die Köpfe wirklich immer über die Oberfläche schweben, wozu bräuchte man dann eine getrennte Steuerung der Höhe für Lese- und Schreibelemente?

Aber die Hersteller reden nicht gerne über das Thema des Teilkontaktbetriebs mit den Folgen für die Oberflächen und eben das HDDs damit ein Workload Rating bekommen haben, also auch Verschleiß unterliegen der vom übertragen (dem gelesenen ebenso wie dem geschrieben) Datenvolumen abhängt, denn damals kamen SSDs auf und einer der frühen Kritikpunkte an ihnen war eben, dass sie nur ein beschränktes Schreibdatenvolumen haben, aber HDDs eben nicht. Da wollte man es den Kunden und der Presse wohl nicht unter die Nase reiben, dass sich dies gerade ändert und bei HDDs obendrein auch noch das gelesene Datenvolumen dazu zählt.

PS: Da man nun offenbar den Abstand der Köpfe nicht mehr senken kann, geht man nun dazu über die Ummagnetierung der Oberfläche, also das Schreiben der Daten, durch das Einbringen zusätzlicher Energie zu erleichtern, bei HAMR eben indem man nur einen Teil der Oberfläche so weit erwärmt, dass der schwächere Schreibkopf dann nur diesen erwärmten Teil wirklich ummagnetisiert, da aber ein Schmiermittel auf der Oberfläche ist, sollte auch klar sein das dies nicht mal eben so einfach zu machen ist.
 
Zuletzt bearbeitet:
Die Redundanz hilft dir an der Stelle nicht weiter wenn dir deine redundante Platte auch ausfällt - Widerherstellung und Reparatur kann ein Faktor sein. Die Festplatte dafür mittels CNC-Fräse öffnen zu müssen wäre für mich ein Argument gegen die Anschaffung, ebenso die Unmöglichkeit das Gehäuse wieder mit Helium auffüllen zu können.
Wenn die Redundante Platte ausfällt habe ich immer noch zwei redundante Backups.

Wenn du Spaß dabei hast deine Platten aufzuschrauben, wieso nicht. Ich sehe da ehrlich gesagt keinen Sinn dahinter. Daher macht es mir auch herzlich wenig aus, wenn Helium-Platten sich nicht öffnen lassen.

Die ökönomisch sinnvollere Lösung ist es ja sowieso die Platte einfach zu ersetzen. Die Zuverlässigkeit einmal aufgeschraubter Platten ist sowieso fragwürdig. Data-Recovery Unternehmen überspielen die Daten ja nicht ohne Grund auf eine neue Platte.
 
Allerdings fügt der Kopfverschleiß nur ein neues Element hinzu, HDDs sind ohnehin seit jeher Verschließteile. Wer darauf setzt, dass man nach x Jahren noch irgendwas lesen kann, der spielt mit dem Feuer, ganz egal um welches Modell es sich handelt und womit es gefüllt ist.

Aber es stimmt natürlich, dass die Heliumfüllung eher eine Notlösung darstellt, weil man technisch daran gescheitert ist, die Datendichte pro Platter schnell genug zu steigern und sich so eben mit zusätzlichen Platter beholfen hat.
 
Wer darauf setzt, dass man nach x Jahren noch irgendwas lesen kann, der spielt mit dem Feuer, ganz egal um welches Modell es sich handelt und womit es gefüllt ist.
Eben, die Langzeitarchivierung digitaler Daten ist eben aufwendiger als HDDs oder auch SSDs über Jahre irgendwo zu lagern.

Aber es stimmt natürlich, dass die Heliumfüllung eher eine Notlösung darstellt, weil man technisch daran gescheitert ist, die Datendichte pro Platter schnell genug zu steigern und sich so eben mit zusätzlichen Platter beholfen hat.
Das kann man so sehen, denn der Druck immer größere Kapazitäten zu bringen, ist natürlich hoch und durch das massiv gestiegen globale Datenvolumen bedingt und eben, weil die entscheidende Einheit PB/Rack ist. Aber man könnte auch genauso sagen, dass Multi-Core CPUs nur eine Notlösung darstellen, weil man technisch daran gescheitert ist, den Takt der CPUs schnell genug zu steigern und sich so eben mit mehr Kernen beholfen hat um die Rechenleistung der CPUs zu steigern. Aber genauso wie Multi-Core CPUs wird auch die Helium Technologien bleiben.
 
Naja, deutlich größere Kapazitäten ließen sich auch mit den herkömmlichen Techniken verwirklichen.
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe (Ein normales CD-Laufwerk hat halbe Bauhöhe!).
Da drin steckten 9 Platten mit zusammen 17 Köpfen.
Das Ding hatte nur 3 GB Kapazität, was damals aber riesig groß war.
3,5"-Laufwerke gabs damals nur mit max. 500 MB.
Mit solchen Monstern und heutigen Aufzeichnungstechniken wäre die 100 TB-Grenze schon lange gefallen.
Jup, sowas hatte ich auch. Groß wie zwei DVD-LWs und schwer ohne Ende. Aber bei mir schon 18 GB. Danach dann ein Satz Seagate 3.5", aber volle Höhe, also hoch wie ein DVD-LW, mit 50GB.
Wenn die gestartet haben ... Wie ne anlaufende Turbine.
 
Wenn du Spaß dabei hast deine Platten aufzuschrauben, wieso nicht. Ich sehe da ehrlich gesagt keinen Sinn dahinter. Daher macht es mir auch herzlich wenig aus, wenn Helium-Platten sich nicht öffnen lassen.
So komplex ist es garnicht eine Helium-Festplatte zu öffnen. Ich habe im April eine ST12000NE0007 aufgesägt und festgestellt, dass sich unter der deutlich dickeren Heliumsiegelschicht der Seagate auch ein normaler Festplattendeckel befindet. Man sollte also theoretisch das Heliumsiegel können und danach die Festplatte konventionell öffnen können.
 
Zuletzt bearbeitet:
Richtig, aber ob Du auf eine heutige HDD auch ohne Heliumfüllung in 20 Jahren noch zugreifen kannst, da habe ich auch meine Zweifel, denn abgesehen von der Heliumfüllung hat sich in den letzten rund 10 Jahren sehr, sehr viel bei HDDs geändert, nur haben die Hersteller dies nicht kommuniziert.
Ach Holt, deine Expertise in allen Ehren, aber das hat dann doch was von "Opa erzählt aus dem Krieg". Hört sich nett an, hat mit der Realität aber nicht unbedingt was zu tun.

Ungefragt hat sich in den letzten zehn Jahren einiges an der Technik getan - Schmiermittel auf den Plattern gehört allerdings nicht dazu. Das gibt es so nämlich schon seit Mitte der 90er, wenn nicht sogar deutlich früher. Die Stoffe die man dafür verwendet - bspw. Perfluorpolyether (PFPE) - sind so dermaßen unreaktiv, temperatur- und langzeitstabil dass man sie auch zur Schmierung von Bauteilen im Kontakt mit Schwefelsäure oder Salpetersäure sowie sämtlichen organischen Lösungsmittel und Karbonsäuren verwendet, bei Temperaturen von bis zu 300 °C. Auf Grund des großen Viskositätsbereiches und des niedrigen Dampdruckes setzt man die auch als Schmiermittel im Luft- und Raumfahrtbereich ein.

Da kann ich mich genausogut Fragen ob die Teflonbeschichtung meiner Bratpfanne Schaden nimmt wenn ich sie unbenutzt im Schrank liegt - oder ob das Wasser in meiner Sprudelflasche nach zwanzig Jahren immer noch bei Raumtemperatur flüssig ist.

So ich deine Präsentation da richtig verstehe ist die Arbeit im "Teilkontaktbereich" weder gewollt noch Usus - den Kontakt Kopf/Platter versucht man ja nach wie vor zu vermeiden, da sich das ganze negativ auf die Lebensdauer des Kopfes auswirkt. Auch hat man im ausgeschalteten Zustand schon grundsätzlich erstmal keinen Kontakt zwischen den beiden, da sich Festplatten ohne Stromversorgen meines Wissens nach nicht von alleine drehen, geschweige den Kopf aus der Parkposition schwenken. Ebenso "türmt" sich das Schmiermittel nicht spontan auf der Oberfläche auf. Das terraced spreading findet beim initialen Auftrag und ggf. bei Kontakt zwischen Kopf und Oberfläche statt. Einer der Punkte warum die PFPEs verwendet ist ja gerade ihre niedrige Oberflächenspannung, darüber hinaus sind die Schmiermittel ja extra dafür entwickelt worden sich nicht nur möglichst gleichmäßig und dauerhaft auf der Platteroberfläche zu verteilen, sondern nach einem Kontakt mit dem Kopf wieder in ihre Ausgangsform zurückzukehren.

Das alles ändert auch nichts daran, dass die Problematik bei Heliumplatten nicht auf magische Weise verschwindet - die tritt da immer noch zusätzlich auf (auch wenn sich auf Grund der thermischen Leitfähigkeit und unterschiedlichen Dichte Änderungen im Verhalten ergeben werden).
 
aber das hat dann doch was von "Opa erzählt aus dem Krieg". Hört sich nett an, hat mit der Realität aber nicht unbedingt was zu tun.
Dann kaufe halt keine HDDs mit Helium, lege deine HDDs einfach in den Keller und wenn sie nach 20 Jahren nicht mehr gehen, wende dich an ein Datenrettungsunternehmen.
 
Alternativ könntest du dich auch nicht ganz soweit aus dem Fenster lehnen mit deinen Behauptungen. Wie kommst du bitteschön auf den Trichter dass Lubrication auf den Plattern eine neue Entwicklung ist oder sich selbige bei Nichtbenutzung auftürmt. Dass das so nicht gnaz stimmen kann sollte dir eigentlich schon selber aufgefallen sein.
 
Einfach mal lesen was an Text auf den Bildern steht!
 
Dass Speichermedien nicht lange nutzbar sind (sei es Verschleiß oder Obsolenz der Technologie), ist nicht nur "Opa/Krieg", sondern sehr praxisrelevant. Datengräber, Archive, etc. sind ständig (und kostenintensiv) damit beschäftigt, Daten von bestehenden Datenträgern auf neue Datenträger zu überspielen. Auch ganz banale Gründe, wie z.B. das Erscheinen von 20-TB-HDDs (also verbesserte Produktleistung) kann ein Anlass dafür sein, von älteren bestehenden Datenträgern mit z.B. 10 TB massenhaft Daten zu überspielen, um kapazitätsmäßig am Ball zu bleiben.
Auch werden immer wieder mal Daten für den Katastrophenfall auf nicht-digitale read-only-Medien geschrieben; vor einigen Jahren waren da mal Glas(?)scheiben der letzte Schrei.


@ News:
"Microwave Assisted Switching Microwave Assisted Magnetic Recording"
Finde ich echt super, dass sogar im Ingenieurswesen auf knackige Bezeichnungen gesetzt wird... nicht XD
 
Datengräber, Archive, etc. sind ständig (und kostenintensiv) damit beschäftigt, Daten von bestehenden Datenträgern auf neue Datenträger zu überspielen.
Der besten Weg digitale Daten dauerhaft zu speichern ist eben sie "lebend" zu halten, also auf Storages die laufen und deren Hardware dann mit dem Ende der geplanten Nutzungsdauer ersetzt wird, Backups z.B. auf Tapes gehören natürlich dazu! Dies ist nicht billig und die meisten Heimanwender machen es deshalb auch nicht, sondern legen HDDs irgendwo ab und freuen sich, wenn diese nach Jahren noch wieder erkannt werden, meist ohne zu testen ob sie dann überhaupt noch lange genug durchhalten um wirklich alle Daten fehlerfrei lesen zu können, denn überlagerte Platten (genau wie solche die einen harten aber nicht gleich komplett tödlichen Sturz erlebt haben) funktionieren oft anfangs noch, machen aber nach Stunden oder Tage Probleme um dann komplett auszufallen.
 
Der besten Weg digitale Daten dauerhaft zu speichern ist eben sie "lebend" zu halten, also auf Storages die laufen und deren Hardware dann mit dem Ende der geplanten Nutzungsdauer ersetzt wird
Ist halt für viele Leute kompletter Overkill. Wenn es nur um wenige 100 GB Daten geht und die entsprechende Internetanbindung vorliegt, kann Cloud-Storage ja durchaus auch eine Option sein.

Backups z.B. auf Tapes gehören natürlich dazu!
Lohnt sich aufgrund der hohen Laufwerkskosten halt erst ab größeren Datemengen (ab 100 TB). Aber einmal angeschafft, überzeugt es definitiv durch die niedrigen Datenspeicherkosten (5€ pro TB vs 16€ bei HDDs).

Dies ist nicht billig und die meisten Heimanwender machen es deshalb auch nicht, sondern legen HDDs irgendwo ab und freuen sich, wenn diese nach Jahren noch wieder erkannt werden, meist ohne zu testen ob sie dann überhaupt noch lange genug durchhalten um wirklich alle Daten fehlerfrei lesen zu können, denn überlagerte Platten (genau wie solche die einen harten aber nicht gleich komplett tödlichen Sturz erlebt haben) funktionieren oft anfangs noch, machen aber nach Stunden oder Tage Probleme um dann komplett auszufallen.
Wenn man die Daten auf mehreren HDDs sichert und diese auch regelmäßig überprüft bzw. ersetzt ist dagegen ja wenig einzuwenden. Aber die wenigsten werden das halt so machen.

Und am Ende ist das Backup dann halt korrupt oder halt komplett futsch, weil sich nicht die Mühe gemacht wurde die Daten zu validieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh