HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.948
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Was ist denn dein Problem mit Helium-Platten? Sie sind günstiger pro TB und effizienter zugleich.Würde mich an der Stelle mal interesieren ob das ganze auch praktikabel ist um die Datendichte zu erhöhen ohne dabei auf Helium als Füllgas zurückgreifen zu müssen.
Naja, deutlich größere Kapazitäten ließen sich auch mit den herkömmlichen Techniken verwirklichen.
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe (Ein normales CD-Laufwerk hat halbe Bauhöhe!).
Da drin steckten 9 Platten mit zusammen 17 Köpfen.
Das Ding hatte nur 3 GB Kapazität, was damals aber riesig groß war.
3,5"-Laufwerke gabs damals nur mit max. 500 MB.
Mit solchen Monstern und heutigen Aufzeichnungstechniken wäre die 100 TB-Grenze schon lange gefallen.
Das Helium als zusätzlicher point of failure und die Schwierigkeiten/Kosten bei der Datenwiederherstellung im Falle eines Defektes. Effizienz ist mir presönlich eher egal, die fällt für mich nicht merklich ins Gewicht.Was ist denn dein Problem mit Helium-Platten? Sie sind günstiger pro TB und effizienter zugleich.
Okay, ich gebe zu da war meine Aussage nicht präzise genug wenn man Baugröße als Faktor miteinbezieht. Dachte das "Datendichte" da eindeutig genug wäre, aber offensichtlich hätte ich Datendichte/Platter/3,5 Zoll schreiben sollen.Naja, deutlich größere Kapazitäten ließen sich auch mit den herkömmlichen Techniken verwirklichen.
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
So einfach ist das nicht, bzw. hätte dann noch ganz andere Nachteile.Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe (Ein normales CD-Laufwerk hat halbe Bauhöhe!).
Da drin steckten 9 Platten mit zusammen 17 Köpfen.
Der Hersteller verspricht sich hiervon Festplatten mit einer Kapazität von 30 TB zu produzieren. Allerdings werden hierfür sowohl neue Plattern als auch modifizierte Lese-, bzw. Schreibköpfe benötigt.
Das Helium hat nichts mit der Datendichte zu tun, sondern damit wie viele Platter man verbaut und damit welchen Abstand diese zueinander haben. Dabei geht es um die Luftwirbel die erzeugt werden und sich auf die Köpfe bzw. deren Ausleger auswirken, wenn die Platter zu dicht nebeneinander verbaut werden. Da Helium eine viel geringere Dichte als Luft hat, sind die Kräfte die da wirken dann auch entsprechend geringer und deshalb verwendet man Helium.Würde mich an der Stelle mal interesieren ob das ganze auch praktikabel ist um die Datendichte zu erhöhen ohne dabei auf Helium als Füllgas zurückgreifen zu müssen.
Nein, diese Formfaktoren wurden aus gutem Grund aufgegeben, da man hier viel zu lange Hebel und damit große Ausschläge bei Vibrationen hat. Die Abstände der Spuren sind heute im mittleren zweitstellen nm Bereich und die Köpfe werden im Teilkontakt mit der Oberfläche betrieben, da kann man sich keine größere Amplituden bei Vibrationen erlauben und die Vibrationen wird man nie zu 100% vermeiden können. Es hat ja auch seine Gründe, warum man bei den SAS Enterprise HDDs von 3.5" auf 2.5" gewechselt hat und warum der Durchmesser der Platter in den letzten 3.5" Generationen immer geringer geworden ist. Oder glaubst Du die Ingenieure bei den HDD Herstellern wäre sonst nicht auch schon längst auf diese einfache Idee gekommen?Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Auch für die Bauhöhe gilt das Problem der Vibrationen, denn dadurch wird die Achse länger und da man sie ja schlecht in der Mitte lagern kann, wären damit die Amplituden größer die dann über die Platter entsprechend verstärkt werden.Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe
Eben, aber es gilt eben leider immer öfter, dass schon das Erzählte reicht und nicht nur das Erreichte zählt.oder doch eher nur tolle Powerpoint Folien darüber?
Neben den Vibrationen hätte man vor allem ein Kostenproblem, denn die Platter und ihre Köpfe sind einer der großen Kostenfaktoren einer HDD und zugleich steigt das Risiko von Ausfällen, wenn einer der Köpfe ein Problem hat. Von den technischen Problemen abgesehen, dürfte es nicht viel teurer sein diese Platten auf 3 HDDs zu verteilen, statt in einer zu verbauen und wenn es dann mehr Aufwendung für Garantiefälle gäbe, am Ende vielleicht sogar günstiger.hätte man wohl eher 25-30 Platten. Dafür brauchts dann auch entsprechend viele Köpfe. Und da kommt man dann schnell an Massenprobleme.
So ist es, der Platz kostet im Rechenzentrum eine Menge Geld und die Maßeinheit auf die es am Ende ankommt ist da PB pro Rack statt TB/HDD.Abgesehen geht es ja eher um Speicherdichte.
Die Platte lief sehr ruhig, auch direkt mit der Hand drauf konnte man keine Vibrationen spüren.Auch die Disks selber haben eine wesentlich höhere Masse, weswegen die uralten 5,25"-Dinger auch nicht annähernd mit 7200rpm gedreht haben. Und ob die auch ruhig liefen? Ich denke eher nicht.
Eher so mit 3200 was ich auf die schnelle gefunden habe.Eher in der Gegend von 4500 - 5400 UPM.
Als Backup ja, Als aktives Datengrab... ne, eher nicht. Das Problem ist nicht die Transfergeschwindigkeit sondern die Zugriffszeit und die steigt gerade mit langsamen Drehzahlen.Als Datengrab reichen auch langsame Platten.
Das mit dem Helium als Point of failure kann ich nicht so Recht nachvollziehen. Sollte wirklich ein Leck vorliegen wird einem das bei der Inbetriebnahme der Platte via S.M.A.R.T. mitgeteilt.Das Helium als zusätzlicher point of failure und die Schwierigkeiten/Kosten bei der Datenwiederherstellung im Falle eines Defektes. Effizienz ist mir presönlich eher egal, die fällt für mich nicht merklich ins Gewicht.
Die letzten 5¼" HDDs, die Quantum Bigfoot hatte in den ersten beiden Generation 3600rpm und in den letzten beiden 4000rpm.Eher in der Gegend von 4500 - 5400 UPM.
Die Frage ist eher, ob sie mehr machen könnte, denn wie gesagt spielen Vibrationen einen immer größere Rolle je höher die Datendichte wird. Die Masse und die Abstände zur Achse sind wegen des größeren Durchmessers bei 5¼" höher als bei 3½" und dazu geht die Drehzahl in die Momente im Quadrat ein.Aber hohe Drehzahlen müssen die ja gar nicht machen.
Ja und von da an wurden die Datendichte immer höher und die Formfaktoren immer kleiner und dies hatte eben gute Gründe, die Leute die sowas entwickeln sind ja nicht alle blöd und wussten sehr wohl, dass sie bei mehr Durchmesser mehr Daten auf einem Platter unterbringen könnten und bei mehr Bauhöhe auch mehr Platter pro HDD und haben trotzdem ständig die Durchmesser und Bauhöhe verringert.Im Übrigen:
In den 70ern gabs sogar mal 12"-Platten.
Und mit zunehmenden Durchmesser, da die Köpfe dann ja im Zweifel längere Wege zurücklegen müssen und außerdem müssten die Ausleger der Köpfe natürlich stabiler sein.Das Problem ist nicht die Transfergeschwindigkeit sondern die Zugriffszeit und die steigt gerade mit langsamen Drehzahlen.
Eben, ich auch nicht, es gibt keine Meldungen über haufenweise wegen Heliumverlust defekten HDDs, obwohl [URL=https://www.techpowerup.com/193800/hgst-ships-6-tb-ultrastar-he6-helium-filled-hard-drives]HGST ab Ende 2013 die He6 ausgeliefert hat, die erste mit Helium gefüllte HDD.Das mit dem Helium als Point of failure kann ich nicht so Recht nachvollziehen.
Jo, und das wäre an der Stelle eben ein zusätzlicher point of failure auf den ich getrost verzichten kann.Das mit dem Helium als Point of failure kann ich nicht so Recht nachvollziehen. Sollte wirklich ein Leck vorliegen wird einem das bei der Inbetriebnahme der Platte via S.M.A.R.T. mitgeteilt.
Die Redundanz hilft dir an der Stelle nicht weiter wenn dir deine redundante Platte auch ausfällt - Widerherstellung und Reparatur kann ein Faktor sein. Die Festplatte dafür mittels CNC-Fräse öffnen zu müssen wäre für mich ein Argument gegen die Anschaffung, ebenso die Unmöglichkeit das Gehäuse wieder mit Helium auffüllen zu können.Und zu dem mit der Datenwiederherstellung. Wer speichert denn wichtige Daten Nicht-Redundant auf Spinning-Rust. Selbst bei konventionellen Platten ist der Erfolg einer Datenwiederherstellung nicht garantiert. Ist meiner Meinung kein Grund sich dem technologischen Fortschritt zu verweigern.
Ich habe eine ST19171W von 1997 mit 9-Plattern bei 7200 rpm. In den 90ern gings schnon vorwärts. Kurz darauf kam ja auch die Quantum Atlas 10KEher so mit 3200 was ich auf die schnelle gefunden habe.
ST12400N? Gib her!Aber auch moderne TB-Riesen haben 9 Platter ... und ich habe hier eine alte 3.5" mit voller Bauhöhe liegen, die hat sogar 10 Platter (wenn ich mich nicht verzählt hab...).
Das war damals eine Micropolis, Modell weiß ich leider nicht mehr.Eher so mit 3200 was ich auf die schnelle gefunden habe.
Nein, es entweicht ja offenbar nicht aus den Heliumplatten und irgendwie haben es die HDD Hersteller geschafft, dass es eben nicht innerhalb der geplanten Nutzungsdauer (die bei HDDs üblicherweise 5 Jahre beträgt) durch ihre Gehäuse durchdiffundiert und nur weil Du nicht weißt wie sie das geschafft haben, heißt es nicht das sie es nicht geschafft haben können.Das Helium entweicht dir halt zwangsläufig aus der Platte, weil dir Helium als kleinstes Molekül quasi durch alles durchdiffundiert.
Richtig, aber ob Du auf eine heutige HDD auch ohne Heliumfüllung in 20 Jahren noch zugreifen kannst, da habe ich auch meine Zweifel, denn abgesehen von der Heliumfüllung hat sich in den letzten rund 10 Jahren sehr, sehr viel bei HDDs geändert, nur haben die Hersteller dies nicht kommuniziert. So arbeiten die Köpfe jetzt im Teilkontaktbetrieb, seither gibt es bei HDDs ja auch ein Workload Rating welches es früher nicht gab und dies erfordert nicht nur eine spezielle Beschichtung der Köpfe und Platteroberfläche, sondern auch eine Schmierung, also Chemie die auch nicht ewig hält und ihre eigenen Probleme macht.Ist eine Frage der Zeitspanne, aber auf meine alten ausrangiert Platten von vor zwanzig Jahren kann ich imemr noch zugreifen
Wenn die Redundante Platte ausfällt habe ich immer noch zwei redundante Backups.Die Redundanz hilft dir an der Stelle nicht weiter wenn dir deine redundante Platte auch ausfällt - Widerherstellung und Reparatur kann ein Faktor sein. Die Festplatte dafür mittels CNC-Fräse öffnen zu müssen wäre für mich ein Argument gegen die Anschaffung, ebenso die Unmöglichkeit das Gehäuse wieder mit Helium auffüllen zu können.
Eben, die Langzeitarchivierung digitaler Daten ist eben aufwendiger als HDDs oder auch SSDs über Jahre irgendwo zu lagern.Wer darauf setzt, dass man nach x Jahren noch irgendwas lesen kann, der spielt mit dem Feuer, ganz egal um welches Modell es sich handelt und womit es gefüllt ist.
Das kann man so sehen, denn der Druck immer größere Kapazitäten zu bringen, ist natürlich hoch und durch das massiv gestiegen globale Datenvolumen bedingt und eben, weil die entscheidende Einheit PB/Rack ist. Aber man könnte auch genauso sagen, dass Multi-Core CPUs nur eine Notlösung darstellen, weil man technisch daran gescheitert ist, den Takt der CPUs schnell genug zu steigern und sich so eben mit mehr Kernen beholfen hat um die Rechenleistung der CPUs zu steigern. Aber genauso wie Multi-Core CPUs wird auch die Helium Technologien bleiben.Aber es stimmt natürlich, dass die Heliumfüllung eher eine Notlösung darstellt, weil man technisch daran gescheitert ist, die Datendichte pro Platter schnell genug zu steigern und sich so eben mit zusätzlichen Platter beholfen hat.
Jup, sowas hatte ich auch. Groß wie zwei DVD-LWs und schwer ohne Ende. Aber bei mir schon 18 GB. Danach dann ein Satz Seagate 3.5", aber volle Höhe, also hoch wie ein DVD-LW, mit 50GB.Naja, deutlich größere Kapazitäten ließen sich auch mit den herkömmlichen Techniken verwirklichen.
Man muß dafür nur alte, nicht mehr produzierte Formfaktoren aus der Versenkung holen.
Z.B. 5 1/4"-Platten.
Vor ca. 20 Jahren hatte ich mal eine 5 1/4" SCSI-Platte mit voller Bauhöhe (Ein normales CD-Laufwerk hat halbe Bauhöhe!).
Da drin steckten 9 Platten mit zusammen 17 Köpfen.
Das Ding hatte nur 3 GB Kapazität, was damals aber riesig groß war.
3,5"-Laufwerke gabs damals nur mit max. 500 MB.
Mit solchen Monstern und heutigen Aufzeichnungstechniken wäre die 100 TB-Grenze schon lange gefallen.
So komplex ist es garnicht eine Helium-Festplatte zu öffnen. Ich habe im April eine ST12000NE0007 aufgesägt und festgestellt, dass sich unter der deutlich dickeren Heliumsiegelschicht der Seagate auch ein normaler Festplattendeckel befindet. Man sollte also theoretisch das Heliumsiegel können und danach die Festplatte konventionell öffnen können.Wenn du Spaß dabei hast deine Platten aufzuschrauben, wieso nicht. Ich sehe da ehrlich gesagt keinen Sinn dahinter. Daher macht es mir auch herzlich wenig aus, wenn Helium-Platten sich nicht öffnen lassen.
Ach Holt, deine Expertise in allen Ehren, aber das hat dann doch was von "Opa erzählt aus dem Krieg". Hört sich nett an, hat mit der Realität aber nicht unbedingt was zu tun.Richtig, aber ob Du auf eine heutige HDD auch ohne Heliumfüllung in 20 Jahren noch zugreifen kannst, da habe ich auch meine Zweifel, denn abgesehen von der Heliumfüllung hat sich in den letzten rund 10 Jahren sehr, sehr viel bei HDDs geändert, nur haben die Hersteller dies nicht kommuniziert.
Dann kaufe halt keine HDDs mit Helium, lege deine HDDs einfach in den Keller und wenn sie nach 20 Jahren nicht mehr gehen, wende dich an ein Datenrettungsunternehmen.aber das hat dann doch was von "Opa erzählt aus dem Krieg". Hört sich nett an, hat mit der Realität aber nicht unbedingt was zu tun.
Der besten Weg digitale Daten dauerhaft zu speichern ist eben sie "lebend" zu halten, also auf Storages die laufen und deren Hardware dann mit dem Ende der geplanten Nutzungsdauer ersetzt wird, Backups z.B. auf Tapes gehören natürlich dazu! Dies ist nicht billig und die meisten Heimanwender machen es deshalb auch nicht, sondern legen HDDs irgendwo ab und freuen sich, wenn diese nach Jahren noch wieder erkannt werden, meist ohne zu testen ob sie dann überhaupt noch lange genug durchhalten um wirklich alle Daten fehlerfrei lesen zu können, denn überlagerte Platten (genau wie solche die einen harten aber nicht gleich komplett tödlichen Sturz erlebt haben) funktionieren oft anfangs noch, machen aber nach Stunden oder Tage Probleme um dann komplett auszufallen.Datengräber, Archive, etc. sind ständig (und kostenintensiv) damit beschäftigt, Daten von bestehenden Datenträgern auf neue Datenträger zu überspielen.
Ist halt für viele Leute kompletter Overkill. Wenn es nur um wenige 100 GB Daten geht und die entsprechende Internetanbindung vorliegt, kann Cloud-Storage ja durchaus auch eine Option sein.Der besten Weg digitale Daten dauerhaft zu speichern ist eben sie "lebend" zu halten, also auf Storages die laufen und deren Hardware dann mit dem Ende der geplanten Nutzungsdauer ersetzt wird
Lohnt sich aufgrund der hohen Laufwerkskosten halt erst ab größeren Datemengen (ab 100 TB). Aber einmal angeschafft, überzeugt es definitiv durch die niedrigen Datenspeicherkosten (5€ pro TB vs 16€ bei HDDs).Backups z.B. auf Tapes gehören natürlich dazu!
Wenn man die Daten auf mehreren HDDs sichert und diese auch regelmäßig überprüft bzw. ersetzt ist dagegen ja wenig einzuwenden. Aber die wenigsten werden das halt so machen.Dies ist nicht billig und die meisten Heimanwender machen es deshalb auch nicht, sondern legen HDDs irgendwo ab und freuen sich, wenn diese nach Jahren noch wieder erkannt werden, meist ohne zu testen ob sie dann überhaupt noch lange genug durchhalten um wirklich alle Daten fehlerfrei lesen zu können, denn überlagerte Platten (genau wie solche die einen harten aber nicht gleich komplett tödlichen Sturz erlebt haben) funktionieren oft anfangs noch, machen aber nach Stunden oder Tage Probleme um dann komplett auszufallen.