Die Kapazitäten steigen stetig: Seagate plant 30 TB HDD für 2023

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.948
Die Fluchtrichtung der Festplatte ist die Steigerung ihrer Kapazität. Und bisher geht die Strategie auf, um die Koexistenz zu den Flashspeichern zu rechtfertigen. Die hohe Kapazität bei vergleichsweise geringen Anschaffungskosten stehen dabei den immer schnelleren SSDs gegenüber, die nur recht langsam an Kapazität zunehmen und wenn dann doch noch immer recht teuer sind, wenn sie mehrere Terabyte fassen sollen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das liegt wohl eher am Preis....
"Normale" user legen nicht 1k € für ne HDD hin.
 
Weiß man schon, ob diese neue Datendichte dann auch ohne SMR erreicht wird, oder kommt das noch oben drauf?
 
Wir sind doch schon seit 2020 bei 50TB pro Platte, zuminderst wenn man Aussagen von 2015 Glauben schenken darf.

Ich denke ich hole Ende 2023 diesen Beitrag nochmal hoch....
 
Irgendwie habe ich Zweifel an der Langlebigkeit von HAMR Platten. Und Seagate schafft es mit den wenigen Daten nicht diese auszuräumen.
Dabei wären die großen Speicher als Datengrab geradezu optimal, allerdings habe ich das Gefühl das hier Langlebigkeit gegen Größe aufgewogen wird.

Andererseits scheint SMR ja auch nicht zu implodieren.
kA. eventuell sehe ich das alles zu negativ und Seagate überzeugt demnächst?
 
Jährlich grüßt das Murmeltier bezüglich HAMR. Also die Technik wurde schon 2017 angekündigt.

Seltsamerweise bringt die Industrie auch keine 3,5"-SATA/SAS-SSDs. Die sollten doch auch gut laufen und könnten mit TLC heute auch einfach 20 TB plus erreichen. Kennt einer die Gründe warum es diese nicht gibt?
 
@Nemetron Es gibt ja schon 100TB 3,5" SSDs, ich weiß nur nicht welcher Flashtyp genau zum Einsatz kommt.
 
@karta03 Flash Gordon eventuell 🤔🤭🤷
 
Das liegt wohl eher am Preis....
"Normale" user legen nicht 1k € für ne HDD hin.
Zwar kennen wir die Preise noch gar nicht, aber sie werden pro TB sicher nicht billiger als aktuelle 18TB oder 20TB HDDs werden. Außerdem richten diese HDDs sich gar nicht an den normalen Privatkunden, sondern an Betreiber großer Storages und da ergibt sich dann eine andere Rechnung, nämlich nicht mehr der Preis pro TB der HDD, sondern der pro Storage Rack mit allem was da sonst noch drin und drum (wie z.B. Stromverbrauch, auch die Klimaanlage, Netzwerkanbindung) im Verhältnis zu dessen Kapazität. Die bekommen diese HDDs auch anfangs, bis der normale Endkunde sich im Handel kaufen kann, dürfte also noch dauern:

Weiß man schon, ob diese neue Datendichte dann auch ohne SMR erreicht wird, oder kommt das noch oben drauf?
Im Artikel bei Anandtech zu dem Thema wird SMR nur für die neuen 22TB und 24TB HDDs genannt:
Demnach ist die 22TB also CMR und die 24TB dann SMR. Für die 30TB HAMR würde ich aber eher mit CMR rechnen oder mit einer SMR und einer CMR Version, auch wenn letztere dann weniger als 30TB hat.

könnten mit TLC heute auch einfach 20 TB plus erreichen. Kennt einer die Gründe warum es diese nicht gibt?
Die gibt es doch schon, neben der erwähnten 100TB, die eher ein Exot sein dürfte, bietet Samsung schon seit fast 5 Jahren die 30,72TB PM1643 SAS Enterprise SSD an und dies ist eine 2.5" (15mm hoch, wie bei Enterprise 2.5" üblich). Es ist also nicht der Platz im Gehäuse, sondern es dürften eher die Kosten sein, die solche SSDs weniger interessant machen. NAND kostet im Prinzip pro TB immer gleich viel, wenn man 32TB in so einer SSD verbaut kostet das NAND darin 32 mal so viel wie das NAND einer 1TB SSD, dazu braucht man dann auch noch einen Controller der so viel NAND und den dazugehörenden DRAM Cache ansprechen kann. Alternativ macht man es wie in der 100TB SSD und nimmt mehrere SSD Controller und einen RAID Controller.

Gerade HAMR ist aber nun eine Lösung um die Datendichte zu erhöhen und wird damit auf Dauer nicht nur noch höhere Kapazitäten, sondern vor allem auch einen günstigeren Preis pro TB ermöglichen, sobald Produktion der nötigen Technik ausgereift ist und entsprechende Volumen erreicht.
 
Wenn ich mir überlege, wie hoch die Datenbreite der HDDs von 20 bis 30 Jahren hatten, dann finde ich das eine enorme Entwicklung. Als Datengrab werden mechanische HDDs immer einen Platz haben, denke ich mal.
Ich bin jetzt kein Experte dafür, aber ich glaube, dass Datensammlungen auf HDD und anschließender Lagerung auf längerer Sicht stabiler ist als SSDs (z.B. nicht im System eingebunden)?
Gut, ich denke im System eingebundene HDDs werden rechtzeitig vor Ausfall ausgetauscht, aber es gibt auch Szenarien in der Wissenschaft, wo Daten auf HDD gesammelt und gelagert werden, um später die Auswertungen zu beginnen.
Dann frage ich mich auch, ob die SAS(SCSI)/Sata Schnittstelle allmählich in Rente gehen sollte, weil sie bei der Bandbreite limitiert? Für den Ottonormalverbraucher sicher über längerem Zeitraum kein Thema, aber für Rechenzentren sicher relevant.
 
Als Datengrab werden mechanische HDDs immer einen Platz haben, denke ich mal.
Solange sie pro TB günstiger als SSDs sind, was sie sehr wahrscheinlich noch eine ganze Weile sein werden, auf jeden Fall.

Ich bin jetzt kein Experte dafür, aber ich glaube, dass Datensammlungen auf HDD und anschließender Lagerung auf längerer Sicht stabiler ist als SSDs (z.B. nicht im System eingebunden)?
Nicht wirklich, denn auch HDDs altern wenn sie nicht genutzt werden und sollten daher nicht länger als ein Jahr unbenutzt gelagert werden. Die JEDES219 verlangt auch für Client SSDs 12 Monate Data Retention Time bei 30°C Lagertemperatur, je nach Quelle verdoppelt sich diese Zeit alle 5 oder 10°C weniger, womit entsprechend kühl gelagerte SSDs im Vorteil wären. Die sichere langfristige Lagerung digitales Daten ist eben aufwendiger und teuer als einfach HDDs oder SSDs zu Beschreiben und irgendwo zu lagern. Am besten ist es sie lebend zu halten, also auf aktiven Storages wo dann die Platten regelmäßig gewechselt werden.

Dann frage ich mich auch, ob die SAS(SCSI)/Sata Schnittstelle allmählich in Rente gehen sollte, weil sie bei der Bandbreite limitiert?
Zwar gibt es eine Initiative auch bei HDDs auch NVMe und damit eine PCIe Anbindung zu wechseln, aber auch 30TB HDDs werden SATA 6Gb/s nicht ausreizen können. Wenn die Datendichte verdoppelt wird, steigt die Übertragungsraten ja nur ungefähr um so 1,4, also Wurzel aus 2, denn während es zwar mehr Sektoren auf eine Spur gibt, gibt es genauso auch mehr Spuren und die aktuellen 20TB HDDs schaffen es gerade so die Datenrate von SATA 3Gb/s auszureizen und dies auch nur auf den äußersten Spuren wo am meisten Sektoren Platz haben. Die Datendichte müsste sich also Vervierfachen, was dann 80TB pro HDD wären, bevor sie dies auch bei SATA 6Gb/s schaffen werden.
 
Nicht wirklich, denn auch HDDs altern wenn sie nicht genutzt werden und sollten daher nicht länger als ein Jahr unbenutzt gelagert werden. Die JEDES219 verlangt auch für Client SSDs 12 Monate Data Retention Time bei 30°C Lagertemperatur, je nach Quelle verdoppelt sich diese Zeit alle 5 oder 10°C weniger, womit entsprechend kühl gelagerte SSDs im Vorteil wären. Die sichere langfristige Lagerung digitales Daten ist eben aufwendiger und teuer als einfach HDDs oder SSDs zu Beschreiben und irgendwo zu lagern. Am besten ist es sie lebend zu halten, also auf aktiven Storages wo dann die Platten regelmäßig gewechselt werden.
Schon interessant, weil eigentlich suggeriert wird, zumindest geht es mir so, dass die Daten über einen längeren Zeitraum save sind. Ich meine irgendwo gelesen zu haben, dass es einen Refreshmodus der Daten auf HDD gibt, wie auch bei SSDs/NVMe's, was wiederum die Sektoren/Datenpakete auf Stabilität kontrolliert. Dieses Feedback kann ja ausgelesen werden. Ich denke aber, das betrifft sicher HDDs, die 365 Tage/24h nonstop im Gebrauch waren. Oder?
 
Es gibt SW für so einen Refresh, aber das die HDDs diesen selbst machen, wäre mir neu. Das Problem dürfte bei denen auch eher die Mechanik sein als die Daten auf den Plattern selbst.
 
Zwar gibt es eine Initiative auch bei HDDs auch NVMe und damit eine PCIe Anbindung zu wechseln, aber auch 30TB HDDs werden SATA 6Gb/s nicht ausreizen können. Wenn die Datendichte verdoppelt wird, steigt die Übertragungsraten ja nur ungefähr um so 1,4, also Wurzel aus 2, denn während es zwar mehr Sektoren auf eine Spur gibt, gibt es genauso auch mehr Spuren und die aktuellen 20TB HDDs schaffen es gerade so die Datenrate von SATA 3Gb/s auszureizen und dies auch nur auf den äußersten Spuren wo am meisten Sektoren Platz haben. Die Datendichte müsste sich also Vervierfachen, was dann 80TB pro HDD wären, bevor sie dies auch bei SATA 6Gb/s schaffen werden.
Oder man schraubt an den Umdrehungen.
Es gibt ja auch HDDs, die mit 10.000 UPM drehen (im Serverbereich und früher im Desktopbereich die WD Raptor/VelociRaptor).
Das würde rechnerisch fast 40% mehr Übertragungsrate ausmachen.
Und Serverplatten gibts auch mit 15.000 UPM.
Damit könnte man die Übertragungsrate rechnerisch verdoppeln.
 
Mehr Umdrehungen bringen ihre eigenen Probleme mit sich, warum sind die Hersteller wohl erst dazu übergangen den Durchmesser der Platter kleiner zu machen als es das 3.5" Gehäuse erlauben würde und dann auf 2.5"?
 
Klar bekommt man mit mehr Umdrehungen Probleme mit der Platte.
Deshalb haben Platten mit 10.000 und 15.000 UPM i.d.R. 2,5"-Platter.
Ausnahme sind die alten WD Raptor.
Die haben tatsächlich 3,5" Platter und drehen mit 10.000 UPM.
Erst bei den VelociRaptor wurde auf 2,5" umgestellt.
 
Eben, die alten waren noch 3.5", aber die Datendichte, die Drehzahl und den Durchmesser gleichzeitig zu steigern ist eine gewaltige Aufgabe. Deshalb wurden die Durchmesser der Platter eben auch immer kleiner, wie man hier am Beispiel einer Seagate ST3600057SS Cheetah 15K.7 600 GB 15krpm sieht:
Seagate ST3600057SS Cheetah 15K.7 600 GB 15000RPM offen.jpg


Man kann also nicht einfach die Drehzahl anheben um die Transferraten zu erhöhen, so wie man nicht einfach zum 5¼" zurückkehren kann um die Gesamtkapazität zu steigern. Wäre dies ohne Nachteile an anderen Stellen die den Gewinn vermutlich sogar komplett zunichte machen würden möglich, hätten die Hersteller es schon gemacht, statt viel Geld für die Entwicklung von Dingen due Dual Actuatoren oder HAMR auszugeben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh