Einen echten Sinn sehe ich in dieser Konstruktion nur in der Platzersparnis gegenüber 2 separaten Platten.
Nein, wenn man den Platzbedarf optimieren will, nimmt man eher die größten verfügbaren HDDs, also derzeit die 18TB. Hier geht es um mehr IOPS/TB, die sinken nämlich je größer die Kapazität der HDDs werden, weil die absoluten IOPS über die ganze Kapazität hinweg praktisch gleich bleibt. Dies sieht in Benchmarks oft anderes aus, weil diese meist nur über einen kleinen Adressraum benchen und je höher die Kapazität der Platte ist, umso dichter liegen diese ganzen Adressen physikalisch beeinander (dazu kommen meist auch noch größer RAM Caches), es werden also weniger Kopfbewegungen nötig. Aber über den ganzen Adressraum ändert sich nicht viel, die Zeit um eine bestimmte Adressse anzufahren, ändert sich bei normalen HDDs ja nicht großartig, aber bei dieser kann man eben auf jedem der 7GB Bereiche zeitgleich und unabhängig vom anderen Bereich eine bestimmte Adresse anfahren und damit theortisch doppelt so viele IOPS erreichen.
IOPS/TB, also Zugriffe pro Sekunde pro TB Kapazität ist für Heimanwender irrelevant, aber in Unternehmen sieht dies anderes aus, denn dies entscheidet darüber ob günstige HDDs für die Anwendung reichen oder die Daten auf eine SSD müssen oder zumindest von einer SSD gecacht werden müssen.
Diese Platten sind eh nur ein Übergangsprodukt, bis entsprechend große SSDs in ähnliche Preisregionen kommen.
Zwar können Ereignisse wie nun gerade die Coronapandemie oder der Boom beim Proof of Space Farming (Chia) die Märkte (also Angebot und Nachfrage und damit die Preise) immer wieder durcheinanderwirbeln, aber ich denke nicht, dass SSDs jemals pro TB auf die Preise von HDDs kommen, werden, also bei vergleichbaren Kategorien (Consumer / Enterprise) und am Sweet-Spot (bei ganz kleinen und ganz großen Kapazitäten und exotischen Modellen wird man immer Ausnahmen finden).
Ganz einfach weil bei der Kostensenkung von NAND die low-hanging fruits schon geerntet sind. Man hatte schon bei den planaren NANDs die Grenzen bzgl. der Verkleinerung der Zellgrößen und -abstände erreicht, was auch damals schon QLC NAND verhindert hat, da man nur noch wenige Elektronen pro Zelle hatte
Dann hat man den Schritt zu 3D NAND vollzogen und damit die Größen und Abstände der Zellen wieder erhöht, weshalb nun auch QLC NAND möglich ist, wenn auch mit den Nachteile bzgl. Schreibgeschwindigkeit im QLC Modus und Zyklenfestigkeit, aber kann eben nicht beides haben, kleine Zellen und viele Bit pro Zelle und muss da einen Kompromiss finden. 3D NAND kann aber auch nicht endlos skalieren und jeder Layer erfordert zusätzlich Bearbeitungsschritte, kostet also auch Geld und erhöht das Risiko durch einen Fehler den ganzen Wafer zu verlieren, wobei man von so 128 Layern als wirtschaftliches Limit ausgeht und darüber hinaus auf Stacking angewiesen ist
ies ist letztlich ganz ähnlich wie das Stacking bei NAND Dies:
Samsung geht genau diesen Weg, während andere wie IMFT schon ihre 64 Layer NAND durch Stackung von zwei Dies mit je 32 Layern realisiert haben und Intels neustes 144L NAND aus 3 Dies mit je 48 nativen Layern besteht. Zwar wird das hinterhet als ein Die betrachtet, aber man braucht 3 Dies die man durchkontaktirert um eines daraus zu machen, spart also am Ende nur die Layer für die Logik ein, die man im Stack ja nur einmal benötigt und spart damit letztlich nicht wirklich viel Geld ein, indem man immer mehr Dies übereinanderpackt. Da ist also nicht mehr viel Potential um die Kosten für NAND zu senken, was von Intel auch als ein wichtiger Grund genannt wurde, warum sie ihre NAND Herstellung an SK Hynix verkauft haben:
Man sollte bei den SSD Preisen also nicht der Versuchung erliegen, die Entwicklung der letzten 10 Jahre einfach in die Zukunft fortschreiben zu wollen, auch wenn gerade Ökonomen diesem nie widerstehen können, aber die Bäume wachsen eben nicht in den Himmel. Dies hat man bei den Taktraten der CPUs gesehen, als diese erstmal 1GHz erreicht haben, war es für die meisten nur noch eine Frage der Zeit bis es 10GHz sein würden und wir sehen heute, wie schwer es ist auch nur ein wenig über 5GHz zu kommen, wobei da der Ausweg u.a. eben was mehr Kerne zu nehmen und mehr Befehlserweiterungen zu implementieren. Ebenso war es bei der Datendichte von HDDs,
Seagate hat erst im September 2020 die erste 18TB mit 9 Platter ohne SMR und ohne eine Form von Energy Assisted Magnetic Recording (EAMR) vorgestellt (WD schon früher aber eben mit EAMR), also 2TB pro Platter erreicht. Die
erste HDD mit 1TB pro Platter erschien im September 2011, die
erste HDD mit 500GB Platter ist vom März 2009, damals hat es also nur 2½ Jahre gedauert die Datendichte zu verdoppelt und danach 9 Jahre um dies wieder zu erreichen!
Die maximale Kapazität ist zwar viel stärker gewachsen, aber nur weil inzwischen mehr Platter verbaut werden, waren es früher 4 oder maximal 5, so sind es inzwischen schon 9 und an 10 Platter HDDs wird auch schon gearbeitet. Jeder Platter kostet aber Geld und ab 7 Platter braucht man eine Heliumfüllung und entsprechend aufwendig abgedichtete Gehäuse, was die Kosten auch treibt. Ganz ähnlich wie beim Die Stacking von NAND, erhöht man damit eben vor allem die Kapazität und spart auch etwas, aber eben längst nicht so wie man vorher durch die Steigerung der Datendichte sparen konnte.
Aber bei HDDs gibt es anderes als bei NAND eben noch eine technologischen Schritt den man machen kann, nämlich genau das Energy Assisted Magnetic Recording, also HAMR oder MAMR und diese Technologien versprechen eben wieder eine Steigerung der Datendichte und auch wenn die Technologie erstmal serienreif sein muss und anfangs teurer sein wird, so werden dadurch mittel- und langfristig die Kosten pro TB weiter fallen. Genau so ein technologischer Schritt zur Kostensenkung ist aber bei NAND nicht mehr absehbar, siehe auch das Zitat von Anandtech darüber warum Intel seine NAND Herstellung verkauft hat. NAND ist ja eben so günstig, weil es so bestechend einfach aufgebaut ist, da lässt sich eben nichts mehr vereinfachen.
Zwar würde ich es mir wünschen das SSDs irgendwann pro TB so billig wie HDDs werden, aber ich glaube nicht daran dies noch erleben zu werden, in die nächsten Jahrzehnte wird dies nicht passieren, erst recht nicht wenn MAMR und HAMR in Serien gehen.
Bezweifle ich ehrlich gesagt, da dies, egal mit welcher Argumentation, einfach keinen Sinn macht.
Das steht doch in dem als Quelle verlinkten
Datenblatt: "14 TB of capacity available as two independently addressable, 7 TB logical units"