Toshiba MG10D mit 8 TB im Test: Neue Technik in der 8-TB-Luft-Klasse

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.940
Toshibas MG10F-Reihe kannten wir bisher nur mit der Größenordnung 22 TB, jedoch hat sich Toshiba nun auch dazu entscheiden, die kleineren Speichergrößen zu aktualisieren. In diesem Artikel sehen wir uns das Modell mit 8 TB an und werden ermitteln, ob die Technologie auch mit Luftfüllung halten kann, was die MG10F mit 22 TB Speicherkapazität bot.
... weiterlesen
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Guter Test danke
 
Schöner Test, danke, ne Packung Kekse an den Autor bitte.

.. der Preis / TB müsste halt noch passen. ATM kann man imho nur die ~20TB Platten kaufen.
Immerhin macht 1 20er auch nur den halben Lärm (wenn überhaupt) und verbraucht auch nur 1x Strom.
Insofern wäre ein vernünftiger Preis imho bei ca. 140€, meinentwegen 150€ weil Luft-Platte. Bin gespannt, wo er landen wird.

PS: Ganz gute Leistung, wäre mal interessant das mit ner 8TB QLC zu vergleichen... :asthanos:
 
Ich schau mal, ob ich eine 8 TB QLC irgendwo auftreiben kann :)
 
Insofern wäre ein vernünftiger Preis imho bei ca. 140€, meinentwegen 150€ weil Luft-Platte.
Darf Luft mehr kosten? Hat es Vorteile gegenüber Helium?
Ich dachte bisher, Helium sei eigentlich immer die bessere Wahl.
 
Es gibt keine 8-TB-Festplatten mit Helium (bis auf die aller erste WD80EFZX von 2016....), auch die 10-TB-Größe wurde mittlerweile wieder von allen Herstellern auf Luft umgestellt.
Daher stellt sich die Frage eigentlich nicht.
 
Die Serie heißt MG10-D nicht -F. Eine MG10AFA800E gibt es nicht. Idle Leistungsaufnahme ist natürlich auch nicht der finale Wert. Was für ein Fail.
 
Mal ganz ehrlich: wen jucken diese Festplatten Tests?
Anscheinend sehr viele. Die Artikel erreichen gute Zugriffsraten :)

Außerdem macht mir die Arbeit mit Festplatten viel Spaß!
 
Cool an Platten ist die betriebssicherheit und die speichermenge
Die Speicherkapazität steht ja schon auf dem Etikett und in jedem Shop/Preisvergleich. as die Betriebssicherheit angeht, so kann einem als Privatanwender die Ausfallrate relativ egal sein, denn ob es 1%, 2% oder gar 3% pro Jahr sind, ist bei einer, 3 oder sogar 8 HDDs relativ egal, jede HDD kann wie jede andere Hardware auch mal ausfallen. Gegen Datenverlust helfen nur Backups, zumal Datenverlust auch andere Ursachen als nur den Ausfall einer Platte haben kann und gegen den wirtschaftlichen Schaden hat man hoffentlich noch Garantie und wenn die 5 Jahre Garantie so einer Enterprise HDD abgelaufen sind, hat sie ihre Pflicht sowieso erfüllt, da HDDs eben auf eine Nutzungsdauer (Life cycle) von 5 Jahren ausgelegt sind und auch altern, wenn sie nicht genutzt werden.

Für die Ausfallwahrscheinlichkeit ist außerdem die Behandlung sehr wichtig, denn auch wenn HDDs so robust wie Ziegelsteine aussehen, so sind sie doch extrem empfindlich und wollen entsprechend vorsichtig gehandhabt werden. Gerade auch wenn es um die Verpackung für den Versand geht, gibt es leider immer noch Händler die HDDs unzureichend verpackt verschicken und dann muss man sich nicht wundern, wenn die DoA ist oder nach kurzer Zeit ausfällt. Alle HDDs verlassen das Werk nach eine Qualitätskontrolle, die funktionieren also alle, aber manche werden auf dem Weg zum Kunden oder sogar von dem Kunden vor dem Einbau regelrecht misshandelt.
aber die Drehzahlen, Zugriffszeiten und transferraten stagnieren seit Jahren.
Ja, die hängen ja auch von der Technologie ab, vor allem der Drehzahl und der Datendichte. Die Datendichte massiv zu steigern, versuchen die HDD Hersteller schon seit Jahren, aber HAMR HDDs sind immer noch nicht im Handel angekommen und die Drehzahl zu steigern, bringt auch Nachteile. 7200rpm scheinen hier das Optimum zu sein, da die ganzen mit Helium gefüllten HDDs alle mit 7200rpm arbeiten und das Performance Rennen haben die HDDs schon vor langer Zeit verloren, da sind SSDs unschlagbar.

Bei diesen Reviews schaue ich daher vor allem auf die Messungen der Leistungsaufnahme und der Lautstärke. Ob die HDD maximal 270MB/s oder 280MB/s lesen/schreiben kann, ist dagegen reichlich irrelevant, zumal dies sowieso nur für die äußeren Spuren gilt und es auf den innersten Spuren oft nicht mal halb so viel ist, einfach weil da der Umfang kleiner ist und daher auch weniger Sektoren auf eine Spur passen.
 
Darf Luft mehr kosten? Hat es Vorteile gegenüber Helium?
Ich dachte bisher, Helium sei eigentlich immer die bessere Wahl.
Der Luftplatte kann nicht die Luft ausgehen... (irgendwie tauglich als ganz schlechter Wortwitz...)
Man liest zwar keine Probleme von den Heliumplatten, aber so rein Funktionsbedingt ist es in jedem Fall ein Risiko. Für ein Langzeitbackup wäre mir Luft irgendwie angenehmer.
Mal ganz ehrlich: wen jucken diese Festplatten Tests? Cool an Platten ist die betriebssicherheit und die speichermenge, aber die Drehzahlen, Zugriffszeiten und transferraten stagnieren seit Jahren.
Man darf halt kein Betriebssystem verwenden, das aus Codebruchstücken fragwürdiger Herkunft zusammengeschustert ist, als Hauptfeature die "Telemetrie" bietet und NTFS verwendet... lol.


So ein kleiner Pool aus 4-6 anständigen Enterpreise-HDDs mit einem brauchbaren Betriebssystem und Filesystem rockt schon ziemlich... würde man gar nicht erwarten.
stagnieren seit Jahren.
Jetzt stell dir mal bildlich vor, wie der Lesekopf so eine "Kackwurst" 280 Megabyte pro Sekunde auf die drehende Scheibe legt (muss man halt noch in Bit umrechnen und dann durch die Zahl der Platten drin dividieren...).
Auf jeden Fall ist das ganz schön beachtlich.
Noch beachtlicher ist aber, dass der Lesekopf seine "Bit-Kackwurst" = Block wieder findet... und fehlerfrei lesen kann.

Imho faszinierende Rocket Science und für mich weit faszinierender als SSDs...

Außerdem macht mir die Arbeit mit Festplatten viel Spaß!
Das freut mich, so soll es sein.


Ich würde gern einen Vergleich QLC (evtl. Samsung QVO 8 TB) mit einer (dieser?) 8 TB Platte sehen, in unterschiedlichen Anwendungen.
Mal 1-5 TB Video-Ordner kopieren, 500 GB JPG Ordner kopieren (Handy, Digicam...), irgendwas reales drauf machen (git entpacken?)...

Das wäre ein Spaß, der mir beim Lesen auch Spaß machen würde.
 
Wie gesagt, ich schaue gerne mal nach den QLCs.

Bzgl.Helium habe ich hier zwei Langzeittestplättchen laufen. zwei ST12000NM0007 mit über 41000 Stunden. Bisher dicht & gut
 
dann durch die Zahl der Platten drin dividieren...
Nein, denn es ist immer ein Kopf zur Zeit aktiv, außer bei den Seagate Dual Actuator (Mach.2) HDDs, da sind es zwei und deshalb können sie auch höhere Transferraten erzielen, wenn man sie entsprechend konfiguriert. Wäre es anderes, würde diese HDD mit nur 4 Platter ja nicht einmal die Hälfte der Transferraten eines Modells mit 10 Platter erzielen, aber dies ist ja nicht der Fall.

Wobei ich den Grund warum die Hersteller nie mehrere Köpfe auf einmal nutzen, nicht kennen. Klar wäre es früher schwer gewesen, mehrere Köpfe exakt auf die gleiche Spur zu positionieren, aber seit es Dual Stage Aktuatoren gibt, also die Köpfe einzeln fein justiert werden können, sollte dies kein Problem mehr sein.

Dual Stage Actuator.png


Es gibt inzwischen übrigens auch schon Triple-Stage Aktuatoren.

Ein Gründ könnten die Oberflächenfehler sein, denn würde man die Bits nun über alle Köpfe verteilt schreiben, wäre dies wohl ein Problem, wenn da irgendwo ein Platter Fehler auf der Oberfläche hat, aber wenn man nur die Köpfe auf der Vorder- und Rückseite eines Platter parallel nutzen würde, dürfte dies nicht zu so viel Kapazitätsverlust führen und würde immer noch eine Verdoppelung der Transferraten ermöglichen. Aber die IOPS würde man so nicht nennenswert steigern und vermutlich sind die IOPS für die meisten Enterprisekunden der wichtigere Wert.
 
Nein, denn es ist immer ein Kopf zur Zeit aktiv, außer bei den Seagate Dual Actuator (Mach.2) HDDs, da sind es zwei und deshalb können sie auch höhere Transferraten erzielen, wenn man sie entsprechend konfiguriert. Wäre es anderes, würde diese HDD mit nur 4 Platter ja nicht einmal die Hälfte der Transferraten eines Modells mit 10 Platter erzielen, aber dies ist ja nicht der Fall.
Wie jetzt... von diesem "mehrlagigen Lesekopf" arbeitet immer nur eine Lage?
Ich meine jetzt nur die "Stockwerke" am Kopf, nicht 2 extra Köpfe. Dachte das is so ne Art Raid 0...

Hätte gemeint, es hätte früher Benchmarks gegeben, wo die Modelle mit mehr Platten drin auch besser abgeschnitten hätten.
 
Helium setzt man als Notlösung ein wenn der Rest der Technik noch nicht so weit ist.
So ganz falsch ist dies nicht, denn solange es gelang die Datendichte schnell genug zu steigern, konnten die HDD Hersteller auch HDDs mit immer größeren Kapazitäten anbieten, ohne den Aufwand für die Heliumfüllung treiben zu müssen. Der Sinn der Heliumfüllung ist ja, dass man eben die Platter dichter nebeneinander packen kann und damit mehr Platter im Gehäuse unterbringen kann. Die geringe Dichte von Helium im Vergleich zu Luft, reduziert die Kräfte die durch die Verwirbelungen auf die Ausleger der benachbarten Köpfe ausgeübt werden und ermöglichen es damit erst, so viele Platter unterzubringen.

Derzeit ist meines Wissens das Limit ohne Helium 5 Platter, mit Helium sind 10 Platter schon länger üblich und die neusten WD 26TB (32TB mit SMR) HDDs haben sogar 11 Platter. Wer meint man könnte HDDs ja auch einfach höher bauen, sollte zwei Dinge nicht vergessen. Erstens würden dann weniger HDDs in ein Rack passen, was für Enterprise Kunden mit gewaltigen Storages ein Problem wäre und dann werden die Vibrationen umso schlimmer, vor allem die Amplituden umso höher, je länger eine Achse ist. Die aktuellen HDDs haben selbst ohne SMR schon über 500.000 Spuren pro Inch, also pro 25,4mm, was rund 20.000 pro mm sind oder anderes gesagt: Alle so 50nm gibt es eine Spur auf dem Platter und der Kopf muss innerhalb dieser Spur bleiben, er muss also auf wenige nm genug platziert werden. Nur mal zum Vergleich, diese 50nm sind so ungefähr die Gate pitch eines hochmodernen Halbleiter Prozesses, der dann gerne 3nm genannt wird.

Die Anforderungen an die Präzision moderner HDDs sind also schon echt extrem und es sind eben Größenordnungen wie sie auch in den modernsten Halbleitern zu finden sind und dies mit Mechanik, in einer Umgebung mit Vibrationen (schon durch die anderen HDDs, da eine selten alleine eingesetzt wird, die Lüfter und manchmal auch die Stimmen der Anwender) und wo die Temperatur zwischen so 20°C und bis zu 50°C, in USB Gehäusen auch gerne mal 60°C bewegen kann.
Die schnell zusammengeschusterten Heliumplatten legen vor, wenn die Luftplatten dann bei der Datendichte sind
Schnell zusammengeschustert sind die Heliumplatten ganz sicher nicht, da steckt eine Menge Technologie drin, damit diese wirklich dicht sind und ich habe noch bei keiner meiner Platten mit Heliumfüllung einen Heliumverlust festgestellt. Dies deckt sich mit dem was man auch sonst so liest, von Einzelfällen abgesehen, gibt es keine Probleme mit Heliumverlust.

Und wer in Physik aufgepasst hat, es gibt nichts was Helium hält. Helium diffundiert durch absolut jeden Stoff!
Nur weil du nicht weißt wie man die Gehäuse so abdichtet, dass kein Helium entweicht, bedeutet dies nicht, dass die HDD Hersteller es nicht doch wissen. Schon vor über 100 Jahren ist es dem Graf Zeppelin gelungen, sogar die noch kleineren Wasserstoffmoleküle in seinen Luftschffen zu halten. Das die während einer Fahrt so viel Wasserstoff verloren haben, lag vor allem daran, dass sie dies ablassen mussten um nicht zu hoch zu steigen, ja immer mehr Kraftstoff verbrannt wurde und das Luftschiff damit leichter wurde und sonst zu hoch gestiegen wäre. Es gab sogar Vorrichtungen um Regenwasser aufzufangen um mehr Ballast während der Fahrt zu bekommen und weniger Wasserstoff ablassen zu müssen und hat sogar Überlegungen angestellt, ob man den Wasserdampf, der je beim Verbrennen von Kohlenwasserstoffen anfällt, aus den Abgasen der Motoren kondensieren könnte.

Die Behauptung Helium würde durch jeden Stoff diffundieren, ist außerdem zu einfach, denn es muss nicht ewig zu 100% innerhalb der HDD bleiben, da HDD nur für eine Nutzungsdauer von 5 Jahren ausgelegt sind, reicht es wenn auch nach 5 Jahren noch genug Helium innerhalb der HDD vorhanden ist. Dies ist ganz offensichtlich bei den HDDs mit Heliumfüllung der Fall und auch noch nach mehr als 5 Jahren, da es eben nicht zu Massenausfällen dieser HDDs wegen fehlendem Helium kommt.

Ich meine jetzt nur die "Stockwerke" am Kopf, nicht 2 extra Köpfe.
Was für Stockwerke? Extra Köpfe gab es auch mal, so sah dies damals aus. Aber alle aktuellen HDDs, auch die Seagate Mach.2 haben einen Kopf pro Platteroberfläche, also normalerweise zwei pro Platter, eben einen für die Ober- und einen für die Unterseite.

Dachte das is so ne Art Raid 0...
Nein, sowas gibt es nicht und dies sieht man ja auch daran, dass die Anzahl der Platter eben keinerlei Einfluss auf die maximalen Transferraten haben, was ja sonst der Fall wäre, wenn mehrere Köpfe wie bei einem RAID 0 parallel laufen würden.
 
Und wer in Physik aufgepasst hat, es gibt nichts was Helium hält. Helium diffundiert durch absolut jeden Stoff!
Aber muss nicht auch wieder irgendwas rein diffundieren, damit das Helium weniger wird? In dem Fall dann ja wohl Luft? Ich hätte jetzt keine extremen Überdrücke erwartete die da im Gehäuse gehalten werden müssen für den Betrieb. Eigentlich wäre doch sogar ein Unterdruck wünschenswert, oder nicht?
Hat schon mal wer Wasserstoff, statt Helium versucht? xD
Bei den kleinen Gasmengen dürfte das Risiko doch nicht so groß sein.
 
Zuletzt bearbeitet:
Alle so 50nm gibt es eine Spur auf dem Platter und der Kopf muss innerhalb dieser Spur bleiben, er muss also auf wenige nm genug platziert werden. Nur mal zum Vergleich, diese 50nm sind so ungefähr die Gate pitch eines hochmodernen Halbleiter Prozesses, der dann gerne 3nm genannt wird.
Is schon ziemlich geil, ja.
Schnell zusammengeschustert sind die Heliumplatten ganz sicher nicht, da steckt eine Menge Technologie drin, damit diese wirklich dicht sind und ich habe noch bei keiner meiner Platten mit Heliumfüllung einen Heliumverlust festgestellt. Dies deckt sich mit dem was man auch sonst so liest, von Einzelfällen abgesehen, gibt es keine Probleme mit Heliumverlust.
Wundert mich auch, dass das tatsächlich so gut klappt. War da anfangs schon skeptisch, und bins ehrlich gesagt immer noch ein klein wenig (obwohl meine Helium-Platten toll laufen).
Was für Stockwerke? Extra Köpfe gab es auch mal, so sah dies damals aus. Aber alle aktuellen HDDs, auch die Seagate Mach.2 haben einen Kopf pro Platteroberfläche, also normalerweise zwei pro Platter, eben einen für die Ober- und einen für die Unterseite.
Nene, so mein ich das nicht.
Da, der Kopf hat doch mehrere Arme übereinander, für jede Platte (warum sagst du Platter dazu, hab ich was verpasst?) einen... logisch. Ich hätte gedacht, die lesen/schreiben synchron.
1729031121458.png

Nachtrag:
1729031421509.png

Bist das du?
 
Aber muss nicht auch wieder irgendwas rein diffundieren, damit das Helium weniger wird?
Ja, denn es muss ein Druckausgleich stattfinden können, von alleine erzeugt Helium keinen Unterdruck, indem es ausdiffundiert,

Eigentlich wäre doch sogar ein Unterdruck wünschenswert, oder nicht?
Nicht wirklich, denn vergiss nicht, dass die Luftsäule auf Meereshöhe 1bar Druck hat und das sind mehr als 10t/m² die auf alles einwirken und wir merken nur deshalb nicht, das auf unsere Körper mit so grob 2m² Oberfläche ständig ein Druck von 20t ausgeübt wird, weil unser Innendruck eben auch 1bar beträgt. Die meisten werden es nur merken, wenn sie die Tür des Kühlschranks öffnen wollen, nachdem sie die gerade erst geschlossen haben. Wenn deren Dichtungen in Ordnung sind, dann ist der Innendruck im Kühlschrank nun minimal geringer, weil die vorher eingedrungene, warme Luft sich abgekühlt und damit ein wenig Volumen verloren hat. Obwohl der Druckunterschied nur minimal ist, reicht dies dann meist damit man die Tür nicht mehr auf bekommt, eben weil da so 10t pro m² Luft drauf drücken und von innen halt minimal weniger und man muss warten, bis die nie 100%ig wirkenden Dichtungen dann den Druckausgleich erlaubt haben.

Die meisten Leute unterschätzen halt, was für Kräfte bei einem Unterdruck herrschen, weil sie sich eben nicht bewusst machen, welche Kräfte die Luftsäule über uns ausübt. Deshalb ist es auch unmöglich ein Vakuum statt einer Füllung z.B. mit Helium zu verwenden, da man dann ein sehr massives Gehäuse brauchen würde, damit der äußere Luftdruck sie nicht eindrückt.

Übrigens haben auch die mit Helium gefüllten HDDs einen Druckausgleich in Form einer Membran die auf dem Bild hier im Review der WD Gold 24TB unten rechts gut erkennen kann und man sieht auch gut, dass die eben nicht vollständig flach, sondern leicht komisch ist.
Hat schon mal wer Wasserstoff, statt Helium versucht? xD
Vielleicht liegt hier der Grund:
Man müsste alle Materialien innerhalb der HDD auf seine Reaktionen mit Wasserstoff prüfen und da Helium ein Edelgas ist, hat man dort diese Sorge nicht.

Da, der Kopf hat doch mehrere Arme übereinander, für jede Platte
Also du meinst es gibt mehrere Arme auf der Achse des Actuator, was man ja eben braucht, damit es für jede Oberfläche eine Kopf geben kann.

warum sagst du Platter dazu, hab ich was verpasst?
Was die Namen angeht, halte ich mit hieran:

HDD inner component names.png


Auch bei wikipedia wird dies als Platter bezeichnet, andere nennen es auch Disk, aber dies wird dann gerne mit der ganzen HDD verwechselt. Platter ist daher eindeutiger.

Ich hätte gedacht, die lesen/schreiben synchron.
Nein, dies machen sie nicht, warum auch immer. Es wird sicher einen guten Grund geben, weil ich mir nicht vorstellen kann, dass noch nie jemand bei den HDD Herstellern auf diese Idee gekommen sein sollte.

Ach du warst mal so ein kluger Junge als du mit deinem HDD halbwissen das Gigabyte Forum aufgemischt hasst.
Frisch angemeldet und schon stänkern, du warst hier vermutlich schon mal mit einem anderen Account unterwegs und wurdest gebannt und im Gigabyte Forum war ich nie aktiv. Warum auch, ich habe seit über 10 Jahren nur ASRock Mainboards und selbst in deren Forum war ich noch nie aktiv.

Ist ja niedlich das du meinst man könnte es mit einem Segeltuch aufhalten
Wer hat was von Segeltuch gesagt? Die Traggaszellen wurden aus Goldschlägerhaut hergestellt:

 
Zuletzt bearbeitet:
Platter ist daher eindeutiger.
Ah, Denglisch. :-)
Nein, dies machen sie nicht, warum auch immer. Es wird sicher einen guten Grund geben, weil ich mir nicht vorstellen kann, dass noch nie jemand bei den HDD Herstellern auf diese Idee gekommen sein sollte.
Ich meine ich hab vor ca. 10 Jahren bei der Recherche nach kaufbaren Harddisks irgendwie gelesen, dass die Modelle mit mehr "Plattern" irgendwie wohl schneller wären, und man desshalb aus einer Serie (denke es war WD RED) wohl eher die X tb als die Y tb Modelle kaufen sollte... aber tut jetzt nicht so viel zur Sache.

Kanns sein, dass du dich irrst? Ich muss gestehen, ich weiss es nicht, und hab auf die Schnelle keine brauchbaren Quellen. Ich bin auch durchaus gewillt dir zu glauben, möchte dir da nix unterstellen oder so. Ich frag mich nur weil... es halt schon sehr naheliegend wäre, wie du selbst sagst.
 
Hier steht etwas zu diesem Thema
HDDs mit mehr Platter *können* schneller sein, wenn man so eine Technik nutzt.
Für ein Modell mit weniger Platter lohnt der Aufwand nicht, obwohl es technisch genauso möglich wäre, das zu implementieren.
 
User marissaalda0 musste die Unterhaltung leider verlassen... Dauerhaft :d
(unangemessene Wortwahl und beleidigung anderen Usern gegenüber, und das als Neuankömmling - wird hier nicht toleriert)
 
Zuletzt bearbeitet:
HDDs mit mehr Platter *können* schneller sein, wenn man so eine Technik nutzt.
Hat WD sowas auch mal rausgebracht? Sie haben mal eine vorgestellt, aber ich glaube die hat es nie in den Handel geschafft. Von Seagate weiß ich, dass es die Exos-X 2X18 auch wirklich zu kaufen gibt:


Die sind sogar bei Geizhals gelistet, aber kaum noch verfügbar und es gab nach denen der X18 Generation, von den nachfolgenden X20, X22 oder der aktuellen X24 Generation keine solchen Multi-Aktuator Modelle mehr. Es scheint also nicht gerade ein Verkaufserfolg gewesen zu sein, wenn die Technik schon nach einer Generation wieder verschwunden ist.

Es ist auch nicht einfach so transparent, man bekommt also nicht mal eben so die doppelte Datentransferrate, wenn man sie wie eine normale HDD nutzt, was wohl sowieso nur bei den SATA Modellen möglich wäre, da die SAS Modelle sich wie zwei HDDs mit der jeweils halben Kapazität (also je 9TB bei der Exos-X 2X18 18TB) erscheinen und um die doppelten Lese- und Schreibraten zu erzielen, muss man ein RAID 0 über beide legen. Die SATA Modelle erscheinen mit der vollen Kapazität, aber wenn man bessere seq. Schreib- und Leseraten will, muss man die dann in 2 Partitionen aufteilen und dann auch ein RAID 0 über diese Partitionen anlegen.
 
Ich meine ich hab vor ca. 10 Jahren bei der Recherche nach kaufbaren Harddisks irgendwie gelesen, dass die Modelle mit mehr "Plattern" irgendwie wohl schneller wären, und man desshalb aus einer Serie (denke es war WD RED) wohl eher die X tb als die Y tb Modelle kaufen sollte... aber tut jetzt nicht so viel zur Sache.
Vielleicht war das mal früher ein Ding? Ich muss gestehen, dass ich auch deine Erwartungen hätte, dass auf allen Plattern gleichzeitig geschrieben/gelesen wird.
Aber bei 50 nm "Spurrillen" muss jeder Platter vielleicht individuell nach einem eigenen individuellen "Lageplan" beschrieben werden.
 
Naja, die Spurrillen sind ja nicht da wie auf einer Vinyl, sondern die werden doch durch den Lesekopf erzeugt, meine ich?
Na wasweissich. Soll uns das der Firebl erzählen, ich bin nicht son HDD Kenner.
 
Imho faszinierende Rocket Science und für mich weit faszinierender als SSDs...
Da kann ich nur zustimmen. Mir fällt da immer der Vergleich zu Elektro und Verbrenner Motoren auf. Gegenüber hochmodernen Verbrennern sind Elektromotoren geradezu langweilig aufgebaut.... Auch wenn es da einige coole Dinge Entwicklungen in letzter Zeit gibt.
Aber so wie bei SSDs/HDDs auch, ist die simpler aussehende Technik Gegenüber der "rocket science" am Ende unbestreitbar im Vorteil.

Die Rocket Science gibt es bei SSDs natürlich auch. Nur ist das auf dem mikroskopischen Maßstab der TLC/QLC Chips irgendwie weit weniger anschaulich, als bei den eng gepackten rotierenden Blechscheiben.
 
Joa wobei so ganz ohne sind E-Motoren auch nicht, wenn man nicht grade von so Spielzeug redet, also z.B. Synchrongeneratoren im Kraftwerk... Wicklungsform und Lage, Spielereien mit der Fremderregung etc... da gibts auch ein Rabbithole, das eigentlich gleichgroß ist.
Man hat als Privato nur weniger damit zu tun, der KFZ-Motor war halt die letzten 50 Jahre sehr präsent.
 
Aber bei 50 nm "Spurrillen" muss jeder Platter vielleicht individuell nach einem eigenen individuellen "Lageplan" beschrieben werden.
Ja vermutlich, aber die Ausleger haben ja Dual-Strange Actuatoren, bzw. neuerdings sogar Tipple-Stange, siehe Post #14 und damit kann man die Köpfe an jedem Arm feinjustieren. Es sollte also möglich sein, dass die Köpfe auf der Ober- und Unterseite eines Platter zeitgleich ihre Spur jeweils exakt treffen.

Naja, die Spurrillen sind ja nicht da wie auf einer Vinyl, sondern die werden doch durch den Lesekopf erzeugt, meine ich?
Der Lesekopf erzeugt gar nichts, der liest nur. Wie man heute die "Fahrbahnmarkierung" macht um zu erkennen, ob die Köpfe in ihrer Spur bleiben, kann ich Dir nicht sagen, da dies ja einen großen Einfluss auf die Datendichte hat. Früher gab es da magnetische Markierungen, aber dies würde ja mit SMR nicht funktionieren, da sich da die Spuren überlappen und ich vermuten, dass sie alleine auf die Headerdaten der Sektoren setzen um zu wissen das sie noch in der richtigen Spur sind und danach auf die Sensoren für Bewegungen, bis sie dann den Header des nächsten Sektors gefunden haben. Dabei kann man dann beim Lesen mit Hilfe der Signalstärke feinjustieren, denn diese dürfte ja nachlassen, wenn man anfängt die Spur zu verlassen.

Das dürfte also ein Thema sein, an dem die Hersteller intensiv arbeiten und WD schreibt ja auch über seine OptiNAND Technologie:
Da müssen also irgendwelche Informationen drin stehen, die helfen die Spuren enger zusammen zu packen, aber was dies genau ist und wie sie genau die Positionen der Spuren bestimmen und sicherstellen, dass die Köpfe diese nicht verlassen, wird WD wohl kaum verraten.
Aber so wie bei SSDs/HDDs auch, ist die simpler aussehende Technik Gegenüber der "rocket science" am Ende unbestreitbar im Vorteil.
Bei HDDs wie bei SSDs, dort sowohl im Controller aber vor allem im NAND, steckt schon eine ganze Menge High Tech drin und obwohl die Kosten pro TB für NAND schon massiv gefallen sind, haben HDDs hier immer noch die Nase vorne und werden dies auch noch lange haben, vermutlich sogar für immer. Denn während es bei NAND keine neuen Technologien mehr gibt, die man noch anwenden könnte, werden bei HDDs noch neue Technologien wie Heat Assisted Magnetic Recording (HAMR) und Bit Patterned Media (BPM) in Arbeit und wenn diese mal serienreif sein werden, sofern dies je gelingt, dann erwartet Seagate HDDs mit bis zu 120TB herstellen zu können. Die neuen Technologien kosten natürlich auch mehr, vor allem am Anfang, aber je mehr Verbreitung sie finden, umso geringer wird dann der Aufpreis gegenüber den Komponenten die man heute verwendet.

Bei NAND, welches den Löwenanteil der Kosten einer SSD ausmacht, kommen dagegen keine großen Sprünge mehr. Der erste war damals der Wechsel von SLC auf MLC, also 2 Bits pro Zelle zu schreiben, womit man im Prinzip 50% der Kosten eingespart hat. Aber schon der Wechsel auf TLC brauchte nur noch theoretische 3% Ersparnis und praktisch sind es weniger, da man mehr zusätzliche Zellen für die aufwendigere ECC braucht und mit QLC sind es gegenüber TLC nur noch maximal 25% Ersparnis. PLC, welches mal angedacht war, gibt es bis heute nicht, aber man würde auch nur noch maximal 20% einsparen können. Dafür hätte man eine weitere Verschlechterung der Schreibperformance und Zyklenfestigkeit in Kauf zu nehmen und die Zellen dürfen auch nicht zu klein werden, die war bei den planaren NAND mit weniger als 20nm schon ein massives Problem:


Der zweite große Schritt für NAND war dann das 3D NAND, womit man das Problem der geringen Zellgrößen und -abstände wieder kompensieren und zugleich die Datendichte steigern konnte. Allerdings erfordert jeder Layer zusätzliche Bearbeitungsschritte, die kosten Geld und mit jedem Schritt geht man auch noch das Risiko ein, durch einen Fehler den ganzen Wafer zu verlieren. Schon als die 3D NANDs aufgekommen sind, gab es daher Prognosen, dass wohl bei so 128 Layern das wirtschaftliche Limit für deren Fertigung liegen dürfte und dies scheint für alle anderen NAND Hersteller als Samsung schon viel früher eingetreten zu sein, Micron hat sogar schon bei seinem 64 Layer NAND zwei Dies mit je 32 Layern übereinander gepackt, Samsung selbst sein V6 3D NAND mit 136 Layern ohne Die Stacking gebracht, auch die 176 Layer V7 NAND sollten ohne Stacking und wie es bei den V8 NANDs mit 236 Layern aussieht, weiß man nicht genau.

Aber so oder so, jeder zusätzliche Layer kostet Geld und wenn man zwei Dies übereinander packt, muss man zwei Dies fertigen und hat am Ende doch nur eines, welches man verkaufen kann. Da spart man sich also nur die Logik ein, die man halt nur einmal braucht, aber dies macht den Kohl nicht fett und daher kann man nur kleine Optimierungen machen um die Kosten zu senken. Man muss also lernen noch mehr native Layer in einem Dies zu erreichen ohne Fehler zu machen, kann die Zellen und ihre Abstände verringern, was dann aber wieder die Möglichkeiten mindert, irgendwann mehr Bits pro Zelle zu speichern und eben alles nur kleine Fische sind, aber eben keine großen Sprünge. Die Struktur einer NAND Zelle ist auch schon denkbar einfach, da kann man auch nichts mehr vereinfachen, eine vierte Dimension in die man noch ausweichen könnte, gibt es auch nicht, man sollte also nicht mehr mit massiven Kostensenkungen bei NAND rechnen. Preissenkungen bei SSDs kann es trotzdem immer mal geben, wie letztes Jahr, da es eben immer noch den Schweinezyklus gibt, aber damals haben die NAND Hersteller Milliardenverluste eingefahren, solche Preise waren eben nicht kostendeckend und sowas kann kein Dauerzustand sein, sonst gehen die Formen pleite.

Auch wenn wir alle, mich eingeschlossen, davon träumen eines Tages die HDDs komplett mit SSDs abzulösen ohne ein Vermögen dafür ausgeben zu müssen, auch die im NAS/Heimserver mit zweistelligen TB Kapazitäten, so sehe ich eben nicht, dass dies jemals der Fall sein wird.
 
Naja, die Spurrillen sind ja nicht da wie auf einer Vinyl, sondern die werden doch durch den Lesekopf erzeugt, meine ich?
Na wasweissich. Soll uns das der Firebl erzählen, ich bin nicht son HDD Kenner.
Ja, ein @Firebl Artikel zur Theorie der HDDs :d
(Oder ich lese mal den Wikipedia Artikel)
"Spurrillen" sollte nur bildlich beschreiben.
 
Das könnte ich mal machen, wird aber erst nächstes Jahr etwas :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh