Seagte Mach.2 Exos 2X14: Doppelarm-Festplatte für bis zu 500 MByte/s

Nochdazu würde ich erwarten, dass die Zugriffe koordiniert erfolgen müssen, damit man entsprechende Performance sehen kann. Denn es wird ja auf den gleichen rotierenden Plattenstapel zugegriffen, womit bei Randomzugriff und ungünstigen Positionen der Blöcke die Disk ständig für einen der beiden Aktuatoren warten muss. D.h. Controller und OS/Volumemanager sollten wissen, dass es nicht zwei getrennte Devices sind sondern voneinander abhängig.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nochdazu würde ich erwarten, dass die Zugriffe koordiniert erfolgen müssen, damit man entsprechende Performance sehen kann.
Wieso sollte sie das? Ich kann keinen Grund erkennen, außer wenn die Platte im Standby ist und die Spindel erst anfahren muss, aber dies dürfte bei Enterprise HDDs eher selten der Fall sein.
womit bei Randomzugriff und ungünstigen Positionen der Blöcke die Disk ständig für einen der beiden Aktuatoren warten muss.
Wieso? Die Position des eine Aktuators und damit der Köpfe daran ist doch eben komplett unabhängig von der des anderen Aktuators. Die Platter drehen sich zwar gemeinsam, weil es ein Stapel ist, aber die Platter drehen sich ja bei jeder HDD unabhängig von der Position der Köpfe und man muss nach dem Erreichen der korrekten Position immer warten, bis dann der passende Sektoren und dem aktiven Kopf vorbeikommt. Es macht also keinen Unterschied, dass es nur eine Spindel gibt.
dass es nicht zwei getrennte Devices sind sondern voneinander abhängig.
Wo sind sie dann voneinander abhängig, außer wenn es um Energiesparzustände geht, die aber wie gesagt für Enterprise HDDs wenig relevant sind. Man hätte auch zwei Interfaces verbauen können und sie dann wirklich wie zwei getrennte Platte ansprechen können, aber dann hätte man mehr SAS Ports benötigt und die vorhanden Dual Interface sind ja für die Redundanz, also dafür dass zwei unterschiedliche Controller auf die Platte zugreifen können und man keine Unterbrechung hat, sollte einer ausfallen. Um dies zu behalten, hätte man zwei Interfaces und damit auch andere Backplanes benötigt, was viel mehr Änderungen als die Anpassung der FW der RAID Controller.
 
Die beidne Aktuatoren sind unabhängig, laut meinen Informationen kann man die auch als unabhängige Geräte "betreiben". Der Sinn der Sache ist aber, dass der Nutzer mit dem Controller ein RAID0 aus beiden bildet. Daher auch die beworbenen 500 MB/s. Der Controller muss, wie Holt korrekt gesagt hat, es unterstützen hinter einem SAS-Anschluss zwei Festplatten zu haben
 
nach außen hin meldet sich diese aber als ganz normale HDD.
Nein, nach außen hin meldet sich die eine HDD als 2 HDDs. Und damit muß die Firmware des Controllers umgehen können.
Einen echten Sinn sehe ich in dieser Konstruktion nur in der Platzersparnis gegenüber 2 separaten Platten.
Diese Platten sind eh nur ein Übergangsprodukt, bis entsprechend große SSDs in ähnliche Preisregionen kommen.
Und gegen eine SATA-SSD hat die Seagate trotz gleicher max. Übertragungsgeschwindigkeit eh keine Chance.
Denn viel entscheidender als hohe Transferraten sind kurze Zugriffszeiten. Die spürt man in der Praxis viel deutlicher als hohe Transferraten.
Und bei den Zugriffszeiten kann selbst ein Raid 0 aus 15.000 UPM Enterprise-Platten nicht mit einer normalen Consumer-Sata SSD mithalten.
Für HDDs spricht momentan eigentlich nur der Preis.
SSDs gibts zwar aktuell bis zu 15 TB, aber die kosten dann auch gleich 4.000,- €.
 
@passat3233
Bist du sicher das sich das Gerät bei dem Host-System als 2 HDDs meldet? Bezweifle ich ehrlich gesagt, da dies, egal mit welcher Argumentation, einfach keinen Sinn macht.
 
Zuletzt bearbeitet:
Einen echten Sinn sehe ich in dieser Konstruktion nur in der Platzersparnis gegenüber 2 separaten Platten.
Nein, wenn man den Platzbedarf optimieren will, nimmt man eher die größten verfügbaren HDDs, also derzeit die 18TB. Hier geht es um mehr IOPS/TB, die sinken nämlich je größer die Kapazität der HDDs werden, weil die absoluten IOPS über die ganze Kapazität hinweg praktisch gleich bleibt. Dies sieht in Benchmarks oft anderes aus, weil diese meist nur über einen kleinen Adressraum benchen und je höher die Kapazität der Platte ist, umso dichter liegen diese ganzen Adressen physikalisch beeinander (dazu kommen meist auch noch größer RAM Caches), es werden also weniger Kopfbewegungen nötig. Aber über den ganzen Adressraum ändert sich nicht viel, die Zeit um eine bestimmte Adressse anzufahren, ändert sich bei normalen HDDs ja nicht großartig, aber bei dieser kann man eben auf jedem der 7GB Bereiche zeitgleich und unabhängig vom anderen Bereich eine bestimmte Adresse anfahren und damit theortisch doppelt so viele IOPS erreichen.

IOPS/TB, also Zugriffe pro Sekunde pro TB Kapazität ist für Heimanwender irrelevant, aber in Unternehmen sieht dies anderes aus, denn dies entscheidet darüber ob günstige HDDs für die Anwendung reichen oder die Daten auf eine SSD müssen oder zumindest von einer SSD gecacht werden müssen.
Diese Platten sind eh nur ein Übergangsprodukt, bis entsprechend große SSDs in ähnliche Preisregionen kommen.
Zwar können Ereignisse wie nun gerade die Coronapandemie oder der Boom beim Proof of Space Farming (Chia) die Märkte (also Angebot und Nachfrage und damit die Preise) immer wieder durcheinanderwirbeln, aber ich denke nicht, dass SSDs jemals pro TB auf die Preise von HDDs kommen, werden, also bei vergleichbaren Kategorien (Consumer / Enterprise) und am Sweet-Spot (bei ganz kleinen und ganz großen Kapazitäten und exotischen Modellen wird man immer Ausnahmen finden).

Ganz einfach weil bei der Kostensenkung von NAND die low-hanging fruits schon geerntet sind. Man hatte schon bei den planaren NANDs die Grenzen bzgl. der Verkleinerung der Zellgrößen und -abstände erreicht, was auch damals schon QLC NAND verhindert hat, da man nur noch wenige Elektronen pro Zelle hatte
Dann hat man den Schritt zu 3D NAND vollzogen und damit die Größen und Abstände der Zellen wieder erhöht, weshalb nun auch QLC NAND möglich ist, wenn auch mit den Nachteile bzgl. Schreibgeschwindigkeit im QLC Modus und Zyklenfestigkeit, aber kann eben nicht beides haben, kleine Zellen und viele Bit pro Zelle und muss da einen Kompromiss finden. 3D NAND kann aber auch nicht endlos skalieren und jeder Layer erfordert zusätzlich Bearbeitungsschritte, kostet also auch Geld und erhöht das Risiko durch einen Fehler den ganzen Wafer zu verlieren, wobei man von so 128 Layern als wirtschaftliches Limit ausgeht und darüber hinaus auf Stacking angewiesen ist:dies ist letztlich ganz ähnlich wie das Stacking bei NAND Dies:
Samsung geht genau diesen Weg, während andere wie IMFT schon ihre 64 Layer NAND durch Stackung von zwei Dies mit je 32 Layern realisiert haben und Intels neustes 144L NAND aus 3 Dies mit je 48 nativen Layern besteht. Zwar wird das hinterhet als ein Die betrachtet, aber man braucht 3 Dies die man durchkontaktirert um eines daraus zu machen, spart also am Ende nur die Layer für die Logik ein, die man im Stack ja nur einmal benötigt und spart damit letztlich nicht wirklich viel Geld ein, indem man immer mehr Dies übereinanderpackt. Da ist also nicht mehr viel Potential um die Kosten für NAND zu senken, was von Intel auch als ein wichtiger Grund genannt wurde, warum sie ihre NAND Herstellung an SK Hynix verkauft haben:

Man sollte bei den SSD Preisen also nicht der Versuchung erliegen, die Entwicklung der letzten 10 Jahre einfach in die Zukunft fortschreiben zu wollen, auch wenn gerade Ökonomen diesem nie widerstehen können, aber die Bäume wachsen eben nicht in den Himmel. Dies hat man bei den Taktraten der CPUs gesehen, als diese erstmal 1GHz erreicht haben, war es für die meisten nur noch eine Frage der Zeit bis es 10GHz sein würden und wir sehen heute, wie schwer es ist auch nur ein wenig über 5GHz zu kommen, wobei da der Ausweg u.a. eben was mehr Kerne zu nehmen und mehr Befehlserweiterungen zu implementieren. Ebenso war es bei der Datendichte von HDDs, Seagate hat erst im September 2020 die erste 18TB mit 9 Platter ohne SMR und ohne eine Form von Energy Assisted Magnetic Recording (EAMR) vorgestellt (WD schon früher aber eben mit EAMR), also 2TB pro Platter erreicht. Die erste HDD mit 1TB pro Platter erschien im September 2011, die erste HDD mit 500GB Platter ist vom März 2009, damals hat es also nur 2½ Jahre gedauert die Datendichte zu verdoppelt und danach 9 Jahre um dies wieder zu erreichen!

Die maximale Kapazität ist zwar viel stärker gewachsen, aber nur weil inzwischen mehr Platter verbaut werden, waren es früher 4 oder maximal 5, so sind es inzwischen schon 9 und an 10 Platter HDDs wird auch schon gearbeitet. Jeder Platter kostet aber Geld und ab 7 Platter braucht man eine Heliumfüllung und entsprechend aufwendig abgedichtete Gehäuse, was die Kosten auch treibt. Ganz ähnlich wie beim Die Stacking von NAND, erhöht man damit eben vor allem die Kapazität und spart auch etwas, aber eben längst nicht so wie man vorher durch die Steigerung der Datendichte sparen konnte.

Aber bei HDDs gibt es anderes als bei NAND eben noch eine technologischen Schritt den man machen kann, nämlich genau das Energy Assisted Magnetic Recording, also HAMR oder MAMR und diese Technologien versprechen eben wieder eine Steigerung der Datendichte und auch wenn die Technologie erstmal serienreif sein muss und anfangs teurer sein wird, so werden dadurch mittel- und langfristig die Kosten pro TB weiter fallen. Genau so ein technologischer Schritt zur Kostensenkung ist aber bei NAND nicht mehr absehbar, siehe auch das Zitat von Anandtech darüber warum Intel seine NAND Herstellung verkauft hat. NAND ist ja eben so günstig, weil es so bestechend einfach aufgebaut ist, da lässt sich eben nichts mehr vereinfachen.

Zwar würde ich es mir wünschen das SSDs irgendwann pro TB so billig wie HDDs werden, aber ich glaube nicht daran dies noch erleben zu werden, in die nächsten Jahrzehnte wird dies nicht passieren, erst recht nicht wenn MAMR und HAMR in Serien gehen.
Bezweifle ich ehrlich gesagt, da dies, egal mit welcher Argumentation, einfach keinen Sinn macht.
Das steht doch in dem als Quelle verlinkten Datenblatt: "14 TB of capacity available as two independently addressable, 7 TB logical units"
 
Zuletzt bearbeitet:
Dann ist dieses Produkt eigentlich völlig am Markt vorbei entwickelt. Warum sollte man nicht einfach zwei, vor allem größere, Festplatten nehmen und diese dann an den RAID Controller anschließen. Diese Lösung hier ist doch absoluter Unsinn.
 
Das hat der Markt indirekt schon entschieden, bzw. Seagate weiß selber das diese Lösung Humbug ist. Man hat keinerlei Vorteile, sondern nur Nachteile. Diese HDD ist für den Servermarkt konzipiert, kein Admin der bei Verstand ist setzt auf so etwas mit doppeltem Ausfallrisiko wenn er das Selbe bzw. Besseres mit 2 HDDs realisieren kann. Hat sicher seine Gründe warum diese HDD bisher nur OEMs angeboten wird und es bis dato nicht in den freien Handel geschafft hat. ^^
 
Seagate hatte übrigens früher schon mal eine Platten mit Doppelarm, damals aber anders konstruiert, nämlich 2 Arme pro Platter.
Damit kann man die Übertragungsgeschwindigkeit und die IOPS ebenfalls deutlich erhöhen.
Damit das platzmäßig passt, hat man 2,5"-Scheiben in ein 3,5"-Gehäuse gepackt.
Das Teil gabs aber nie im freien Markt, sondern nur in Kleinststückzahlen (es wurden wohl weniger als 1000 Stück insgesamt produziert) für OEMs.
 
Das hat der Markt indirekt schon entschieden, bzw. Seagate weiß selber das diese Lösung Humbug ist.
Wie soll der Markt das indirekt schon entschieden haben, wenn die HDD nagelneu und noch gar nicht auf dem Markt, sondern dürfte nur als Sample an angewählte Kunden gehen, wie es bei allen neuen Enterprise HDDs von Seagate der Fall ist. Außerdem wird man sehr wohl die Kunden nach ihren Wünschen gefragt haben, bevor man sowas umgesetzt hat und das nicht aus eine Bierlaune heraus entwickelt haben.
Es gibt eben einfach Anwendung die eine bestimmte Performance pro TB brauchen, auch für Dinge die ein RAID Restore, wenn mal eine Platte ausgefallen ist und diese wird eben mit den zwei Aktoren idealerweise praktisch verdoppelt.
mit doppeltem Ausfallrisiko
Wieso sollte es ein doppeltes Ausfallrisiko geben? Dies Thema hatten wie am Anfang des Threads doch schon und Seagate gibt die Ausfallwahrscheinlichkeit mit den gleichen 2,5 Millionen Stunden an, wie sie für solche Enterprise HDDs üblich sind.

Hat sicher seine Gründe warum diese HDD bisher nur OEMs angeboten wird und es bis dato nicht in den freien Handel geschafft hat.
Weil das einfach bei neuen Enterprise HDDs der normale Vorgang ist, dass diese erstmal mit ausgewählten Partnern getestet werden.

Seagate hatte übrigens früher schon mal eine Platten mit Doppelarm, damals aber anders konstruiert, nämlich 2 Arme pro Platter.
War das Seagate oder WD? Ich weiß es nicht mehr, aber ich erinnere mich, dass es sowas schon mal gab, weshalb ich auch die Bezeichnung "Doppelarm-Festplatte" in der Überschrift irreführend finde, denn dies HDDs haben nicht mehr Arme als andere mit der gleichen Anzahl an Platter auch, dafür aber zwei Aktoren statt nur einem.
 
Wieso sollte es ein doppeltes Ausfallrisiko geben? Dies Thema hatten wie am Anfang des Threads doch schon und Seagate gibt die Ausfallwahrscheinlichkeit mit den gleichen 2,5 Millionen Stunden an, wie sie für solche Enterprise HDDs üblich sind.
Diese Angaben beziehen sich auf MTBF und sind absolut nutzlos. Das sind 285 Jahre... also völlige Träumerei
 
Diese Angaben beziehen sich auf MTBF und sind absolut nutzlos. Das sind 285 Jahre... also völlige Träumerei
Du verstehst nicht was die MTBF aussagt! Die MTBF/MTTF ist eine statistische Ausfallwahrscheinlichkeit während der vom Hersteller geplanten Lebensdauer des Produktes bei Einhaltung der Einsatzbedingungen ist, abzüglich der Anfangsphase in der die Ausfallraten für alle technischen Produkte immer besonders hoch sind.

Gibt der Hersteller z.B. 2 Millionen Stunden MTBF/MTTF an und
- Hat man 2 Millionen der Geräte in einem System, kann man jede Stunde einen Fehler / Ausfall erwarten.
- Hat man nur 2000 Geräte, so wird etwa alle 1000 Stunden eine Fehler auftreten, also so alle 43 Tage.
- Hat man nur eines, wär ein Fehler nach spätestens 2 Millionen Stunden oder 228 Jahren zu erwarten, nur ist dann die Lebensdauer schon lange überschritten und damit ist die MTBF/MTTF bei so wenigen Geräten nicht aussagekräftig und mithin irrelevant.

Man kann die MTBF also nicht in eine Lebenserwartung umdeuten und ein kleines Beispiel zeigt warum dies so ist: Ein durchschnittlicher Mitteleuropäer von 46 Jahren mit einem BMI von 27, Nichtraucher und mäßiger Konsument von Alkohol hat eine statistische Sterberate von 1,8 Todesfällen pro 1000 solcher Personen. Damit rechnen die Versicherungen und daraus ergibt sich eine MTTF von 1000(Personen) * 365 (Tage/Jahr) * 24 (Stunden/Tag) / 1,8 (Personen, die Ausfälle pro Jahr) = 4,867 Millionen Stunden, was 555 Jahren entspricht.

So alt wird aber offensichtlich keiner, durchschnittliche Lebenserwartung in Deutschland beträgt etwa 81 Jahre, also nur etwa 0,71 Millionen Stunden.
 
Ich kenne die Bedeutung von MTBF. Dennoch völlig nutzlos. Das eine HDD mit mehr mechanischen Teilen eine höheren Ausfallwahrscheinlichkeit hat ist fakt
 
Das ist auch was mich am meisten interessiert. Die Aussage "14 TB of capacity available as two independently addressable, 7 TB logical units" würde ich auch so verstehen daß dann zwei logische Festplatten ans System/Betriebssystem gemeldet werden. Ich dachte die Platte verwaltet das intern und es wird nach extern eben nur eine gemeldet.
Das würde ich auch so sehen, zumindest was die Server-Versionen mit SAS betrifft. Deren Kunden bevorzugen es vermutlich die Kontrolle über solche Features zu haben. Das war ja auch bei Sektorgröße so ähnlich. Consumer bekamen ausschließlich Platten mit 512B-Emulation während die Kunden bei den Server-Platten die Wahl hatten. Sollten also irgendwann Consumer-Platten mit der Technik kommen, erwarte ich, dass bei diesen das ganzen von der Firmware geregelt wird und diese sich nach außen wie ganz normale Platten verhalten nur eben schneller.


Bin schon gespannt auf erste Tests ... allerdings verstehe ich die Aussage von Firebl "Hinzu kommt, dass nicht alle Controller Hersteller ihre Firmware für den Betrieb der 2X14 angepasst haben."
Die Controller, speziell RAID Controller, müssen erst mal mit diesen Platten umgehen können.
Wie oben schon gesagt würde ich davon ausgehen, das spätere Consumer-Versionen keine Anpassungen der Controller mehr erfordern werden.

Ein RAID 1 würde ja nun gar keinen Sinn machen, nimmt man dies doch um sich vor dem Ausfall einer der Platten im RAID 1 zu schützen, aber wenn es einen Schaden gibt, dann wird sehr wahrscheinlich die ganze Platte ausfallen, also beide Seiten des RAID 1. Man hätte also nur einen Schutz, wenn wirklich nur ein Aktor oder ein Kopf ausfällt, was nicht so wahrscheinlich sein dürfte.
Interessanterweise gibt es bereits Dateisysteme, die es ermöglichen Daten mehrfach auf die gleiche Platte zu schreiben, so hat btrfs z.B. neben den "single" und den verschiedenen RAID-Modi auch noch "dup". Der Modus ist zwar wohl eher nur für Metadaten gedacht, lässt sich aber auch für Nutzerdaten aktivieren.

Diese Platten sind eh nur ein Übergangsprodukt, bis entsprechend große SSDs in ähnliche Preisregionen kommen.
Und gegen eine SATA-SSD hat die Seagate trotz gleicher max. Übertragungsgeschwindigkeit eh keine Chance.
Denn viel entscheidender als hohe Transferraten sind kurze Zugriffszeiten. Die spürt man in der Praxis viel deutlicher als hohe Transferraten.
Du betrachtest das ganze aus der falschen Perspektive. Diese Festplatten sind als Verbesserung herkömmlicher Festplatten gedacht, nicht als Ersatz für SSDs. Wenn du mal die neueren Festplatten mit älteren vergleichst, wird dir auffallen, dass die Kapazität viel stärker gesteigert wurde als die Geschwindigkeit. Das hat dazu geführt, dass es mittlerweile mitunter einen ganzen Tag dauern kann eine solche Platte zu füllen. Das ist insbesondere dann problematisch, wenn z.B. ein RAID-Array wiederaufgebaut wird, da in dieser Zeit die Daten deutlich stärker gefährdet sind als im Normalbetrieb. Mit der verdoppelten sequentiellen Schreibgeschwindigkeit halbiert sich diese Zeit.
 
Zuletzt bearbeitet:
Ich kenne die Bedeutung von MTBF.
Den Eindruck habe ich aber nicht, nach dem Spruch mit den 285 Jahren, denn wer eine MTBF in Jahre umrechnet, hat ganz nicht verstanden was sie aussagt, da sie eben nur bis zum Ende der von Hersteller geplanten Nutzungsdauer gilt und dies sind bei HDDs in aller Regel 5 Jahre.
Das eine HDD mit mehr mechanischen Teilen eine höheren Ausfallwahrscheinlichkeit hat ist fakt
Nein, wenn die Teile höherwertiger sind, also aus besserem Material und/oder mit geringeren Toleranzen, dann kann die Ausfallwahrscheinlichkeit auch bei mehr Teilen sogar geringer sein, dies ist auch Fakt! Außerdem sind es ja nicht so viel mehr Teile.

zumindest was die Server-Versionen mit SAS betrifft.
Von einer anderen Version habe ich bisher auch noch nichts gelesen.
Das war ja auch bei Sektorgröße so ähnlich.
Das hat einen anderen Grund, nämlich um bei Problemen mit dem Lesen eines Sektors nicht alle Zugriffe auf das RAID zu blockieren, bis die Platte den Sektor vielleicht doch noch erfolgreich gelesen oder es nach ihrem Timeout aufgegeben und einen Lesefehler gemeldet hat. In die zusätzlichen Bytes pro Sektor schreibt der RAID Controller eine eigene ECC, liest dann die Daten so wie sie sind von der HDD kommen und prüft aufgrund seiner eigenen ECC selbst, ob sie korrekt sind.

Wenn nicht, dann korrigiert er sie aufgrund der Redundanz der Daten der anderen Platten im RAID und überschreibt den problematischen Sektor auf der betroffenen Platte, aber dies passiert auch bei ordentlichen RAIDs mit SATA Platten, nur eben erst nachdem die Platten es entweder geschafft oder nach dem Timeout aufgegeben hat die Daten doch noch korrekt zu lesen und dieser Timeout beträgt bei HDDs mit TLER/ERC i.d.R. ab Werk 7s (und ist einstellbar) und bei denen ohne meist 14s, die einstellbar sind.

Sollten also irgendwann Consumer-Platten mit der Technik kommen, erwarte ich, dass bei diesen das ganzen von der Firmware geregelt wird und diese sich nach außen wie ganz normale Platten verhalten nur eben schneller.
Wenn es eine Consumer Version geben wird, womit ich nicht so bald rechnen würde, dann wird es eine SATA Platte sein und ich glaube kaum, dass man dann den SATA Controller noch beibringen wird mit zwei Laufwerken an einem SATA Port umzugehen und dann wird es wohl der Controller der Platte selbst verwalten müssen.
Der Modus ist zwar wohl eher nur für Metadaten gedacht, lässt sich aber auch für Nutzerdaten aktivieren.
Bei Metadaten macht es ja noch einen gewissen Sinn und wenn es per Default nicht für die Nutzerdaten aktiv ist, dann macht auch dies Sinn. Dies dann aber selbst für Nutzerdaten zu aktivieren, macht schon weniger Sinn. Ordentliche Backups gehören auf ein Medium welches in einem anderen Gehäuse steckt als das Medium mit den Originaldaten um gegen möglichst viele Risiken zu schützen.
 
Den Eindruck habe ich aber nicht, nach dem Spruch mit den 285 Jahren, denn wer eine MTBF in Jahre umrechnet, hat ganz nicht verstanden was sie aussagt, da sie eben nur bis zum Ende der von Hersteller geplanten Nutzungsdauer gilt und dies sind bei HDDs in aller Regel 5 Jahre.
Nein, wenn die Teile höherwertiger sind, also aus besserem Material und/oder mit geringeren Toleranzen, dann kann die Ausfallwahrscheinlichkeit auch bei mehr Teilen sogar geringer sein, dies ist auch Fakt! Außerdem sind es ja nicht so viel mehr Teile.
Man merkt das du von der Praxis weit entfernt bist. Ich habe jeden Tag mit Servern und Storagesystemen zu tun, diese MTBF (Mean Time before Failure) ist nicht das Papier wert auf dem es steht. Ausfallraten im Serversegment sind meist weit höher als im Consumerbereich, da auch viel mehr beansprucht. So eine Lösung wie hier beworben, egal wie du es siehst, und ich rede da mal aus Praxiserfahrung, wird sich kein Admin antun. Gehobene Ausfallwahrscheinlichkeit mit quasi keinen Vorteilen. Wenn man solche Leistung haben möchte setzte man auf getrennte Laufwerke und ein Raidcontroller managed das Ganze. Das hier ist eine Kamikaze-Lösung, oder nenn es Concept-of-Proof. NIcht mehr nicht weniger. Interessent zu sehen, und Respekt das dies so Umsetzbar ist, in der Praxis wird da aber keiner drauf setzen, aus oben aufgeführten Gründen.
 
diese MTBF (Mean Time before Failure) ist nicht das Papier wert auf dem es steht.
Die sind nicht 100%ig sondern eher grobe Schätzung bis Marketing, da gebe ich Dir recht, aber trotzdem ist es eine Ausfallwahrscheinlichkeit und keine Angabe der Lebensdauer und nicht in Jahre umrechenbar.
Ausfallraten im Serversegment sind meist weit höher als im Consumerbereich
Woran ich meine Zweifel habe, also belegen die Aussage bitte. Meine Erfahrung zeigt mir nämlich das Gegenteil, sofern man die pasende Hardware korrekt verwendet.
So eine Lösung wie hier beworben
Hier wird nichts beworben, sondern darüber in einer News informiert!
Gehobene Ausfallwahrscheinlichkeit mit quasi keinen Vorteilen. Wenn man solche Leistung haben möchte setzte man auf getrennte Laufwerke
Erstmal wissen wir nicht ob und wenn ja, wie sehr die Ausfallwahrscheinlichkeit steigt, so viel mehr Bauteile gibt es ja nicht und dann haben getrennte Laufwerke auch den Nachteil mehr Platz, mehr Strom etc. zu benötigen und natürlich insgesamt ebenfalls eine höhere Ausfallwahrscheinlichkeit zu bedeuten, denn mit doppelt so viele HDD für die gleiche Kapazität, die man ja braucht um genausoviele IOPS/TB zu erzielen, hat man auch bei gleicher MTBF mit doppelt so viele Ausfällen in der gleichen Zeit zu rechnen.
 
Woran ich meine Zweifel habe, also belegen die Aussage bitte. Meine Erfahrung zeigt mir nämlich das Gegenteil, sofern man die pasende Hardware korrekt verwendet.
Einfach eigene Erfahrungen da natürlich im Serverumfeld die Hardware mehr gefordert wird. Aber mal abgesehen davon, Hardware kann man nicht falsch verwenden, das einzige was wichtig ist, ist die Überwachung der Temperatur und Luftfeuchtigkeit, das war es aber auch schon. Was ich aber von selbst erklären sollte. Weiß also nicht was du meinst mit Hardware korrekt verwenden…
 
Einfach eigene Erfahrungen da natürlich im Serverumfeld die Hardware mehr gefordert wird. Aber mal abgesehen davon, Hardware kann man nicht falsch verwenden, das einzige was wichtig ist, ist die Überwachung der Temperatur und Luftfeuchtigkeit, das war es aber auch schon. Was ich aber von selbst erklären sollte. Weiß also nicht was du meinst mit Hardware korrekt verwenden…
Ach, Hardware kann man garnicht falsch verwenden? Wie war das beispielsweise nochmal mit SMR-Platten in RAID-Systemen, insbesondere in Kombination mit ZFS? Mich würden hier ehrlich gesagt auch mal Belege hinsichtlich der von dir getroffenen Aussagen interessieren.
 
Eine SMR Platte kann man auch nicht falsch benutzen, entweder es geht (ggf. suboptimal) oder es geht nicht. Defekte wirst du aber keine haben.
 
Einfach eigene Erfahrungen
Also aus einem sehr beschränkten Samplesize und gleich meldet sich der nächste mit der gegensätzlichen Erfahrung auf Basis eines ebenfalls beschränkten Samplesize.
Hardware kann man nicht falsch verwenden
Natürlich kann man dies, auch HDDs haben Spezifikationen und dazu gehört ob sie für Dauerbetrieb zugelassen ist, für wie bis zu viele HDDs pro Gehäuse und welches Workload Rating sie hat.
Eine SMR Platte kann man auch nicht falsch benutzen, entweder es geht (ggf. suboptimal) oder es geht nicht.
Nein, es wird erstmal funktionieren, so wie einfache Desktopplatten in Servern am Anfang funktionieren, die Probleme kommen dann erst später, aber es ist nicht so, als würde es von Anfang an nicht laufen.
 
Selbiges bezüglich dss Arguments "Ausfallwahrscheinlichkeit". Ich sehe ehrlich gesagt nicht warum die signifikant höher sein sollte - weder die Anzahl der Platter noch die Anzahl der Köpfe hat sich hier geändert. Wir sprechen ja nicht über sowas:

conner_peripherals_ch4pj26.jpg


An der Stelle wäre doch relevant welcher Anteil der Ausfälle in dem Bereich auf die Aktuatoren selbst zurückzuführen ist resp. diese betrifft.
 
Wir sprechen ja nicht über sowas:
Eben und sowas würde ich auch als Doppelarm-Festplatte bezeichnen, aber für die Dual Actor HDDs wie die Mach.2 Exos 2X14 passt diese Bezeichnung überhaupt nicht. Ich hatte es schon einmal im Post #6, aber hier noch einmal wie das im Prinzip funktioniert:

Seagate-Multi-Actuator-technology-conceptual-illustration.jpg


Es gibt nicht mehr oder weniger Arme und Köpfe, die Arme sind nur nicht mehr alle auf der gleichen Achse, diese ist einmal geteilt und hat nun zwei Antriebe, womit sich die Hälfte der Arme unabhängig von der anderen Hälfte bewegen kann. Keine Ahnung wie genau die Antriebe der Positionierunf der Köpfe aussehen, ob dies nun zwei statt einem sind oder ob es vorher schon mehrere waren und man diese nun auch nur entkoppelt hat, aber nur in Bereich gibt es dann wirklich mehr Teile und die sind meines Wissens nach nicht gerade die Teile die massenhaft für HDD Ausfälle sorgen.
 
Papelap, die Ausführungen von Genosse @Romsky sind in sich stimmig, das sollte hier langsam mal akzeptiert werden.
 
Gesundheit.

die Ausführungen von Genosse @Romsky sind in sich stimmig, das sollte hier langsam mal akzeptiert werden.
Stimmig, soso.
@passat3233
Bist du sicher das sich das Gerät bei dem Host-System als 2 HDDs meldet? Bezweifle ich ehrlich gesagt, da dies, egal mit welcher Argumentation, einfach keinen Sinn macht.
Diese Angaben beziehen sich auf MTBF und sind absolut nutzlos. Das sind 285 Jahre... also völlige Träumerei
[...]Aber mal abgesehen davon, Hardware kann man nicht falsch verwenden[...]

Hast du da das /s am Ende deines Posts vergessen? Gleichfalls würde mich nach wie vor ein Beleg bzgl. der Ausfallraten interessieren. Vielleicht kommt der ja noch. An der Stelle würde ich dann allerdings hinterfragen wollen wieso Seagate dann auf seine Enterprise-Modelle eine Garantie von 5 Jahren statt 2 Jahren gibt. Weil die Belastung im "professionellen" Umfeld höher sind und die Dinger öfter ausfallen? Bezweifle ich ehrlich gesagt, da dies, egal mit welcher Argumentation, einfach keinen Sinn macht.
 
Ja... finde es wie immer amüsant... Kollege Holt liest immer fleißig aus Datenblättern (ohne jegliche Praxiserfahrung) und bei Viper sieht es auch so aus als wäre er in der Praxis nicht groß mit besagter Hardware in Kontakt gekommen... das etwas welches doppelt gesteuert und angesprochen wird (Aktoren) naturgemäß, und einfache Logik/Mathematik, eine höhere Ausfallwahrscheinlichkeit hat ist doch das 1x1. Aber ich denke wir haben hier genug "diskutiert" hier wird sich keiner mehr von seiner Meinung weg bewegen, bringt also nichts... in dem Sinne. Bye ;)
 
ohne jegliche Praxiserfahrung
Wie kommst du darauf? Diese unsinnige Unterstellung reicht so langsam für die Aufnahme auf der IL, denn eine Diskussion ist auf so einer Basis einfach nicht möglich.
als wäre er in der Praxis nicht groß mit besagter Hardware in Kontakt gekommen
Mit der konkreten Hardware um die es hier geht, nämlich der Dual-Actuator-Festplatte HDD, hat noch keiner hier Praxiserfahrung, weil man die noch nicht einmal kaufen kann.
as etwas welches doppelt gesteuert und angesprochen wird (Aktoren) naturgemäß, und einfache Logik/Mathematik, eine höhere Ausfallwahrscheinlichkeit hat ist doch das 1x1
Dabei hatte ich doch schon geschrieben:
Nein, wenn die Teile höherwertiger sind, also aus besserem Material und/oder mit geringeren Toleranzen, dann kann die Ausfallwahrscheinlichkeit auch bei mehr Teilen sogar geringer sein, dies ist auch Fakt!
Dies sollte jeder der auch Ahnung von der Praxis hat, eigentlich wissen, denn es gibt eben unterschiedliche Qualitäten bei den Komponenten die man verbauen kann, die besseren kosten aber natürlich mehr, dafür kann man mit mehreren von denen eine geringere Ausfallwahrscheinlichkeit erreichen als mit weniger, aber qualitätiv minderwertigen Komponenten.
 
die Arme sind nur nicht mehr alle auf der gleichen Achse
Doch, das sind sie, zumindest auf deinem Bild aus dem gleichen Post.

Wenn du von "Wellen" sprechen würdest, wäre das etwas anderes. Sollte das dort aber tatsächlich eine "Achse" (= reines Lagerelement) sein, dann sind alle Arme auf der gleichen Achse.
 
Ja... finde es wie immer amüsant... Kollege Holt liest immer fleißig aus Datenblättern (ohne jegliche Praxiserfahrung) und bei Viper sieht es auch so aus als wäre er in der Praxis nicht groß mit besagter Hardware in Kontakt gekommen... das etwas welches doppelt gesteuert und angesprochen wird (Aktoren) naturgemäß, und einfache Logik/Mathematik, eine höhere Ausfallwahrscheinlichkeit hat ist doch das 1x1. Aber ich denke wir haben hier genug "diskutiert" hier wird sich keiner mehr von seiner Meinung weg bewegen, bringt also nichts... in dem Sinne. Bye ;)
Schon interessant wie es selbsternannte Experten schaffen sich in Abseits zu manövrieren und dann beleidigt aus der Diskussion aussteigen welche sie selbst losgetreten haben. Anstatt Belege für deine aus der Luft gegriffenen Aussagen zu liefern beschuldigst du einfach diejenigen die deine Behauptungen hinterfragen.

Du kannst offensichtlich nichts von dem was du hier behauptest substanziieren und wunderst dich dass Leute dir deine Spekulationen und Verallgemeinerungen nicht abkaufen?

@passat3233
Bist du sicher das sich das Gerät bei dem Host-System als 2 HDDs meldet? Bezweifle ich ehrlich gesagt, da dies, egal mit welcher Argumentation, einfach keinen Sinn macht.
...ja ne, also von Experten kann man ja nicht erwarten dass sie sich mit dem Artikel und dem als Quelle zitierten Datenblatt auseinandersetzen. Wieso auch? Weiß man ja eh alles besser.

Diese Angaben beziehen sich auf MTBF und sind absolut nutzlos. Das sind 285 Jahre... also völlige Träumerei
Sogar ich als jemand der sich nur hobbymäßig mit Storagelösungen beschäftigt fasst sich ob solcher Aussagen doch an den Kopf. Die MTBF mögen abhängig vom Einsatzfeld nicht 1:1 übertragbar sein, sie deswegen als "absolut nutzlos" zu bezeichnen ist aber doch hirnrissig.

[...]Aber mal abgesehen davon, Hardware kann man nicht falsch verwenden[...]
Schon alleine die Forenbeiträge hier im Luxx, geschweige denn in anderen Foren oder sozialen Medien allgemein sollten dich hier eines besseren belehren.

Achja, und natürlich:
Ausfallraten im Serversegment sind meist weit höher als im Consumerbereich, da auch viel mehr beansprucht.
[...]das einzige was wichtig ist, ist die Überwachung der Temperatur und Luftfeuchtigkeit, das war es aber auch schon.
Das ergibt doch vorne und hinten keinen Sinn. Wo werden denn Temperatur und Luftfeuchtigkeit - andere Faktoren scheinen ja offensichtlich nicht ausschlaggebend zu sein :rolleyes: - durchgehend überwacht und aktiv gesteuert? Wieso soll die AFR dann im Consumer-Bereich niedriger sein?

Solche verallgemeinernden Aussagen wie du sie hier vom Stapel lässt kann man eigentlich umgehend in Ablage P einsortieren, die sind doch von vornherein wertlos.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh