[Kaufberatung] Festplatten + Diskussion (keine SSDs)

Speziell meinte ich damit, das es dort auch CMR/SMR gemischt gibt.
Das gilt ja inzwischen für alle Kategorien von HDDs, wobei man bei den einfachen Desktopplatten schon Probleme bekommt eine ohne SMR zu finden, seit WD SMR bei der Red eingeführt hat, gibt es auch NAS Platten mit SMR und auch Enterpriseplatten mit SMR gibt es mindestens seit der HGST Ha10. Das es CMR und SMR gemischt gibt, ist also nichts spezielles mehr.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

ich könnte mal Tipps für meinen Festplattenkauf gebrauchen. Ich suche 2 Festplatten für ein kleines (wirklich kleines Gehäuse) NAS, das QNAP TS-230. Das ist ein Einsteiger-NAS, aber für mich komplett ausreichend, weil das NAS als hauptsächlich als Backup-Lösung genutzt werden soll und als kleiner Datenserver für einen Verein mit -5-6 User, die darauf zugreifen. Aktuell habe ich dafür ein QNAP TS-120, aber mit einem RAID-1 würde ich mich sicherer fühlen. Und ja, ein Backup vom NAS wird natürlich auch gemacht.

Backup soll überwiegend für Fotos (RAW und JPGS) sein. Aktuell ca. 1,5 TB Fotos, Sicherung Systempartition ca. 250 GB, Anwendung- und Dokumenten-Ordner ca. 200 GB, Dateiserver ca. 50 GB. In Summe werden aktuell also ca. 2 TB benötigt.

Ich schwanke jetzt zwischen 6 TB und 8 TB. Das es mir nicht auf Geschwindigkeit ankommt hätte ich eigentlich lieber eine langsame und sparsame Festplatte. Da würde mir die Ironwolf 6TB besser passen als die 8TB-platten, die es wohl nur mit 7200 RPM gibt?

Das NAS-Gehäuse ist ziemlich klein, so dass es vermutlich auch von den Temperaturen von Vorteil wäre, wenn die Platten sparsamer sind?

Gibt es noch andere Alternativen oder Empfehlungen? Danke!
 
Ich habe jetzt die 14T Toshiba MG07ACA14TE in Verwendung.
Zur Zeit noch ganz offen und sie wird für den ersten Extended Self-Test (23h), sowie ein Backup, genutzt.

Zur Lautstärke:

- Der Kopf ist leiser als eine eingebaute und gedämmte Seagate Archive HDD 8T, die ja auch ohne Aufforderung aktive ist, um ihre überlappenden Spuren zu säubern. Bei CDM RND4KQ32 wird ist es dann aber deutlich hörbar (so mit einem Fingernagel auf die Tischplatte klopfen), aber so werde ich die nicht benutzen.

- Die Platte brummt doch schon sehr. Ist in ein Einschubgehäuse dämpfend eingeschraubt, aber es vibriert. Hört man nicht, aber spürt man gut. Den Einschub werde ich separat schwingend aufhängen.

Ansonsten 245M/s read und 250M/s write bei 97% Auslastung.

Bin zufrieden.
 
Zu weiche Aufhängungen mögen zwar der Akustik dienen, aber für die HDDs ist es nicht optimal, die könnten Probleme mit der Positionierung der Köpfe bekommen.
Korrekt, Es macht auch wieder keinen Sinn laute Nearline-HDD zu kaufen und dann Geräuschdämmung zu betreiben.
 
Wobei, wenn man sich die Preise ansieht, dann sind die Enterprise HDDs teils billiger als NAS Platten und dann ich schon nachvollziehen, wieso man sich so eine kauft. Nur sollte man trotzdem nicht vergessen, dass die eben nicht auf eine geringe Lautstärke optimiert sind.
 
Ich brauch dann mal eine neue Backup-Platte. Genauer: 2. Ich hau meine Backups unter anderem auf eine externe Platte, die ich durchwechsele. Die Platte liegt offsite (auf der Arbeit halt) für den "Haus brennt ab" Fall. Bisher hatte ich dafür eine 4GB Platte - das ist mittlerweile aber zu wenig, so das ich beide Platten verwenden muss, was dem Prozess des Austauschens nicht gut entspricht. Außerdem dauert der Backup-Prozess ewig. Ich denke jetzt über Wechselrahmen oder ähnliches nach (Hotplugfähige SAS-Backplane?), um den eigentlichen Prozess schneller zu machen. Gleichzeitg brauche ich eben eine neue Platte, bzw. 2. Wie würdet ihr das machen, was für eine Platte (und case) würdet ihr einsetzen?
 
Für einen Wechselrahmen musst du alles Hot-Plug-gemäß konfigurieren, dann sollte das gehen. Für kurzmal Backups kannst du im Endeffekt jede Festplatte mit klarer Angabe zur Einschalthäufigkeit benutzen.
Was für eine 4-TB-HDD hast du bisher benutzt, damit wir deine bisherige Geschwindigkeit einschätzen können. Natürlich hängt die Geschwindigkeit auch von der Art deiner Daten ab. Kopierst du mehre 100 GB in Bildern oder Musik - also kleinen Dateien - beeinträchtigt auch das deine Übertragungsrate. Hier hat dann auch eine aktuelle Helium-HDD mit 7200 rpm zu nagen.
 
Bisher war es eine WD-Red, und leider ("leider") ist es genau das was du sagst: Viele viele Bilder. Ich habe jede Nacht ein inkrementelles Backup auf diese Platte gemacht, und einmal im Monat (mal warens 3 Wochen, mal 2 Monate) die Platten händisch unmounted, ausgeschaltet, gewechselt, angeschaltet, gemountet. Das Backup ist zwar inkrementell, dauert aber trotzdem manchmal ganz schön lange.
 
Natürlich hängt die Geschwindigkeit auch von der Art deiner Daten ab.
So ist es und dazu kommt noch die Frage ob die Platte SMR hat, was beim Schreiben vieler GB dann die Schreibgeschwindigkeit gewaltig senkt, wenn der Media Cache voll ist. Hier ist also auch die Frage wie das Backup genau geschieht, also dateiweise oder Image und inkrementell jeweils als Vollbackup.
Bisher war es eine WD-Red
WD hat vor einiger Zeit Red mit SMR (EFAX) rausgebracht und nachdem dies der Öffentlichkeit bewusst wurde, die Red mit CMR in Red Plus (EFRX) umbenannt. Welche Red hast Du also genau?
Das Backup ist zwar inkrementell, dauert aber trotzdem manchmal ganz schön lange.
Dateiweise? Wenn ja, wie viele Dateien sind auf der Platte? Auch bei einem inkremetellen Backup muss die Backupsoftware ja wenigstens lesen welche Dateien schon auf der Backupplatte vorhanden sind und ggf. prüft sie sogar ob diese mit der Originalplatte wirklich identisch sind. Oder als Image?
 
Die Platte ist 3 Jahre alt, also nichts mit SMR - ist noch eine der "guten, alten" vor der ganzen CMR/SMR Dramatik.
Das Backup wird mit RSync gemacht, inkrementell und (natürlich) Dateiweise. Rsync halt.
RSync überprüft mWn nicht ob die Daten wirklich identisch sind, oder?
 
RSync überprüft mWn nicht ob die Daten wirklich identisch sind, oder?
Keine Ahnung, Du nutzt doch das Programm und müsstest daher seine Funktionsweise und Konfiguration kennen. Wir wissen ja auch nicht wie viele Dateien es sind, wie viele sich so im Schnitt täglich ändern und wie lange es konkret dauert, "ewig" ist nicht sehr konkret, für den einen dauert es ewig wenn es 5 Minuten für 2 Dateien sind, für den anderen sind erst 5 Stunden eine Ewigkeit.
 
Das wars erstmal mit dem Traum von der 8TB Phalanx hier... NBB ha(te) heute eine "Promo" mit der 4TB EFZX für: 93€. Da konnte ich mich nicht mehr gegen wehren 😬und eine halbe Schubkarre geordert.
 
berichte uns mal von den EFZX
 
Jou. Ich schau mir das erstmal eh nur rein elekrischen Sicht an. Mal sehen was da so bei rauskommt.
 
Mal ne Frage zum Testen bzw. Einbrennen - gibt es da einen "Goldstandard"? Macht ihr das? GErade bei Platten die in ein Array sollen? Wenn ja, wie geht ihr da vor?
 
Festplatte anschließen, SMART-Werte und Garantiestatus checken und dann aus den Backups die Daten drauf kopieren, die drauf sollen.

Auf keinen Fall: Tagelange Folterungen durch irgendwelche Volllasttests. Mal ab hier lesen https://www.hardwareluxx.de/community/threads/nas-festplatte-10-12tb.1285780/#post-28009698
Da diskutieren wir das Thema

Du kaufst ja auch kein neues Auto und lässt es erstmal zwei Wochen im Drehzahlbegrenzer auf einem Rollenprüfstand stehen oder? Wenn ich bei dir das Wort Einbrennen lese bekommen die Festplatten auf meinem Schreibtisch schon angst :)
 
Okay, werde lesen und mich weiterbilden! Danke!
(Garantiestatus ist gecheckt und gemeldet, SMART sollte bei leeren bzw noch nicht "lange" - ein paar Tage - im Einsatz befindlicher Platten noch nicht aussagekräftig sein).
 
Es geht darum zu prüfen, ob es z.B. eine gebrauchte Festplatte mit zurückgesetzten Betriebsstunden und Anläufen ist (Man weiß nie wo es fälschungen mittlerweile überall hinschaffen). Ansonsten reicht ein flüchtiger Blick ob alles frei von Fehlern ist. Einen Trend kannst du daran natürlich nicht ableiten.
 
Es geht darum zu prüfen, ob es z.B. eine gebrauchte Festplatte mit zurückgesetzten Betriebsstunden und Anläufen ist (Man weiß nie wo es fälschungen mittlerweile überall hinschaffen).
Dazu muss man aber ins S.M.A.R.T. Log schauen (bei smartctl also -a statt -A) und Glück habe das da auch mal was hinterlegt wurde (ein Selbsttest oder Fehler) und das die bösen Buben es nicht schaffen / nicht daran denken auch diese Logeinträge zu löschen. Die S.M.A.R.T. Attribute zu löschen ist inzwischen für die Fälscher kein Problem, betroffen sind aber vor allem die älteren HDDs betroffen, gerne Enterprise Modelle und die werden bevorzugt zwar als alt aber unbenutzt über die bekannten Marktplätze wie z.B. den großen Fluss, die Bucht und direkt bei den chinesischen Räuberhöhlen zu finden. Um sowas zu vermeiden, sollte man vor dem Kauf schauen wie lange es das Modell schon gibt, seit wann es bei Geizhals gelistet ist hilft da leider nicht, da diese Modelle teils schon gar nicht mehr gelistet waren und neu eingestellt werden, besser direkt auf die Herstellerseite schauen und nach Review oder Datenblättern googlen. Dann auf das Etikett und dort vor allem auf das Produktionsdatum schauen, wenn das mehr als ein Jahr her ist, sollte man die Platte direkt wieder zurückschicken weil sie überlagert ist.
 
berichte uns mal von den EFZX
Natürlich... Bestell sofort, HIER!, überweise auf einfachste Weise am schnellsten blah, kommt dann am 1sten, spätestens 2ten... Ja, natürlich tut es das dann. Wie immer. Nach 18h kommt die Bestätigung, daß sie gepeilt haben, da Geld wäre da und stoßen den Vorgang an ;)

Die Schubkarre kommt also erst am Samstag an. Wie erwartet aber. Ich erkenn meine Schweine halt schon am Gang ;)
 
Festplatte anschließen, SMART-Werte und Garantiestatus checken und dann aus den Backups die Daten drauf kopieren, die drauf sollen.

Auf keinen Fall: Tagelange Folterungen durch irgendwelche Volllasttests. Mal ab hier lesen https://www.hardwareluxx.de/community/threads/nas-festplatte-10-12tb.1285780/#post-28009698
Da diskutieren wir das Thema

Du kaufst ja auch kein neues Auto und lässt es erstmal zwei Wochen im Drehzahlbegrenzer auf einem Rollenprüfstand stehen oder? Wenn ich bei dir das Wort Einbrennen lese bekommen die Festplatten auf meinem Schreibtisch schon angst :)

Immer dieses übervorsichtige Getue seit Hersteller jährliche Workloads verkünden, um ihre überdiversifizierten Plattenserien künstlich gegeneinander abzugrenzen. Wenn das Ding im RAID läuft und eine andere Platte verreckt, dann laufen alle anderen auch viele Stunden bis wenige Tage lang unter Volllast, bis der Rebuild mit ner neuen Platte abgeschlossen ist, erhöhtes Temperatur- und Vibrationslevel inklusive. Wenn sie das nicht können und ein voller Schreibdurchlauf schon zu einer "Vorschädigung" führt, dann hat dieses Modell keine Existenzberechtigung und sollte nicht gekauft werden. Auch nicht-24x7-Platten dürfen mal 24h am Stück durchlaufen, nur nach Garantiebestimmung nicht dauerhaft. Platten wie rohe Eier zu behandeln, bis sie dann tatsächlich im Härtefall eben doch abkratzen hilft niemandem.

Niemand wird neue Platten tagelang mit 512B/4K-Writes malträtieren (übrigens mechanisch schädlicher als einfach sequentiell vollschreiben zu lassen - und dennoch gibts kein Limit von Suchvorgängen, oder?)

Niemand wird die jährlich erlaubte Schreibleistung schon beim Burn-In verfeuern (schon alleine weil das Tage dauert)

Es spricht überhaupt nichts dagegen, eine neue Platte einen halben Tag in der Bude akklimatisieren zu lassen (Garantie kann man da schon prüfen), dann anzuschließen und lastfrei warmlaufen zu lassen, währenddessen SMART-Werte "neu/vor Belastung" zu ziehen - und dann einmal mit Zufallswerten sequentiell vollzuschreiben und wieder auslesen zu lassen. Dann noch ein bisschen Zugriffszeit-Gebenche und das wars mit der unverhältnismäßigen Belastung. Partitionieren, mit Nutzdaten füllen, SMART-Werte "nach" Belastung ziehen und vergleichen. Wenn sich nichts findet, ist die Inbetriebnahme fertig, und wenn sich nach der lausigen Belastung schon Fehler finden, wird eh nachgebohrt oder direkt reklamiert.
Man könnte glatt meinen, dass Leute schon vergessen haben, dass mechanische Festplatten früher mal Systemplatten waren. Da lief für jeden Furz vom Betriebssystem der Lesearm quer rüber und hat Zeug zusammengesucht, womöglich während andere Prozesse zeitgleich auch was wollten. Bevor es NCQ gab. Und um das zu minimieren, hat man sogar defragmentiert, d.h. mutwillig Datenblöcke gelesen und anderswo hingeschrieben. Bei Füllgraden über 90%. Über Stunden, mit täglicher bis wöchentlicher Planung. Was ist denn die Begründung dafür, dass eine heutige CMR sowas nicht mehr verträgt?
 
Immer dieses übervorsichtige Getue seit Hersteller jährliche Workloads verkünden, um ihre überdiversifizierten Plattenserien künstlich gegeneinander abzugrenzen.
Wenn man alle Spezifikationen als Marketing abtut, dann braucht man gar nicht erst über sowas zu diskutieren, sollte aber auch nicht anderen, auch nicht dem HDD Hersteller oder schlechter Qualität der Platten, die Schuld geben wenn es Probleme wie z.B. vorzeitige Ausfälle gibt. Der Grund warum ein Workload Rating eingeführt wurde, liegt in den technischen Lösung die man vor so rund 10 Jahren einführen musste um die Datendichte weiter erhöhen zu können.
Wenn sie das nicht können und ein voller Schreibdurchlauf schon zu einer "Vorschädigung" führt, dann hat dieses Modell keine Existenzberechtigung und sollte nicht gekauft werden.
Da gebe ich Dir allerdings recht und würde eine neue HDDs auf jeden Fall auch erstmal einem Burn-In Test unterziehen, der sollre aber nicht in Folter ausarten. Aus dem Unternehmenseinsatz kenne ich es auch das man neue Hardware erstmal Burn-In Tests unterzieht bevor sie produktriv geht.
Auch nicht-24x7-Platten dürfen mal 24h am Stück durchlaufen, nur nach Garantiebestimmung nicht dauerhaft.
Das auch HDDs ohne Zulassung für den Dauerbetrieb mal länger am Stück laufen können, hat ja auch keiner bestritten, die können auch permanten 24x7 laufen, aber dann sollte man sich nicht wundern wenn sie bald nach Ablauf ihrer meist 2 Jahre kurzen Garantie dann auch defekt sind. Genau dies ist bei Backblaze mit der ST3000DM001 auch passiert:
Dafür das sie da 45 HDDs in einem Gehäuse nicht nur im Dauerbetrieb sondern vermutlich sogar unter Dauerlast betreiben, waren die Ausfallraten 2012 und 2013 durchaus im Rahmen, aber nachdem 2014 immer mehr Platten über 2 Jahre alt waren, fielen dann immer mehr davon aus. Auch andere haben die Erfahrungen gemacht das die ST3000DM001, die damals die günstigste und auch noch eine der schnellsten 3TB Platten war und 3TB waren damals viel, im Dauerbetrieb, gerne auch in einem NAS, oft bald nach dem Garantieende ausfällt, oft bei nicht einmal 20.000 Betriebsstunden. Die Betriebsstunden von 2 Jahren Dauerbetieb entsprichen dann aber auch denen die in über 7 Jahren zusammengekommen wären, wenn sie mit den vorgesehenen 2400 Power-On-Hours pro Jahr betrieben worden wären:
Dafür das sie für eine Nutzungsdauer von 5 Jahren gedacht ist und meist so viele Betriebsstunden erträgt die mehr als 7 Jahren bei der vorgesehen Nutzung entsprechen, kann man doch auch nicht meckern, aber wenn man das Budget an Betriebsstunden eben mit Dauerbetrieb nach meist etwas über 2 Jahren aufgebraucht hat, dann ist sie eben hinüber. Wobei ich auch schon S.M.A.R.T. Werte von solche gesehen haben die deutich über 30.000 Betriebsstunden ohne Probleme überstanden haben.
Niemand wird die jährlich erlaubte Schreibleistung schon beim Burn-In verfeuern
Das Workload Rating bezieht sich bei HDDs immer auf das Volumen der gelesen und der geschrieben Daten, nicht nur auf das geschriebene Datenvolume, es ist also keine Schreibleistung wie sie bei SSDs in Form der TBW bzw. DWPD angegeben ist.
 
Mir ist zwar im Unternehmenseinsatz kein Burn-In bekannt, dass muss aber nicht heißen das es das nicht gibt.
Ich denke diese Diskussion läuft wie immer auf dasselbe aus:
Es gibt Leute, die interessieren Datenblätter nicht und machen mit ihren Festplatten was sie wollen. Andere behandeln die Produkte gemäß Anweisung. Das bei erstem nicht zwangsläufig sofort die Festplatten sterben müssen und die Festplatten auch bei der besten Behandlung nicht ewig halten ist allen klar denke ich.

Auch heutige Festplatten wie eine MG08, Gold oder Exos X können mit Sicherheit noch bei 90% Füllgrad permanent defragmentiert und zugegriffen werden. Es gibt aber Festplatten, welche nicht auf die Nutzung unter Volllast 24/7 ausgelegt sind. Den Unterschied zu damals hat Holt schon sehr gut beschrieben. Aktuell habe ich wieder meine ST12400N auf dem Schreibtisch liegen. (bekannt aus dem Artikel der Exos X16. Sie läuft endlich!) Diese Festplatte hat 3000 Spuren je Zoll. Eine SP2504C, 250GB, wird so bei 30000 Spuren liegen. Eine aktuelle Helium-Festplatte hat 485000 Spuren je Zoll. Also ja, die Festplatten haben sich technologisch in den letzten 20 Jahren verändert. Die extreme Erhöhung der Dichte macht natürlich auch viel feinere Mechanik notwendig und die muss entsprechend behandelt werden.
 
Zuletzt bearbeitet:
Spuren je Quadratzoll
Pro Zoll oder inch, ist ja das gleiche, jeweils 2,54cm, also eine Längeneinheit, aber nicht pro Quadratzoll, was ein Flächenmaß ist. Die Spuren liegen nebeneinander und sind Kreise, deren Dichte über eine Fläche angeben zu wollen wäre sinnfrei. Man zählt sie vielmehr so wie man 100cm auf einem 1m Maßband abzählen kann, aber wie könnte man sinnvoll die cm auf 1m² Maßband abzählen? Das Ergebnis wäre sinnfrei, weil es von der Breite der Maßbänder abhängen würde, aber 1m hat trotzdem immer 100cm, egal wie breit ein Maßband ist.
Die extreme Erhöhung der Dichte macht natürlich auch viel feinere Mechanik notwendig und die muss entsprechend behandelt werden.
Nicht nur die Mechanik muss viel feiner sein, der entscheidende Schritt weshalb ein Workload Rating eingeführt wurde, was vor allem das die Köpfe immer kleiner wurden und daher dessen Abstand zur Oberfläche immer kleiner wurde, bis man im Teilkontaktbereich angekommen ist. Dazu mussten dann aber die Oberflächen der Köpfe und Platter entsprechend mit einer Karnonschicht geschützt und ein Schmierfilm verwendet werden, damit sie dies überstehen. Die Köpfe haben obendrein ein Heizung um den Abstand durch Wärmeausdehnung wirklich nur während Lese- und Schreibvorgängen zu verringern.

Dynamic Fly Height (DFH) 2.png

HDD HDI Head Disk Interface.png

HDD HDI Head Disk Interface 2.png

HDD Head Wear.png


Im oberen Bild ist idealisiert die Flughöhe immer noch vorhanden, so als würden die Köpfe immer noch auch über die größten Erhebungen hinwegfliegen, aber woher kommt dann der Carbonabrieb auf dem untersten Bild und wozu müsste man dann den Aufwand mit den Carbonbeschichtungen und Schmierstoffen betreiben, wo schon letztere eine Wissenschaft für sich sind, da sie lieber in mehreren Lagen übereinander liegen als in einer Molekühllage auf der Oberfläche zu bleiben.

Toshiba hat sogar Köpfe mit Dual Heatern gebaut da man beim Lesen mehr Abstand tolerieren kann und damit wenig tatsächliche Kontakte mit der Oberfläche (die ist in den Dimensionen in denen sich die Kopfabstände bewegen ja alles andere als eben) zu bekommen und damit weniger Verschleiß.

Dual-Heater.png


Nur darüber haben die HDD Hersteller schon damals nicht geredet und reden auch heute nicht darüber, wie man sieht zeichnet Toshiba in den Bildern zum Dual Heater die Oberfläche des Platter idealisiert als einen geraden Strich und verliert auch kein Wort wozu man sowas überhaupt braucht. Die Darstellung zum Single Heater ist auch nicht korrekt, da hier beide Elemente gleichermaßen abgesenkt werden, wenn der Heater an ist, während mit dem Dual Heater wahlweite eines der beiden abgesenkt wird, aber eben nicht immer beide gleichzeitig.
 
Zuletzt bearbeitet:
Ehrlich gesagt, wenn der Abstand zwischen den Spuren auf der ganzen Scheibe gleich ist, dann hätt ich jetzt nicht so ein Problem damit ein Quadratzoll davon zu nehmen und zu schauen wieviele Spuren man da zählen kann. Was für mich auch ordentliche Einheit für die Spurendichte wäre. Was wie die anderen Einheiten eh nur allgemeintechnisch-interessant wäre ;) Die Hersteller geben solche Daten eh nur an um PR damit zu machen. Für den Markt ;) und die Aktionäre vielleicht, damit man zeigen kann wie toll man das alles hinbekommt und noch hinbekommen wird ;)

Die Hersteller erwähnen dabei eben andere Größen. Noch fiel mir nicht ein warum das eine mehr Sinn ergibt als das andere. Für mich sind das einige Einheiten/Größen unter vielen anderen. Vielleicht möchte man nicht verraten wie breit die jeweilige Spur ist?
Die Hersteller sprechen nämlich meist von Bitdichten. Einerseits wieviel Bit sie pro Quadratzoll hinbekommen (hmm), anderereits wieviel Bit auf einer Spur auf 1 Zoll Länge passt.
Warum Spurdichte - die man in Spuren pro Quadratzoll beschreiben kann - unter diesen Angaben deplaziert wäre, das weiß ich wie gesagt nicht. Bit pro Quadratzoll beschreibt man. Was man daraus ableiten könnte - wenn man seinen Durchmesser hat - wäre u.a. wohl wieviel Nutzfläche man auf einem Platter hat (?) Vielleicht möchte man das nicht? :)

edit:
Mal was zu dem workload rating Gezauber, an einer WD.
4TB RedPlus 180 TB/Jahr, 4TB RedPro 300 TB/Jahr. Preisunterschied 99€ zu 120€.

Jetzt werden sich so einige keine Pro kaufen, weil sie denen vielleicht zu laut ist, sie nicht vorhaben mehr als 8 in ein Gehäuse zu packen, soviel im Jahr eh nicht schreiben oder das Budget sehr eng bemessen ist. Ok.
Wenn man jetzt alle Features der Pro aber rausnimmt (Kosten/Aufwand in der Herstellung) und nur den gesteigerten workload rating belässt, wieviel Kosten/Aufwand würde dann übrig bleiben? Wieviel würde eine RedPlus mit 300 TB/Jahr denn kosten? 104€ oder 114€?
Mich ärgert das ehrlich gesagt, daß es bei dieser "Kennzahl" einen Unterschied gibt. Für mich kostet das "nichts".

Ich finde das übrigens auch sehr interessant, daß im Standarddatenblatt von RedPlus und RedPro diese nun vermeindlich signifikante Größe erwähnt wird, im Standarddatenblatt von WD Gold sie aber keine Beachtung findet...
 
Zuletzt bearbeitet:
Ehrlich gesagt, wenn der Abstand zwischen den Spuren auf der ganzen Scheibe gleich ist, dann hätt ich jetzt nicht so ein Problem damit ein Quadratzoll davon zu nehmen und zu schauen wieviele Spuren man da zählen kann.
Die Scheiben sind rund und unter den Spuren die man auf einem Quadratzoll zählen kann, sind daher auch Spuren die nur zu einem teils kleinen Teil auf in diesem Quadratzoll enthalten sind. Tracks (genauer Kilo-Tracks / kTracks) pro Zoll ist die Angabe für die Dichte der Spuren und davon auch nur ein Durchschnittswert, die Anzahl der Spuren über eine Fläche anzugeben wäre totaler Unsinn. Firebl dürfte hier einfach ein Fehler unterlaufen sein, dann die Datendichte wird ja in Bit pro Fläche angegeben und irren ist bekanntlich menschlich.
Die Hersteller geben solche Daten eh nur an um PR damit zu machen.
Also ich glaube kaum das jemand eine HDD wegen der größeren kTracks/in Angabe auswählt, zumal dann immer eine HDD mit SMR gewinnen würde.
Für mich sind das einige Einheiten/Größen unter vielen anderen. Vielleicht möchte man nicht verraten wie breit die jeweilige Spur ist?
Das kann sich dort jeder ein wenig Ahnung von Mathe hat, dann aus der Angabe wie viele kTracks/in vorhanden sind selbst ausrechnen. Bei den 540kTracks/in die Seagates 3.5" mit SMR haben (die 2.5" haben sogar typischerweise 580) sind es also 540.000 auf 2,54cm. Dies sind 21259,84 pro mm und damit 21,26 pro µm. Ein µm sind 1000nm und 1000/21,26 sind also im Schnitt alle 47nm eine Spur. Ist es echt so schwer dies selbst zu berechnen?
Die Hersteller sprechen nämlich meist von Bitdichten.
Dies ist eine weitere Angabe und zusmmen mit der Track Density kann man erkennen ob die HDD wohl SMR hat oder nicht. Im Prinzip hängen beide Angaben ja zusammen, je kleiner die Fläche wird die man braucht um ein Bit zu speichern, umso höher ist die Datendichte und da diese Fläche immer ungefähr quatratisch ist, bekommt man dann mehr Sektoren auf eine Spur und auch mehr Spuren auf die Platte. Fällt das Verhältnis aus dem Rahmen, dann hat man es sehr wahrscheinlich mit überlappenden Spuren zu tun, also einen Trick um die Track Density überproportional zu Datendichte zu steigern. Daher sind beide Angaben wichtig, zumindest für Leute die solche Angaben auch lesen und interpretieren können.
 
(bitte vielleich auch den Edit anschauen)

Ja das ist natürlich richtig. In einem quadratischen Ausschnitt verlaufen die in ihm erwischten Spuren als Bögen. Denke das wäre aber trotzdem nicht sehr problematisch sie nacheinander zu zählen. Wieviel von der Spur zu sehen ist, ist ja nicht vom Belang in dem Fall. ABER OK. Es ging ja nicht zwingend darum, daß ich ausgerechnet diese Größe schmerzlich vermisse.

Bei den 540kTracks/in die Seagates 3.5" mit SMR haben (die 2.5" haben sogar typischerweise 580) sind es also 540.000 auf 2,54cm. Dies sind 21259,84 pro mm und damit 21,26 pro µm. Ein µm sind 1000nm und 1000/21,26 sind also im Schnitt alle 47nm eine Spur. Ist es echt so schwer dies selbst zu berechnen?
(Hervorhebung von mir)
Ich erwisch mich irgendwie zu oft dabei, zu überlegen, ob du manche Sachen wirklich ernst meinst... Stehen "Tracks/in" in Datenblättern? Oder Durchmesser der Platter usw.?
 
Zuletzt bearbeitet:
Mein Fehler, Die KTPI sind Zoll und die Speicherdichte sind GB/ Zoll^2. Inhaltlich ändert das aber nichts

Nicht mehr Spät Nachts wichtige Dinge schreiben :)

edit:
Mal was zu dem workload rating Gezauber, an einer WD.

Ich habe zwar keine Beweise, da WD wie immer fast garkeine Daten herausrückt, aber zumindestens soviel: Ich habe bisher die Red Pro 6 TB und Red Pro 12 TB hier getestet und jetzt auch mit dem Schallpegelmessgerät aufgezeichnet. Die sind beide erheblich lauter als ihre vermeintlichen "Red" Verwandten, So kann man davon ausgehen, dass sie zumindestens schonmal auf mechanischer Ebene nicht verwandt sind.

Bei der Gold hast du 550TB bzw die Freigabe zur Dauerlast. Daher spielt dort das Workloadrating keine Rolle.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh