[News] Seagate 8 TB Festplatte für unter 250 € nagelneu , wo ist der Haken ?

Sollen sie halt umrüsten und auf NANDs setzen.
Das versuchen sie ja, oder wieso meist Du hat Seagate Sandforce gekauft? Aber ohne selbst NANDs zu fertigen werden sie da nie die Bedeutung der NAND Hersteller, also von Hynix, Intel, Micron, Samsung, SanDisk und Toshiba, erzielen können, weil Löwenanteil der Wertschöpfung eben bei den NANDs liegt. Bei HDDs fertigen sie das meiste selbst und damit ist das eine ganz andere Geschichte.

Der Markt ist schon da, aber die Wenigsten können das bezahlen.
Eine 2TB 850 Evo würde nur etwa doppelt so viel kosten wie eine 1TB 850 Evo und das haben anfangs nicht wenige Kunden auch für die m500 960GB bezahlt, als diese als erst 1TB Consumer SSD zu einem vernünftigen Preis aus dem Markt gekommen ist. Manche Enthusiasten zahlen für ihre i7 CPU mehr.
Sollen es halt billiger machen. :d
Nur kann man die Kosten eben nicht so schnell so massiv senken und subventionieren werden sie die Dinger auch nicht wollen. :d
Während eine Zelle einer Consumer-SLC 100.000 gelöscht werden kann, sind es bei Enterprise-SLC zb bis zu 1.000.000 Löschvorgänge.
Diese Wert bezweifele ich bei heutigen NANDs massiv, dann gibt es gar kein Enterprise-SLC, da SLC immer für Enterprise ist und bei dem Preis ist da garantiert kein super hochwertiges SLC verbaut, denn da kommt man unter 10$/GB nicht weg.

Bei ZFS gibt/brauchts kein Format.
Natürlich gibt es das dort auch, aber da ZFS RAID-Verwlatung und Filesysten vereint, ist auch die RAID Initialisierung und das Format nur ein Schritt.

Das Gerücht über viel, viel RAM und CPU mit viel Power hält sich einfach ewig. :wall:
...
OmniOS hat 16 GB zugewiesen bekommen.
Und 16GB findest Du wenig? Außerdem habe ich doch geschrieben, dass die Performance davon abhängt, nicht das man zwangsläufig extrem viel davon braucht. Schon eine recht einfach CPU hat heute mehr Rechenleistung als die RAID Controller und verfügt meist auch über mehr RAM. ZFS ist aber halt noch mal deutlich anspruchsvoller als etwa ein Linux md SW-RAID.
weil ich ECC-RAM haben wollte, was ja absolut sinnvoll ist
Ja, ZFS ohne ECC RAM ist nur für die ganz Muttigen, aber das glauben viele gar nicht, bzw. erst wenn es zu spät ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Natürlich gibt es das dort auch, aber da ZFS RAID-Verwlatung und Filesysten vereint, ist auch die RAID Initialisierung und das Format nur ein Schritt.

Mag sein, nur dass ich nach Eingabe auf der Console:
# zpool create mypool
# zfs create mypool/daten
fertig bin und gleich loslegen kann mit dem Kopieren usw.

Und 16GB findest Du wenig? Außerdem habe ich doch geschrieben, dass die Performance davon abhängt, nicht das man zwangsläufig extrem viel davon braucht. Schon eine recht einfach CPU hat heute mehr Rechenleistung als die RAID Controller und verfügt meist auch über mehr RAM. ZFS ist aber halt noch mal deutlich anspruchsvoller als etwa ein Linux md SW-RAID.
Ja, ZFS ohne ECC RAM ist nur für die ganz Muttigen, aber das glauben viele gar nicht, bzw. erst wenn es zu spät ist.

Was ist wenig, was ist viel? Viel geht bei mir > 48 GB los - wie gesagt im Serverbereich.
ECC sollte eigentlich immer sein - wenn einem die Daten wichtig sind. Und auf die paar Euro mehr kommt es wirklich nicht mehr an.
Aber ich weis, wir leben im Land der "Geiz ist Geil" Fraktion. (Vor ein paar Wochen hab ich in einem anderen Forum gelesen, dass tatsächlich Leute lächerliche 15 Euro sich sparen wollen um den DVBViewer nicht bezahlen. Heulen dann aber rum, dass die gehackte Version verseucht war. :stupid: )
 
Kleines Update!
Nas4Free ist heute 2x beim Kopieren von Daten auf das ZFS Volume angehalten (Kernel Panic?).

Ich bin mir noch nicht sicher, ob das an Nas4Free selbst liegt, da ich hier das erste mal die Version 9.3 am Start habe.
Beim ersten mal war's Verion 9.3.0.2.1349, beim 2. Mal Version 9.3.0.2.1391, jeweils embedded Install auf einem Sandisc Cruzer Extreme an USB3 inkl. SWAP - ist auch das erste mal, daß ich nen USB Stick verwende, allerdings auch nur zur Zeit zum Testen.
Auf der geplanten Systemplatte ist zur Zeit noch Win7 drauf, wegen H2wtest.

Das raidz3 selbst ist aber intakt geblieben.
Im Nas4Free forum gibt es jemanden, der auch unerklärliche shutdowns hat, zur Not werde ich auf die bei mir bislang Fehlerfrei laufende 9.2 zurückgehen - oder was ganz andereres ausprobieren...

Es gibt für mich bislang keinen Anhaltspunkt, daß die Platten tatsächlich für ZFS ungeeignet sind.

Vielleicht war auch eine der anderen "mitlaufenden" 15 HDDs schuld und hat irgendwie dazwischengefunkt (eine scheint z.B noch 'ne Promise Raid Signatur zu haben, so wurde jedenfalls laut Syslog vermeldet), ich habe die mal alle abgezogen.

Edit: soeben der 3. Crash
 
Zuletzt bearbeitet:
@Digi-Quick das hört sich nicht gut an. Kannst du evtl. mal 2 Pools mit jeweils 5 Platten (bzw. 4-6) aufsetzen? Dann könnte man einkreisen ob es an den reinen Platten Menge (das ZFS Probleme mit der neuen Schreibtechnik bekommt) oder an den Schreibpausen der Platten liegt? Bei dem einen User (Name vergessen) laufen anscheinend 4 Platten im Raid 5 problemlos. 4 sind halt auch nicht 10.....
 
Zuletzt bearbeitet:
Moin,

meine HDD war die Nacht irgendwann endlich fertig.
War ein wenig überrascht wie wenig H2TESTW doch ausspuckt.
Datenträger schneller als erwartet voll!
Zu Beginn waren 7630433 MByte frei, aber es konnten nur
7630413 MByte geschrieben werden.
Achtung: Nur 7630433 von 7630755 MByte getestet.
Schreibrate: 125 MByte/s
H2testw v1.4
Und nix weiter.
Genauso läuft die Platte zwar am USB Controller verliert aber ihre Formatierung :wall:
Habe einfach mal mit der Initiierung versucht, aber dann sollte es formatiert werden.
Nachdem ich es wieder intern eingebaut hatte war die Formatierung auch dort hinüber.
Jetzt läuft gerade die schnell Formatierung durch.

Und die ganze Oddysee für externe Gehäuse startet vom neuem ... :kotz:

Edit:
Übrigens zur schnell Formatierung.
Platte in Windows nach ein paar Sekunden fertig.
Die HDD ist aber intern noch gut 1h am rumarbeiten gewesen!

In der Zeit würde ich dann keine Daten drauf schieben.
 
Zuletzt bearbeitet:
Kleines Update!
Nas4Free ist heute 2x beim Kopieren von Daten auf das ZFS Volume angehalten (Kernel Panic?).

Ich bin mir noch nicht sicher, ob das an Nas4Free selbst liegt, da ich hier das erste mal die Version 9.3 am Start habe.
Beim ersten mal war's Verion 9.3.0.2.1349, beim 2. Mal Version 9.3.0.2.1391, jeweils embedded Install auf einem Sandisc Cruzer Extreme an USB3 inkl. SWAP - ist auch das erste mal, daß ich nen USB Stick verwende, allerdings auch nur zur Zeit zum Testen.
Auf der geplanten Systemplatte ist zur Zeit noch Win7 drauf, wegen H2wtest.

Das raidz3 selbst ist aber intakt geblieben.
Im Nas4Free forum gibt es jemanden, der auch unerklärliche shutdowns hat, zur Not werde ich auf die bei mir bislang Fehlerfrei laufende 9.2 zurückgehen - oder was ganz andereres ausprobieren...

Es gibt für mich bislang keinen Anhaltspunkt, daß die Platten tatsächlich für ZFS ungeeignet sind.

Vielleicht war auch eine der anderen "mitlaufenden" 15 HDDs schuld und hat irgendwie dazwischengefunkt (eine scheint z.B noch 'ne Promise Raid Signatur zu haben, so wurde jedenfalls laut Syslog vermeldet), ich habe die mal alle abgezogen.

Edit: soeben der 3. Crash

@Digi-Quick,

warum nimmst du Nas4Free und nicht OmniOS?
Also wenn du ZFS wirklich testen willst, ob es mit den Seagate 8TB HDDs zurecht kommt, dann nimm bitte schön ein Original und nicht eine Portierung.
Wenn dir die Web-Gui wichtig ist, dann installiere napp-it auf OmniOS.
 
Entwarnung:
Nachdem ich Nas4free 9.3 auf eine kurzfristig freigeschaufelte kleine HDD installiert habe, rennt das Kopieren seit fast 9h (vorher war nach ca. 4h Schluss)

@Layerbreak
Ich habe mir Napp-IT (damals noch auf OI), FreeNAS, NAS4Free und ZFSGuru angeschaut, Nas4free hat mir am besten "gefallen". Nun setze ich seit über 3 Jahren NAS4Free ein.
Die Alternativen habe ich selbstredend auf dem Schirm.

EDIT:
kaum geschrieben, Bäng....
Muss allerdings dazu sagen, daß ich aktiv am Konfigurieren war.
Genauer gesagt hatte ich den gestern gemounteten USB Stick entfernen wollen, dabei reagierte das System einige Zeit nicht mehr und rebootete schliesslich (Kernel-Panic?)
Da ich den Midnightcommander auf dem Stick drauf hatte und installiert habe, vermute ich mal, daß das damit zusammenhängen könnte.
Ich hatte das Install-script zwar vorsichtshalber nochmal von der lokalen Platte durchgeführt, das könnte aber auch witzlos gewesen sein.
 
Zuletzt bearbeitet:
StillPad, "Zu Beginn waren 7630433 MByte frei, aber es konnten nur
7630413 MByte geschrieben werden." Das ist genau was ich beschrieben hatte, nämlich das die Metadateien des Filesystem schnell anwachsen als heise das damals für so große Volumen vorausgesehen hat und damit am Ende der Platz ausgeht. Das ist also normal und kein Schaden der HDD.
 
StillPad, "Zu Beginn waren 7630433 MByte frei, aber es konnten nur
7630413 MByte geschrieben werden." Das ist genau was ich beschrieben hatte, nämlich das die Metadateien des Filesystem schnell anwachsen als heise das damals für so große Volumen vorausgesehen hat und damit am Ende der Platz ausgeht. Das ist also normal und kein Schaden der HDD.

Danke :)
Hatte auch schon geguckt deswegen und nur die Info zu NTFS gefunden das die wohl nicht komplett beschrieben werden können.

Insgesamt bin ich heute total frustriert wegen der externen Gehäuse Sache.
Hersteller meint Gehäuse ist nur bis 4TB freigegeben :( Auf das eigendlich Partitionsproblem wurde gar nicht eingegangen.

Raidsonic hat mir vorhin noch geantwortet und meinte das alle ihre Gehäuse laufen sollten. Auch das die Partition richtig erkannt wird.

Habe die letzten Stunden noch damit verbracht neue Treiber für Chipsatz und Co. zu suchen. Wie toll das Intel nicht mehr schreibt für welchen Chipsatz der IRST noch funzt.
Scheinbar ist der 12.9 der letzte für Serie 7 Boards nachdem ich von 13.6 alles nach unten durch hab.
 
Die Hersteller geben meist nur die maximale Kapazität an, die sie selbst getestet haben und bis vor gar nicht langer Zeit waren da 4TB die größten HDDs mit denen die Gehäuse getestet werden konnten. Was genau meinst Du mit "Partitionsproblem"?

Von Intel RST müsste auch der 13.2er noch für die Serie 7 Board gehen, schau doch mal nach.
 
Was genau meinst Du mit "Partitionsproblem"?

Das was ich oben geschrieben habe:
Wenn Platte im PC formatiert wurde und anschließend ins Gehäuse gepackt wird wird die Partition inkl. alles vorher kopierten Daten nicht mehr erkannt.
Wenn die Platte im Gehäuse formatiert wird und anschließend im PC betrieben wird ist sie auch wieder unpartitioniert.

Das selbe Problem hatte ich vor 2 Jahren schon mit 3 und 4TB Platten bis ich ein passenden externes Gehäuse hatte was lief.
War eines von LC-Power
Leider gibs auch keine Datenbank wo man sehen kann was wo verbaut ist und was unterstützt :(

Zu den IRST
Ich glaube es gab bei Intel nur 13.1 und der wird nicht mehr unterstützt.
 
Was meckert ihr über lange Formatierungszeiten? Das ist doch ein guter Test für eine neue Festplatte. Mir ist es schon öfter passiert, dass eine Festplatte schon nach kurzer Zeit abgeschmiert ist (sogar schon bei der ersten Installation von Windows). Wenn sie so eine Formatierung durchhält, kann man sich relativ sicher sein, das sie hält, zumal ja auch Studien gezeigt haben, dass Festplatten meist ganz am Anfang kaputt gehen und wenn nicht, dann lange halten.
 
Was meckert ihr über lange Formatierungszeiten? Das ist doch ein guter Test für eine neue Festplatte. Mir ist es schon öfter passiert, dass eine Festplatte schon nach kurzer Zeit abgeschmiert ist (sogar schon bei der ersten Installation von Windows). Wenn sie so eine Formatierung durchhält, kann man sich relativ sicher sein, das sie hält, zumal ja auch Studien gezeigt haben, dass Festplatten meist ganz am Anfang kaputt gehen und wenn nicht, dann lange halten.

Das war bisher auch immer meine Meinung bei der langsamen Formatierung. Da dort ja jeder Sektor gecheckt werden sollte kamen mir so Sachen wie H2TESTW ziemlig unnütz vor.
Ich habe jetzt halt mal beides gemacht und Fehler scheinen nicht da zu sein.
 
viele USB Gehäuse haben eine 4K Emulation
Vorteil: Platten grösser als 2TiB stehen auch unter XP in voller Grösse zur Verfügung (zumindest voerst, da 4K nur bis 16 TiB unter XP funktioniert)
Nachteil: (S)ATA Controller (und die dazugehörigen Treiber) könnnen immer noch nur mit Sektorgrössen von 512 Byte umgehen, weswegen die aktuellen 4K/AF Platten eine 512 Byte Sektoremulation durchführen.

Wie das bei Kombigehäusen (USB3/eSATA) aussieht, weiss ich nicht, wäre aber ein Toller Faux Pas, wenn die an USB 4K emulieren und an eSATA dann 512e durchreichen....
 
Oha gibs da ne Seite wo man sich da einlesen kann? Habe das gefühl da was verpasst zu haben.
Dachte das die ganzen Platten alle schon mit real 4k Sektoren arbeiten ohne irgendwelche Emus.

Als ich mich mit 4k Platten beschäftigt hatte kannten die meisten Support Teams das noch nichtmal weshalb Fragen dazu nicht beantwortet wurden.

Ich habe vorhin gesehn das es inzwischen auch USB3/eSATA Gehäuse gibt. Die gabs damals auch nicht als ich meine USB3 Gehäuse gekauft habe.
Die Auswahl war zu der Zeit sehr begrenzt.

Hatte davor immer die USB2/eSATA Gehäuse gehabt und eigendlich nur eSATA genutzt :d
 
Ich wettere seit Einführung von Advance Format gegen diese unsägliche 512 Byte Emulation.
die ATA Spezifikation erlaubt seit Urzeiten variable Sektorgrössen, das ist aber nie umgesetzt worden.
Mit Einführung von SATA hätte man da einen sauberen Schnitt machen können
 
Das was ich oben geschrieben habe:
Das habe ich dann wohl übersehen.
Wenn Platte im PC formatiert wurde und anschließend ins Gehäuse gepackt wird wird die Partition inkl. alles vorher kopierten Daten nicht mehr erkannt.
Das ist die 4k Emulation, die viele Gehäuse machen, wenn eine Platte mit mehr als 2TB eingebaut ist. Man kann es recht einfach prüfen, man baut die HDD in das Gehäuse, steckt es an, startet eine cmd.exe und führt folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model

Bei mir kommt raus:
BytesPerSector Model
512 M4-CT512M4SSD2
512 ST1000LM024 HN-M101MBB
4096 ST3000DM 001-1CH166 USB Device
Meine 3TB Seagate ist auch in einem USB Gehäuse das 4k Sektoren emuliert (CnMemory Fertiglösung). Das wird gemacht damit Platten mit mehr als 2TB auch weiterhin mit MBR partitioniert und die ganze Kapazität mit einer Partition genutzt werden kann, denn Windows XP unterstützt ja normalerweise kein GPT!

Nachteil: (S)ATA Controller (und die dazugehörigen Treiber) könnnen immer noch nur mit Sektorgrössen von 512 Byte umgehen, weswegen die aktuellen 4K/AF Platten eine 512 Byte Sektoremulation durchführen.
Jein, inzwischen gibt es die ersten 4kn Platten, also Platten mit physikalischen 4k Sektoren aber ohne diese 512 Byte Emulation (512e), aber das bisher nur teure Enterprise HDDs und daher werden wohl kaum allzu viele unerfahrene Heimanwender damit Probleme bekommen.

Wie das bei Kombigehäusen (USB3/eSATA) aussieht, weiss ich nicht, wäre aber ein Toller Faux Pas, wenn die an USB 4K emulieren und an eSATA dann 512e durchreichen....
Kommt leider auch vor:
Mit dem OS oder dem Host Rechner hat das auch nichts zu tun, wenn, dann allenfalls mit der FW des USB-SATA Bridgechip bzw. deren Konfiguration. Ja, man kann es bei einigen Gehäusen / Dockingstations mit einem Herstellertool einstellen, ob diese die 4k Sektoremulation machen sollen oder nicht!

Oha gibs da ne Seite wo man sich da einlesen kann?
Leider schreiben weder die Fachpresse noch die Hersteller großartig etwas dazu. Du kannst ja mal diesen Thread bei CB lesen.

Dachte das die ganzen Platten alle schon mit real 4k Sektoren arbeiten ohne irgendwelche Emus.
Fast alle 4k Platten, außer den oben schon verlinkten wenigen 4kn Platten, haben eine 512 Byte Emulation, da eben die 512 Byte pro Sektor seid den ersten HDDs eine Konstante waren und viele BIOS und auch sonst mache SW mit anderen Größen an den SATA Controllern nicht klar kommt, die vergleichsweise jungen USB Platten haben damit weniger Probleme, auch wenn einige Geräte wie TV oder Sat-Reciver mit den Gehäusen mit 4k Emulation sehr wohl Probleme haben. Diese 4k Emulation der USB-SATA Bridgechips ist also genau das Gegenteil von der 512 Byte Emulation die die HDD Controller bei Advanced Format HDDs (also praktisch allen aktuellen Modellen) machen.

Als ich mich mit 4k Platten beschäftigt hatte kannten die meisten Support Teams das noch nichtmal weshalb Fragen dazu nicht beantwortet wurden.
Da muss man unterschieden, 4k mit 512e oder 4kn oder eben die USB 4k Emulation. Aber die Hersteller von USB Gehäusen sind da auch nicht sehr offen und schweigen meist zu dem Thema, außerdem kann es schon mit einer anderen FW-Version schon wieder anders aussehen, wenn also ein Gehäuse diese 4k Emulation hat muss es ein anderes, scheinbar identisches Gehäuse nicht auch haben.

Ich habe vorhin gesehn das es inzwischen auch USB3/eSATA Gehäuse gibt. Die gabs damals auch nicht als ich meine USB3 Gehäuse gekauft habe.
Damit wäre ich aber extrem vorsichtig, s.o.!
Hatte davor immer die USB2/eSATA Gehäuse gehabt und eigendlich nur eSATA genutzt :d
Bei denen ist es aber zumindest über USB dann oft so, dass sie keine Platten über 2TB unterstützen.
 
Moin Moin,

also genau das Fantec Gehäuse habe ich gestern Abend noch bestellt.
Der Grund war das nun ein Firmware Patch draußen ist der dieses USB/eSATA Problem lösen soll.
Stand zumindest bei Geizhals.at

Ausserdem hatte ich damals immer Fantec Gehäuse die eigendlich alle gut waren.
Der günstige Preis von 21,20€ kam auch noch dazu :d

Ich werde das nachher nochmal alles gegen testen mit den Befehl und den Gehäuse.
Dann sind auch alle Treiber da. Mit etwas Glück kann ich auch Samtag das neue Gehäuse abholen und dieses dann testen.
 
Ich vermute mal, daß die jetzt auf den Markt gekommenen 4kn Platten auf 99% der Consumer Mainboards gar nicht laufen und nur auf einem kleinen Teil der Server Mainboards.
Als Betriebssystem dürften mittlerweile einige der Unixoiden OSses damit klar kommen, bei MS bin ich grad nicht sicher, ob schon Win 8(.1) damit umgehen kann, oder ob das erst mit win10 kommt. Beim Server 2012-R2 müsste es schon funzen.

Mit ein wenig "Treibertrickserei" können die 4kn Platten prinzipiell auch an Mainbords ohne 4kn-Unterstützung als Datenplatte laufen. Dann halt nur mit diesem Treiber unter jenem OS in genau diesem Versionsstand, und müsste sich am Controller/BIOS mit Dummy Konfiguration anmelden.

Kleines Update zu ZFS/8TB SMR Platten:
Nach Anwenden der Tweaks läuft das System jetzt seit fast 12h und hat in der Zeit über 3TB kopiert. Das Raidz3 ist mittlerweiel mit 10,5TiB cvon 30,5TiB gefüllt, dauert also noch, bis die angepeilten 70-80 % Füllstand erreicht sind.
 
Zuletzt bearbeitet:
@Roadrunner2k

Hat schon jemand die externe 8TB Festplatte von Seagate im Betrieb

Noch nicht aber ich hole meine heute Abend von der Post ab.

Habe Sie hier in Schweden fuer relativ guenstige 2799 schwedische Kronen versandkostenfrei bekommen (entspricht 302 Euro, Geizhals Deutschland Vergleichspreis: 329 Euro).

Die meisten Sachen sind in Schweden teurer als in Deutschland (höhere Steuern und weniger Konkurrenz).

Der Test bei Storagereview kam auf sehr schlechte Werte fuer das sequenzielle lesen uns schreiben (Poor sequential/random performance: sequential read 68.83MB/s, sequential write 37.29MB/s)

Der Test auf Techradar kam dagegen auf Ergebisse die in etwa der internen Plattenperformance entsprecehen (124MBps in sequential read, 195MBps in sequential write). Warum das Schreiben so viel schneller geht als das Lesen verstehe ich allerdings nicht.

Bei mir wird das Ding die meiste Zeit im Schrank liegen weil ich die Platte als offline/offsite Backup verwenden will.
 
Zuletzt bearbeitet:
Das habe ich dann wohl übersehen.
Macht nix :)

Das ist die 4k Emulation, die viele Gehäuse machen, wenn eine Platte mit mehr als 2TB eingebaut ist. Man kann es recht einfach prüfen, man baut die HDD in das Gehäuse, steckt es an, startet eine cmd.exe und führt folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model
Habe ich bisher noch nicht an allen externen Gehäusen testen können.
Intern is alles 512
Ich habe aber im Prinzip alles da um es mal durchtesten zu können 10 externe Gehäuse der gleichen Art mit 2-4tb Bestückung :d
Bin schon aufs Ergebnis gespannt.

Aber ist wirklich die 512/4K Emulation das Problem das die Partition nicht richtig erkannt wird?
Damals als ich die Gehäuse gebraucht und gekauft habe hieß es noch das es einzig an den USB/SATA Bridge Chip liegt ob er die GPT sauber durch gibt.

Von daher verwundert es mich nun das diese Emulation schuld sein soll.

Leider schreiben weder die Fachpresse noch die Hersteller großartig etwas dazu. Du kannst ja mal diesen Thread bei CB lesen.

Ich bin da auch ein wenig verwirrt. Damals als die ersten 4k Platten kamen, waren glaube ich 2tb Version gabs nen Bericht auf einer großen Hardware Seite. Was da nun passiert wieso man aus 512kb Sektoren nun 4096kb Sektoren macht. Und da ja die Standardgröße von NTFS Sektoren 4096kb sind war es für mich ziemlig perfekt und hatt keinerlei Nachteile.

Ich hatte mir nur Sorgen gemacht um die ganzen Geräte wie TV, Mediaplayer und Konsolen ob die mit 4k umgehen können.
Das die aber alle 512kb emulieren war mir neu und ist auch völlig unverständlich für mich. Die Option fürs emulieren ist perfekt für alte Geräte, aber jedes welches NTFS kann sollte doch mit reellen 4k Sektoren klar kommen.

Noch mehr verwundert mich dieses 4k USB rumgemache...

Die Seite habe ich mir mal angeguckt.
Erstmal wunderts mich das erst so spät ein Thread in solch einer Sache kommt. Ich habe den Umstieg schon 2013 oder so gemacht.
Dann habe ich die LC-Power Gehäuse von der Whitelist!
Ich werde bei allen mal gucken welcher Chip da verbaut ist und wie es sich mit den TB Platten verhält. 2-4TB liefen ja, nur die 8TB nicht.

So kommen wir mal zur 8 TB Platte selber.

Meine hatte ich ja nochmal langsam formatiert (sicher is sicher :d)
War heute Mittag dann endlich fertig.
Schaufel gerade 3,4TB drauf.
Erst hatte ich 180MB/Sek was recht schnell auf 100MB/Sek fiel. Blieb es aber leider nicht inzwischen isses bei 45MB/Sek
Scheint schon wieder eine Nachtschicht zu werden die Daten da drauf zu bekommen ...

Die Platte von der gezogen wird schafft 100-120Mb/Sek

Wie es aussieht komme ich wohl erst morgen zum großen USB Gehäuse Test und wie die sich verhalten.
 
Die externe Version:

wmic diskdrive get BytesPerSector,Model

BytesPerSector Model
512 ST4000VN000-1H4168
512 INTEL SSDSA2MH080G1GC
4096 Seagate Backup+ Desk SCSI Disk Device


Der Benchmark auf dem Apple MacBookAir schwankte recht stark. Ich habe noch die Werte für die interne SSD und zwei externe USB 3.0 Laufwerke als Vergleich hinzugefügt.
 

Anhänge

  • Verpackung.jpg
    Verpackung.jpg
    47,6 KB · Aufrufe: 126
  • Unterseite.jpg
    Unterseite.jpg
    52,8 KB · Aufrufe: 121
  • Seagate-1.png
    Seagate-1.png
    41,4 KB · Aufrufe: 115
  • Crystal.png
    Crystal.png
    32,8 KB · Aufrufe: 127
  • DiskSpeedTest Seagate.jpg
    DiskSpeedTest Seagate.jpg
    46,5 KB · Aufrufe: 131
  • DiskSpeedTest Sandisk 2.jpg
    DiskSpeedTest Sandisk 2.jpg
    46,1 KB · Aufrufe: 118
  • Seagate.jpg
    Seagate.jpg
    47,7 KB · Aufrufe: 116
  • SpeedTest SSD.jpg
    SpeedTest SSD.jpg
    56,7 KB · Aufrufe: 123
  • DiskSpeedTest Toskiba.jpg
    DiskSpeedTest Toskiba.jpg
    46,1 KB · Aufrufe: 116
  • Seagate-2.jpg
    Seagate-2.jpg
    48,1 KB · Aufrufe: 109
Zuletzt bearbeitet:
Mal ne Frage ist bei euch das Daten drauf schaufeln auch so ätzend langsam?

Ich habe um 12:45 mit Kopieren von 3,43TB angefangen.
Nach nun 7,5h sind etwas über 900GB drüben.
Windows sagt inzwischen 38MB/Sek

Bisher ist das Ding langsamer als beim H2TESTW Probelauf wo immerhin die ganze Platte voll geschrieben wurde.
Habe extra alle Daten auf einmal gestartet damit die Platte gleich am Stück schreiben kann und nicht später hin und her kopieren muss.

Mir grauts schon davor eine 2. Platte einzusetzen. 40MB/Sek ist so 1999

Ich erwarte ja nicht viel aber 100Mb/Sek sollten schon drin sein bei solch einer Größe
 
Zuletzt bearbeitet:
Dann sind auch alle Treiber da.
Treiber gibt es für USB oder eSATA Gehäuse nicht, da spielen nur die Host Controller Treiber eine Rolle. Die einzige Ausnahme sind Treiber für Zusatzfunktionen wie z.B. diese One-Buttom Backups Knöpfe.

bei MS bin ich grad nicht sicher, ob schon Win 8(.1) damit umgehen kann, oder ob das erst mit win10 kommt. Beim Server 2012-R2 müsste es schon funzen.
Das geht ab Win8, wie man hier von Microsoft erfährt. Nachsehen ist immer besser als nur vermuten!

Intern is alles 512
Das ist klar, außer Du hast eine der noch neuen 4kn Enterprise HDDs.
Ich habe aber im Prinzip alles da um es mal durchtesten zu können 10 externe Gehäuse der gleichen Art mit 2-4tb Bestückung :d
Bin schon aufs Ergebnis gespannt.
Das sollte jeder für jede seiner USB Platten testen, dann weiß er auch, ob er diese bei einem Problem mit dem Gehäuse intern einbaun kann oder in ggf. in welchem anderen Gehäuse er eine Chance hat an die Daten zu kommen.

Aber ist wirklich die 512/4K Emulation das Problem das die Partition nicht richtig erkannt wird?
Ja, 100%, bei WD Gehäuse könnte noch eine Datenverschlüsselung dazu kommen, denn da verschlüsseln auch Gehäuse die Daten auf der Platte bei denen man davon nicht merkt bis man die Platte mal ausbaut, weil es weder dick auf der Pakcung steht, noch mal jemals sowas aktiviert hat oder ein Passwort eingeben musste. Keine Ahnung was die sich dabei nur gedacht haben, aber es genügt mir um externe WD HDDs zu meiden, denn der Schlüssel wird auch noch mit jedem Fertigungslos geändert und man hat somit praktisch 0 Chancen bei einem Ausfall des USB-SATA Bridgechip auf dem Gehäuse jemals wieder an die Daten zu kommen.
Damals als ich die Gehäuse gebraucht und gekauft habe hieß es noch das es einzig an den USB/SATA Bridge Chip liegt ob er die GPT sauber durch gibt.
Der Chip hat mir MBR oder GPT nichts zu tun, davon weiß der auch gar nichts. Das ist ja alleine eine Interpretation bestimmte Daten die an bestimmten Stellen auf der Platte liegen, das sind für die Platte und auch die USB-SATA Bridgechip Daten wie alle anderen Daten auch.

Damals als die ersten 4k Platten kamen, waren glaube ich 2tb Version gabs nen Bericht auf einer großen Hardware Seite. Was da nun passiert wieso man aus 512kb Sektoren nun 4096kb Sektoren macht. Und da ja die Standardgröße von NTFS Sektoren 4096kb sind war es für mich ziemlig perfekt und hatt keinerlei Nachteile.
Keine Ahnung welche HW Seite was berichtet hat, aber außer einem Performanceverlust bei falschem Alignment ist es egal ob eine Platte nun native 512 Byte Sektoren hat (512n) oder emulierte (512e) und intern mit 4k Sektoren arbeitet. Das ganze ist nach außen total transpartent, man kann es allenfalls auslesen aus den Daten die die Platte über sich selbst meldet.

4kn wird nun gemacht um diese Emulation los zu werden, was auch die Probleme mir dem Alignment beseitigt und auch Dauer auch keinen Sinn macht, außer eben um Kompatibilitätsprobleme zu vermeiden.

Ich hatte mir nur Sorgen gemacht um die ganzen Geräte wie TV, Mediaplayer und Konsolen ob die mit 4k umgehen können.
Da gibt es welche die das nicht können, das muss man im Zweifel ausprobieren, aber die Gehäuse emulieren ja i.d.R. nur, wenn Platte über 2TB Kapazität eingebaut sind, bei kleineren Platten dann eben nicht. Da muss man dann eben mit 2TB zufrieden sein, ältere Geräte kömmen meist sowieso nicht mehr verwalten.
Das die aber alle 512kb emulieren war mir neu und ist auch völlig unverständlich für mich. Die Option fürs emulieren ist perfekt für alte Geräte, aber jedes welches NTFS kann sollte doch mit reellen 4k Sektoren klar kommen.
Das mit der 512Byte Emulation müsste doch eigentlich damals auf der HW Seite gestanden haben, also die ersten Platte mit physikalischen 4k Sektoren (Advanced Format) erschienen sind. Das mit dem 4k bei NTFS ist die Clustergröße, das Filesystem fasst die Sektoren der Platten eben zu Clustern zusammen, das ist was ganz anderes und passiert auf eine logisch höheren Ebene.

Es gibt eben mehrere Dinge die auch als Sektoren bezeichnet werden, anfangs war das alles das gleiche, dann kamen die Filesystem mit den größeren Clusters die mehrere Sektoren der Platten umfassen, dann eben mit dem Advanced Format die physikalischen Sektoren und die logischen, also wie viele Bytes pro LBA adressiert werden, weshalb ich auch lieber von Bytes pro LBA als von Sektoren rede.

Noch mehr verwundert mich dieses 4k USB rumgemache...
Das musste sein, damit eben XP die Platten auch voll nutzen kann, denn XP unterstützt kein MBR (nur mit Tools oder in den exotischen 64 Bit Versionen) und bei MBR kann eine Partition nur bis zu 2^32 LBAs umfassen und auch nur bis zu der Adresse ihren Anfang haben, was eben bei 512 Byte pro LBA 2TiB (=2.2TB) sind und mehr kann man damit praktisch nicht nutzen.

Die Lösung war also, diese 512 Byte pro LBA auf 4k zu erhöhen und damit sind 16TiB möglich, zumal eben USB diese Problem mit 4k logischen Sektorgrößen (also pro LBA) anders als SATA nicht hat, USB ist eben viel, viel neuer als interne HDDs.
Erstmal wunderts mich das erst so spät ein Thread in solch einer Sache kommt. Ich habe den Umstieg schon 2013 oder so gemacht.
Das Thema ist im Forum ja nicht neu, bei CB haben wir das schon lange, der Thread mit der Liste ist nur neu.
Dann habe ich die LC-Power Gehäuse von der Whitelist!
Wie Du dort sieht und wie ich schon geschrieben habe, ist die Liste nicht perfekt, da gibt es Fehler was schon passieren kann, wenn der Hersteller von Controller oder dessen FW ändert.
2-4TB liefen ja, nur die 8TB nicht.
2TB sagt nichts aus, aber wenn 4TB HDDs laufen aber die 8TB nicht, würde es mich wundern. Wenn die zwar läuft aber Probleme macht, könnte es eben an der Eigenart der Archive v2 (SMR) liegen, die ja zuweilen extrem lange Anwortzeiten bewirkt und vielleicht kommt der USB-SATA Bridge-Chip damit nicht klar.

Wie es aussieht komme ich wohl erst morgen zum großen USB Gehäuse Test und wie die sich verhalten.
Da freue ich mich drauf, lass uns wissen wie es ausgegangen ist.
 
Mal ne Frage ist bei euch das Daten drauf schaufeln auch so ätzend langsam?

Ich habe um 12:45 mit Kopieren von 3,43TB angefangen.
Nach nun 7,5h sind etwas über 900GB drüben.
Windows sagt inzwischen 38MB/Sek

[...]

Ich erwarte ja nicht viel aber 100Mb/Sek sollten schon drin sein bei solch einer Größe
DAS ist übel (?) :fresse: Ehrlich jetzt? :hmm:

Ich wäre auch damit zufrieden, wegen der Technologie, den ganzen Eigenarten usw., wenn sie als Sata6 am Sata6 95 MB/s könnte. Also wie beim brauchbaren 1Gbit LAN. Könnte man sich noch ziehen, angesichts der Größe, des Preises und SMR. Aber 900GB/7.5h ist entschieden zu lahm.
 
@StillPad

Sprichst Du von einer ext. USB Platte oder einer internen SATA?
Im ersten Fall bist Du evt. nur auf USB 2 Speed zurückgefallen, z.B. aufgrund minderwertiger Kabel. Andernfalls ist wohl die Platte schuld.

Solch eine geringe Dauerschreibrate bei einer nicht mehr jungfräulichen Platte befürchtete ich, seitdem diese Serie erschienen ist. Aber leider hatte bisher wohl noch niemand die initale gegen die Überschreibdatenrate getestet.

Ab wann ein Sektor oder Block als nicht mehr leer behandelt wird und vor dem Überschreiben daher erst gesichert werden muss und ob bzw. wie man den Initalzustand wieder herstellen kann, sind alles offene Fragen. Auf einer durch Verschlüsselungs-SW vorformatierten Partition wäre vermutlich auch keine hohe Schreibrate mehr möglich.
Möglicherweise erkennt die Platte beim Dauerschreiben aber auch, dass ein ganzer Block überschrieben werden soll und verzichtet dann auf das Retten.

Bisher hat sich nur ergeben, dass:

Das erstmalige Vollschreiben nach einem Quickformat auch bei grosser Datenmenge schnell abläuft.
 
Zuletzt bearbeitet:
kleines Zwischenupdate.
Das System ist jetzt satte 24h am Stück gelaufen, ohne Crash. Ich gehe also davon aus, daß die Tweaks die nötige Systemstabilität gebracht haben.
in diesen 24h habe ich dauerhaft Daten via GBit-LAN auf das Raidz3 kopiert. Füllgrad jetzt ca. 13,5 TB von 30,5TB - also noch nichtmal halbvoll :(
Laut "Status/Graph" pendelte die Transferrate eigentlich permanet so um die 80 MB/s (70-90 MB/s) - auch vorher schon. Ab und zu habe ich Transferpausen von 20-30s gesehen, ob das nun aber eine Folge von SMR ist, oder einfach der Cache leergeschrieben wird, vermag ich nicht zu sagen. Die Pausen traten eher bei Transferende einer Datei auf, aber auch mal mittendrin.
Ich werde das System jetzt erstmal runterfahren, und den Platten ein paar Stunden Ruhe gönnen, Morgen geht's weiter mit Kopieren, ca. 10 TB müssen da noch rauf :), danach schaue ich wie lange ein Scrub dauert, und anschliessend wird resilvered.
 
Zuletzt bearbeitet:
Ab wann ein Sektor oder Block als nicht mehr leer behandelt wird und vor dem Überschreiben daher erst gesichert werden muss und ob bzw. wie man den Initalzustand wieder herstellen kann, sind alles offene Fragen.
Bei der großen Anzahl an Sektoren glaube ich kaum, dass es so eine Verwaltung der mit gültigen Daten belegen LBAs oder Sektoren gibt. Das Datenvolumen dafür wäre wohl zu groß. Selbst bei einem Bit pro physikalischen 4k Sektor wäre das 232MB an Daten und da es bei HDDs kein TRIM gibt, würde die Bits nur am Anfang einmal gesetzt und nie wieder gelöscht, der Effekt wäre also nur einmalig.
Möglicherweise erkennt die Platte beim Dauerschreiben aber auch, dass ein ganzer Block überschrieben werden soll und verzichtet dann auf das Retten.
Dafür hat sie ja einen On-Disk-Cache, der dürfte reichen um die Daten einer Gruppe überlappende Spuren zu speicher und dann weiß die Platte ja auch, welche Sektoren überschrieben wurden und die müssen dann eben nicht erst wieder gelesen und die alten Daten dann zurückgeschrieben werden.

Das erstmalige Vollschreiben nach einem Quickformat auch bei grosser Datenmenge schnell abläuft.
Ein Quickformat ist der Platte total egal, davon weiß die nichts, es werden für sie nur ein paar LBAs geschrieben, die das Filesystem dann als leere Metadaten interpretiert. Für den Controller der Platte werden deswegen keine Daten in irgendwelchen Sektoren plötzlich ungültig.

Ab und zu habe ich Transferpausen von 20-30s gesehen, ob das nun aber eine Folge von SMR ist, oder einfach der Cache leergeschrieben wird, vermag ich nicht zu sagen.
Da die Caches ja zum SMR Konzept der Archive gehört ist das im Grunde auch egal.
Ich werde das System jetzt erstmal runterfahren, und den Platten ein paar Stunden Ruhe gönnen
Die sind 24/7 zugelassen, das sollte also keinen Unterschied machen.
 
@StillPad

Sprichst Du von einer ext. USB Platte oder einer internen SATA?
Im ersten Fall bist Du evt. nur auf USB 2 Speed zurückgefallen, z.B. aufgrund minderwertiger Kabel. Andernfalls ist wohl die Platte schuld.

Moin Moin,

ich mach erstmal ein kleines Update.

Die Platten sind intern angeschlossen. 4TB hängen an S-ATA 2 von Intel und die 8TB an S-ATA 3 von ASMedia

Inzwischen sind 19,5h rum und fast 2,6 TB geschrieben.
Transferrate ist auf 37MB wieder gestiegen.

Überschrieben werden sollte da auch nix mehr.
Die Platte hatte gestern zuvor eine Standard (die Langsame) Formatierung und war auch nicht mehr am rumknattern.

Insgesamt war die Nacht echt ätzend weil es die ganze Zeit geknattert hat. Ich werde wohl mal bei Seagate anfragen wieso die Platte so langsam ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh