den Trick mit über 2,2 TiB sollte der GPT loader eigentlich beherrschen.
Ja, nur nutzt Dir das nichts, wenn der Treiber des Host Controllers keine Adressierung über 2TiB vornehmen kann und das oberste Bit einfach abschneidet. Die Partitionsgrößen zeigt Windows aufgrund der Informationen der Partitionierungstabelle an und da fällt das Problem dann nicht auf, wenn man die Partitionierung wie Du unter einem anderen OS vorgenommen hat und der Treiber dort dieses Problem nicht hatte. XP hat ja einen eigenen AHCI Treiber und der von Intel beherrscht die Adressierung jenseits der 2TiB Grenze erst ab dem RST in der Version 10.1!
die Platte war auch nicht voll, auf der zweiten Partition vielleicht 300 GB. Wenn Windows die alle der Reihe nach geschrieben hätte, hätte nichts passieren sollen. Egal.
Windows belegt die Partitionen von Anfang an, aber die Metadaten des MFT liegen nicht am Anfang sondern etwa in der Mitte der Partition und genau die sind ja auch defekt, der MFT lag offenbar genau im Bereich der 2TiB Grenze, was auch klar ist, bei zwei Partitionen mit je 1.5TB, da ist die Mitte der zweiten auch genau bei 2.25TB, also etwa 2TiB. Den Anfang des MFT konnte er noch unterhalb der 2TiB Grenze schreiben, nachdem der zu groß wurde gab es dann die Fehleradressierung und damit die Probleme.
Das komplette Beschreiben ist ein guter Tip, habe ich damals nicht berücksichtigt.
Ich wette bei der jetzigen Konfiguration wird es nicht klappen. Poste mal die Screenschots von
Drive Controller Info unter XP und Win7.
h2testw (kann das auch mit 512k umgehen)?
Das ist dem egal, es ist ein Tool auf Filesystemebene. Außerdem haben von wenigen Enterprise 4kn Platten mit denen XP wohl nicht klar kommen wird, alle HDDs noch immer 512 Byte pro Sektor, meist eben emuliert (512e). Aber genau wegen XP und weil das gewöhnlich kein GPT unterstützt, haben die neueren USB Gehäuse oft eine 4k Emulation, denn über USB macht die abweichende Sektorgröße keine solchen Probleme wie an SATA. Man kann das leicht prüfen, startet eine cmd.exe und führt folgenden Befehl genau so aus:
wmic diskdrive get BytesPerSector,Model
Bei mir kommt raus:
BytesPerSector Model
512 M4-CT512M4SSD2
512 ST1000LM024 HN-M101MBB
4096 ST3000DM 001-1CH166 USB Device
Meine 3TB Seagate ist auch in einem USB Gehäuse das 4k Sektoren emuliert (CnMemory Fertiglösung) und gerade bei fertig gekauften USB Platte ist das besonders oft zu finden, erst recht wenn auch mit XP Kompatibilität geworben wird!
WD life guard Extended test oder sogar mit Zero beschreiben?
Was sollte das bringen? Die HDD ist nicht defekt, die ist perfekt in Ordnung und eine Fehladressierung wirst Du so auch nicht bemerken, denn dann wird das Tool eben nur die ersten 2TiB prüfen und dann noch einmal die ersten etwa 740GB erneut prüfen, wobei es gleich dabei die restlichen 750GB jenseits der 2TiB Grenze zu testen.
XP wird ja jetzt begraben, daher brauche ich diese Konstrukt nicht mehr.
Wenn Du dann unter Win7 keinen uralten Treiber verwendest sondern den von Microsoft selbst oder eben den RST von Intel ab Version 10.1, dann wirst Du auch keine solche Probleme mehr haben.
BTW, gibt es eine maximale Partitionsgröße unter Win7 (oder geht 3 TB NTFS), meine irgendwo gelesen zu haben, dass da auch unter ungünstigen Umständen wieder irgendwas bei 2,2 TiB scheitern könnte.
Um über 2.2TB (=2TiB, eine 2.2TiB Grenze gibt es nicht, TiB ist ein Binärpräfix und TB ein Dezimalpräfix, 2TiB sind 2*1024^4 Byte) zu kommen muss eine Platte mit 512 Byte pro Sektor mit GPT partitioniert sein, da MBR nur 32 Bit breite Adressen für den Anfang und die Länge der Partitionen erlaubt und der Treiber muss es eben unterstützen, was bei Deinem XP das Problem war!
Datensicherung fragt man immer nach, wenn es zu spät ist.
Deswegen schreibt ich ja auch in gefühlt jedem zweiten Post die Datensicherung nicht zu vergessen, auch wenn es viele nicht mehr lesen mögen, zu viele machen es einfach noch nicht oder auch nicht richtig.
System HDD ist noch machbar und auch sinnvoll (mach ich auch teilweise, zumindest eigene Dateien und was man noch für sinnvoll hält.
Man muss halt alle Daten sichern die man nicht verlieren will, denn was nicht gesichert ist, verliert man früher oder später doch und die siehst, gibt es viel mehr Gefahren als nur HW-Ausfälle der HDDs.
Bei Datenplatten läuft es doch im Prinzip immer darauf hinaus, dass man die doppelte Kapazität vorhält und irgendwie mit Raid oder NAS spiegelt, zaubern kann das System auch nicht.
Ja man muss immer mindestens die doppelte Kapazität vorhalten wenn man Daten sicher speichern will, weshalb es eben noch nie billig war größere Datenmengen zu sicher speichern und dann gilt immer noch:
RAIDs ersetzen keine Backups! Auch von den Daten eines NAS mit einem RAID 1, 10, 5 oder 6 sollte man Backups auf USB Platten oder einem anderen NAS anlegen, denn die Backupmedien sollte immer in einem anderen Gehäuse stecken, um bei Problemen mit dem Netzteil oder einen Sturz des Gehäuses nicht mit drauf zu gehen und wenn sie vom gleichen OS verwaltet werden, sollte sie auch nicht ständig mitlaufen, sondern nur um das Backup zu erstellen, aktualisieren oder zurückzuspielen. Das ist wichtig, falls man sich einen Verschlüsselungsvirus einfängt, damit man nicht versehentlich Dateien löscht oder schlimmer noch die ganze Partitionen löscht oder überschreibt. Es ist nicht wenigen schon passiert, dass dann etwa das Image statt auf dem USB Stick auf einer Festplatte gelandet ist.
Man kann es auch noch weiter treiben und für den Fall z.B. eines Brandes oder Einbruchs noch eine USB Platte mit einem Backup auslagern, vielleicht sogar in ein Bankschließfach, aber das muss jeder selbst wissen. Meiner Meinung nach ist man mit einer Kopie aller wichtigen Daten auf wenigstens einer USB Platte schon recht gut abgesichert und die wichtigsten Daten sollte man wenigstens zwei USB Platten und der internen von wenigstens einem PC oder einem NAS / Homeserver abgelegt haben.