Dann sind Defrag-Programme also sinnvoll maximal nur sehr eingeschränkt verwendbar bzw. offenbar nur dann, wenn die Fragmentation einen gewissen, eher nicht beeinträchtigenden Umfang erreicht hätte, falls überhaupt.
Es geht ja alles, nur kann die Performance halt richtig in den Keller gehen
Das kommt mir irgendwie widersprüchlich vor. Ich würde denken, wenn die "Performance in den Keller geht", geht eben leider (sinnvoll) nur noch sehr wenig oder eher gar nichts.
Das ist schwer zu sagen, ohne genau zu wissen was Du genau machst
Das Sync-Programm lief ganz normal ohne (in dieser Hinsicht willentliche) Änderungen / Eingriffe von mir weiter. Habe auch außerhalb des Programms auf der Platte nichts gemacht. Wüßte nicht, was sich geändert hätte (außer besagtes Verhalten hinstichtlich RAMs).
aber vielleicht wurden ja ein paar große Dateien gelöscht
Das würde ich eigentlich ausschließen, glaube, das Programm löscht nur zu Beginn der Sync.
Mir fallen gerade nur zwei brauchbare Syncprogramme ein, die ich immer verwende, FreeFileSync und BeyondCompare. Sync-Programme, die - falls ich das so richtig einschätze jedenfalls - zum Syncen nicht die MFT nutzen, die beiden verwenden sie offenbar, sind wegen ihrer Leistung (für bestimmte Datenmengen) völlig unbrauchbar, glaube ich. Oder welche könnte man noch empfehlen?
so fällt die angezeigte Geschwindigkeit auf die Schreibgeschwindigkeit und deshalb sieht es am Ende auch so aus als wolle der Kopiervorgang nicht enden, obwohl er scheinbar schon abgeschlossen ist,
Ja, das ist mir auch schon sehr oft aufgefallen, Sync 100 % erledigt, aber kein Abschluß.
Das die anzeigte Geschwindigkeit hoch war als das RAM knapp wurde, passt von daher nicht zum Verhalten des Explrores,
Diesen Explorer benutze ich praktisch überhaupt nicht, zum Datentransfer auf keinen Fall.
Gibt es denn einen Zusammenhang mit dieser Leistung oder gar SMR zu den Verbindungsabbrüchen?
Nein, bei USB Platten eigentlich nicht, da hier die Timeouts groß genug sein sollten. An einem HW RAID Controller sollte man solche SMR Platten allerdings nicht betreiben, da diese i.d.R. nur 8s auf eine Antwort der Platte warten bevor sie diese als Defekt auf einem RAID werfen. Bei SMR HDDs kann es aber durchaus länger als 8s dauern bis die Platte antwortet. Vielleicht wartet die verwendete Software aber eben doch nicht so lange und bewertet die lange Antwortzeit der Platte als Fehler und bricht die Verbindung ab. Sollte es ein Problem der Spannungsversorgung sein, so steigt der Rohwert vom Attribut C0 wenn der Platte unerwartet die Spannungsversorgung fehlt, denn solltest Du mal beobachten wenn sowas wieder auftritt (F5 oder F6 drücken)!
Ich benutzte wohl den Begriff falsch, ich meinte mit Verbindungsabbrüchen, den Verlust der Verbindung zwischen Rechner und Platte, die Platte wird dann also mit "Device disconnected" (oder was bei der Meldung dann auch immer da steht), wie nach einem erfolgreichen "sicheren" Entfernen angezeigt.
Sollte es ein Problem der Spannungsversorgung sein, so steigt der Rohwert vom Attribut C0 wenn der Platte unerwartet die Spannungsversorgung fehlt, denn solltest Du mal beobachten wenn sowas wieder auftritt (F5 oder F6 drücken)!
Bei Crystal wohl. Aber wird dieser Wert denn nicht automatisch (ohne neu einzulesen) angepaßt? Oder warum F5, F6 drücken?) Dann sollte ich wohl ein Bildschirmfoto der von Crystal angezeigten Daten machen und nach einer akkustischen Fehlermeldung, die sich nicht zuordnen lässt einem Fehler, das Foto mit der aktuellen Anzeige vergleichen? Oder gibt es ein Log oder so etwas?
allderings mit über 100 angezeigten Fehlern.
Was für Fehler und wo wurden sie angezeigt?
Sie werden wohl erst am Ende des Syncens angezeigt, nicht währenddessen. Waren fast alles welche, die keiner Beachtung bedürften in diesem Zusammenhang, Dateien, die während der Sync. verschoben wurden (von mir etwa) oder etwa umbenannt, nicht zugreifbar, also völlig normal. Die also für das Programm nicht mehr vorhanden waren. Und ein merkwürdig klingender Fehler anderer Art, dieser:
-376d.ffs_tmp" kopiert werden.
ERROR_WORKING_SET_QUOTA: Nicht genügend Quoten, um den angeforderten Dienst auszuführen. [CopyFileEx]
Das kann wie oben beschrieben viele Ursachen haben, vielleicht har die Software nun einen Ordner kopiert den es beim Ziel nicht gab und musst daher nicht vergleichen welche Dateien schon vorhanden sind oder eben das diese Dateien nun in den Bereich geschrieben wurden der eigentlich für den MFT reserviert ist. Vielleicht liegt es auch an der Art der Dateien, bei manchen braucht das Virenschutzprogramm länger diese zu untersuchen und dann gibt es noch Leute die sich zwei Virenschützer installieren und sich dann wundern wieso z.B. Archive so langsam kopiert werden, was dann daran liegen könnte, dass ein Antivirenprogramm das Archive entpackt um die einzelnen Dateien zu prüfen und das andere die von dem ersten im Temp geschriebenen Dateien auch noch mal überprüft.
Ja, so könnte man ggf. auch selber ganz schnell erkennen, dass von einem etwa als "Schrott" deklarierte Software oder Hardware tatsächlich vielleicht gar nicht Schrott wäre, sondern der Fehler (wie so oft) beim Anwender läge, der (zudem noch zu einem vielleicht weit zurückliegenden Zeitpunkt) die Ursache für das Fehlverhalten der Software / Hardware gelegt hat (bei diesem Beispiel eben mit Aktivierung einer weiteren Antivir-Software), zu der aktuell dann erst einmal gar kein Zusammenhang erkannt würden zum aktuellen Problem und also völlig falsche Schlüsse gezegen würden). Aber ich habe nur die Win-Virusschutzmaßnahmen, -Firewall. Keine weiteren. Aber derartige (aus Unkenntniss, allen möglichen Mängeln vom Anwender verursachte) Ursache-Wirkungs-Kombinationen wird es ja in endlosen Variationen geben.
Wem Windows nicht gefällt, der nehme halt Linux!
Oder gar Apfel. Ja, aber so einfach lässt sich das, glaube ich, richtig / ohne Irreführung nicht darstellen. Ich bin eben mit diesem Win-Schrott "aufgewachsen". Diese überteuerten Produkte von Apfel würde ich (aus mehreren Gründen) einfach nicht kaufen wollen. Vor allem bei Linux, gehe auch davon aus, dass es bei Apfel so wäre, wäre ein ausschließendes "Problem" allein schon der (wohl nicht erbringbare) Aufwand, der nötig wäre Software / Hadrware in einen Zustand zu kriegen wie ich ihn gegenwärtig für Win habe und die Software so verwenden zu können, wie ich es gegenwärtig tun kann (wie auch immer das wäre). Ich müsste also lernen mit mindestens vielen neuen Programme umgehen zu können, die vermutlich nicht einmal das könnten oder nur zu einem Teil, was ich haben wollte / brauchte. Und viele Probleme / Unwägbarkeiten mehr.
Vielleicht liegt es auch an dem Tools welches zum Backup verwendet wird
Ja, kann natürlich sein, dass die ungünstig / falsch programmiert wären, ein falsches Konzept haben etc., das sich in so einem Verhalten äußert, das könnte ich natürlich null einschätzen (solange es natürlich nichts völlig offensichtliches wäre).
Es könnte an den USB Hub liegen. Beachte auch, dass es ja nur ein passiver Hub zu sein scheint und ein USB 3 Port, auch ein Type-C nur 0,9A liefern können muss, nur USB 3.2 Gen2x2 Ports müssen 1,5A liefern können und Ladeports liefern natürlich auch meist mehr, aber gerade Notebooks sind da oft streng. Eine 3.5" HDD dürfte nicht so viel ziehen, aber je nach Gehäuse wird vielleicht ihre 5V Schiene darüber versorgt um sich den 12V (vom externen Netzteil) auf 5V Spannungswandler im Gehäuse zu sparen und andere Geräte, gerade 2.5" HDD oder USB SSDs können durch eine Menge ziehen und vielleicht dreht dann das Notebook an dem Port den Saft kurz ab und deswegen verschwindet die Platte.
Wie könnte ich diesen Hub als Ursache falsi- / verifizieren? Habe nur einen normalen USB-3.0-Anschluss am Notebook und eben diesen kleinen, wohl noch schnelleren / besseren kleineren Anschluss, an dem der Hub ist. Vielleicht ein Adapter beschaffen (dass ich die Platte an diesen Anschluss anschließen könnte), falls sicher wäre, dass das nicht zu einer Fehler- / Ursachenquelle würde. Oder einfach mal den USB-2-Anschluss zum Testen versuchen, nur zu sehen, ob die Geschwindigkeit konstant bliebe, so wäre wie bei einem solchen zu erwarten wäre, falls dann dann auch eine Aussagekraft hätte. Oder einen anderen Hub beschaffen. Das müsste dann einer sein mit USB 3.2 Gen2x2 Ports und 1,5A? Das wäre, worauf ich achten müsste? Aber es bliebe verwunderlich, dass das Verhalten eben vorher nicht - falls ich mich richtig erinnere - (bei weitem) nicht (in diesem Maß) aufgetreten wäre. Aber vielleicht ist, aus welchen Gründen auch immer, eben jetzt mehr Strom erfordlich innerhalb des Notebooks.