Externe Festplatte verliert Verbindung - CDI zeigt "Seek Time Performance" rot an

Aber doch bestimmt nicht zu einer, wie dieser, die so eine Platte unbrauchbar machte, oder?
Doch, durchaus.

Vor allem war die Platte ja mal schneller.
Die war ja auch mal leerer und wenn nur noch 524 GB von einer 8TB frei sind, dann ist sie sehr voll, so voll das Windows schon in den für den MFT reservierten Bereich, der normalerweise 12,5% der Kapazität der Partition entspricht, schreiben muss. Dies versucht Windows zu vermeiden so lange es geht, und wenn da ständig neue Dateien geschrieben und gelöscht werden, dann dürfte sie auch so lange ganz schön oder sogar schon extrem fragmentiert sein, vor allem was die freien Bereiche angeht in die geschrieben werden kann. Fragmentierung ist eine Sache des Filesystems und bedeutet, dass eine Datei nicht mehr in einem Stück in aufeinanderfolgenden Clustern des Filesystem geschrieben werden kann, sondern eben in kleinere Stücke aufgeteilt an unterschiedlichen Adressbereichen geschrieben werden muss/wurde und damit ist die Schreibperformance dann natürlich so als wenn es mehrere kleine Dateien wären, statt einer großen und dies ist eben langsamer, gerade bei SMR Platten.

Dies federt normalerwiese der Media Cache recht gut ab, aber wenn große Datenvolumen in kurzer Zeit geschrieben werden wie es eben bei so einem Backup der Fall ist, dann dürfte der Media Cache recht schnell voll sein und die Schreibperformance entsprechend in den Keller gehen. Eine Fehlkonstruktion ist SMR deswegen nicht, aber für diese Art der Nutzung und vor allem wenn sie so voll ist, natürlich weniger geeignet und da sie sowieso zu klein zu sein scheint, würde ich eher mal darüber nachdenken eine größere USB Platte zu kaufen, am Besten ab 12TB, die haben einmal alle kein SMR und zum anderen eine Heliumfüllung, was dafür sorgt das sie weniger Leistungsaufnahme haben, also auch nicht so heiß werden und im Idle auch leiser sind.
Beitrag automatisch zusammengeführt:

PS: Hast Du vielleicht auch noch eine Softwareverschlüsselung? Truecrypt und Co. sind sind dafür bekannt die Schreibperfomance von SMR Platten deutlich zu reduzieren, keine Ahnung wieso genau, aber vermutlich ändern sie die Länge der Schreibzugriffe, schreiben also die Daten in kleinen Portionen auf die Platte.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber so einen Schrott würde doch bestimmt niemand kaufen (von mir abgesehen), jedenfalls wenn er wüsste, was für ein Schrott das ist. Nach den Bewertungen wird dieses Modell ja ganz schön oft gekauft, zwar nicht erkennbar wohl in welchen Größen.

Die war ja auch mal leerer und wenn nur noch 524 GB von einer 8TB frei sind, dann ist sie sehr voll
Ja, ja, aber auch in diesem Zustand funktionierte sie ja zumindest mal brauchbar, meine ich (vielleicht täusche ich mich ja auch, könnte vielleicht irgendwann mal testen wie sie bei 6 TB Füllung läuft). Kann mich nicht daran erinnern, so ein Verhalten schon mal bei einer anderen Platte gehabt zu haben (meine WDs sind alle voll, also richtig voll). Zwar gab es mehr oder weniger akzeptable lange Zeiträume, in denen die Datenübertragung lächerlich / unbrauch langsam war, aber innerhalb der gesamten Leistung vielleicht noch als "akzeptabel" angesehen werden könnte.

Dies versucht Windows zu vermeiden so lange es geht, und wenn da ständig neue Dateien geschrieben und gelöscht werden, dann dürfte sie auch so lange ganz schön oder sogar schon extrem fragmentiert sein, vor allem was die freien Bereiche angeht in die geschrieben werden kann. Fragmentierung ist eine Sache des Filesystems und bedeutet, dass eine Datei nicht mehr in einem Stück in aufeinanderfolgenden Clustern des Filesystem geschrieben werden kann, sondern eben in kleinere Stücke aufgeteilt an unterschiedlichen Adressbereichen geschrieben werden muss/wurde und damit ist die Schreibperformance dann natürlich so als wenn es mehrere kleine Dateien wären, statt einer großen und dies ist eben langsamer, gerade bei SMR Platten.
Defragmentieren hülfe also? Hatte zwar nach einer Defragmentation noch nie eine Verbesserung erkannt, aber vielleicht wäre das bei dieser Platte ja so. Aber vermutilch dauerte das auch enorm lange bzw. wäre praktisch nicht durchführbar. Die Anzeige des Syncprogramms zeigt etwa mal 11 Tage, 22 Tage etc. an für 435 GB, 108.000 Dateien.

Eine Fehlkonstruktion ist SMR deswegen nicht, aber für diese Art der Nutzung und vor allem wenn sie so voll ist, natürlich weniger geeignet und da sie sowieso zu klein zu sein scheint
Ich kann mir in diesem Zusammenhang momentan noch nicht vorstellen, wie "zu klein" gemeint sein könnte in diesem Zusammenhang (alle meine Platten sind zu klein, eine 80 TB-Platte wäre gut), da es ja bestimmt nicht um ein Verhältnis vorhandener Daten zu vorhandenem Speicherplatz der Platte ginge, sondern darum, den Speicherplatz einfach ganz normal zu nutzen / füllen. Das hieße, es wäre also eine Platte, die nur für bestimmte (geeignete) Daten / Dateigrößen in vielleicht gewissen Mengen bis zu einer gewissen Füllmenge, die deutlich unter der Gesamtkapazität läge, geeignet wäre oder so? Aus meiner gegenwärtigen Sicht (und vor allem der eines unbedarften einfachen Anwenders, der von ncihts eine Ahnung hat) könnte ich nur sagen, wie kann man nur so einen fehlkonstruierten Dreck herstellen. Aber vielleicht erkenne ich ja irgendwann, dass ich mich täusche.

würde ich eher mal darüber nachdenken eine größere USB Platte zu kaufen, am Besten ab 12TB, die haben einmal alle kein SMR und zum anderen eine Heliumfüllung, was dafür sorgt das sie weniger Leistungsaufnahme haben, also auch nicht so heiß werden und im Idle auch leiser sind.
Habe ich schon, ich will mir ja zwei oder vier WD 20 TB-Platten, glaube, Elements heißen die, beschaffen wenn sie reduziert sind (wie vor einigen Monaten schon mal) bzw. spätestens am sogenannten "Schwarzen Freitag", falls ich solange warten könnte jedenfalls.

Wäre es also sinnvoll die Platte zu defragmentieren?

Gibt es denn einen Zusammenhang mit dieser Leistung zu den Verbindungsabbrüchen? Oder wie könnten die sonst (abgesehen vielleicht von defekten Kabeln, defekten / losen Kontakten etc.) zustande gekommen sein?
Beitrag automatisch zusammengeführt:

PS: Hast Du vielleicht auch noch eine Softwareverschlüsselung? Truecrypt und Co. sind sind dafür bekannt die Schreibperfomance von SMR Platten deutlich zu reduzieren, keine Ahnung wieso genau, aber vermutlich ändern sie die Länge der Schreibzugriffe, schreiben also die Daten in kleinen Portionen auf die Platte.

Nein, nein, habe ich nicht, vor allem gerade wegen derartiger Unwägbarkeiten, habe so schon genug Probleme mit Windows, Computer und Festplatten.

Gerade lief die Synchronisation mal für vielleicht 10, 20, 30 Sekunden in Bereichen bei ca. 125 MB / Sek. Zur gleichen Zeit gab es Probleme mit überfülltem RAM, kann da ein Zusammenhang betehen?
 
Zuletzt bearbeitet:
Hatte zwar nach einer Defragmentation noch nie eine Verbesserung erkannt, aber vielleicht wäre das bei dieser Platte ja so.
Was Defragmentieren bringt, hängt immer von der Nutzung und auch den Umständen ab. Wenn auch Deine WD die vermutlich so alt oder groß ist das sie kein SMR hat, mal langsam und mal schnell schreibt, dann könnte es daran liegen das z.B. ein(ig)e große Datei(en) gelöscht wurden die am Anfang geschrieben wurden als es noch keine oder wenig Fragmentierung gab und daher am Stück auf der Platte gestanden haben. Solche Dateien werden natürlich von einer Defragmentierung nicht profitieren, die sind ja schon jetzt nicht fragmentiert und wenn man sie löscht, hat man dann wieder eine große Lücke zusammenhängender Cluster in die große Dateien dann auch am Stück und damit schnell geschrieben werden können.

Defragmentierung bringt bzgl. des Schreibens natürlich dann was, wenn es viele kleine Lücken an freien Clustern gibt, indem diese dann zu einer großen zusammengefasst werden in die eben große Dateien schneller geschrieben werden können als wenn sie stark fragmentiert in die vielen kleinen Lücke geschrieben werden müssen. Bei Platten mit SMR ist der Effekt halt besonders groß, eben weil diese beim Schreiben kleiner Datenmengen am Stück extrem langsam werden können, wenn der Media Cache voll ist und wenn 435GB geschrieben werden, dann reichen die paar GB an Media Cache eben bei weitem nicht aus.
Wäre es also sinnvoll die Platte zu defragmentieren?
Das würde vermutlich ewig dauern, die beste Art der Defragmentierung wäre die Dateien komplett auf eine andere Platte zu kopieren, die Platte zu formatieren und sie dann wieder drauf zu kopieren.

Zwar weiß ich nicht was Du macht, wenn Du einerseits große Datenmengen im Bereich von so 80TB hast, aber andererseits immer wieder Dateien gelöscht oder geändert und überschrieben werden. Dafür sind SMR Platten nicht wirklich optimal und schon gar nicht wenn sie so voll sind. Die optimale Nutzung wäre entweder sie wirklich intern als Datengrab zu nehmen, wo dann normalerweise eben immer nur kleine Datenmengen geschrieben werden, die passen dann meist auch in den Media Cahde, können also gerade wenn es kleine Dateien sind sogar schneller als bei Platten ohne SMR geschrieben werden und dann gibt es eine Pause in der die Platte den Media Cache leeren kann. Oder man nutzt sie um Cold Data zu archivieren, beschreibt sie also am Stück oder eben nach und nach mit mehr Dateien, löscht oder überschreibt aber idealerweise die bestehenden Dateien nie.

Dann hat man auch keine Probleme mit Fragmentierung, denn die entsteht ja eben erst dadurch das man Dateien löscht und gerade wenn sie so voll ist das der für den MFT reservierte Bereich beschrieben werden muss was Windows eben möglichst vermeidet, dann müssen die neuen Dateien eben auf diese ganzen Lücken verteilt geschrieben werden. Auch wenn man eine bestehende Datei durch eine neue Version überschreibt die größer ist, dann steht ja dahinter in aller Regel schon eine andere Datei und damit muss der Rest um den sie größer als die vorherige Version war, dann eben woanders gespeichert werden wo noch Platz ist und schon ist eine vorher vielleicht noch nicht fragmentierte Datei dann doch fragmentiert.

Hattest Du das PS in meinem letzten Post bzw. der Verschlüsselung gelesen?
 
Das würde vermutlich ewig dauern, die beste Art der Defragmentierung wäre die Dateien komplett auf eine andere Platte zu kopieren, die Platte zu formatieren und sie dann wieder drauf zu kopieren.
Das dauerte vermutlich einige Tage (bei Dauereinsatz ohne Unterbrechung), bestimmt noch einige Tage mehr. In denen die Daten vielleicht nur eingeschränkt / gar nicht oder nur sehr schlecht / mit Komplikationen nutzbar sein könnten. Davon abgesehen, dass ich auch noch eine leere Platte mindestens dieser Größe haben müsste. Aber das wäre vermutlich also kürzer, als eine Defragmentierung dauerte. Auch wäre die Frage, wie schnell die Platte dann wieder so fragmentiert wäre, dass die Leistung wieder radikal einbräche. Und man erneut eine komplette Datenumlagerung machen müsste. Und das Gleiche wohl für die Datensicherungsgsplatten. Bzw. vielleicht gerade für die.

Kann man eigentlich ein beliebiges Defragm.-Programm nehmen, gibt ja recht viele davon, oder lieber ein bestimmtes? Gar das von Win? Gibt es da vielleicht unterschiede in der Geschwindigkeit / Leistung?

Die optimale Nutzung wäre entweder sie wirklich intern als Datengrab zu nehmen, wo dann normalerweise eben immer nur kleine Datenmengen geschrieben werden, die passen dann meist auch in den Media Cahde, können also gerade wenn es kleine Dateien sind sogar schneller als bei Platten ohne SMR geschrieben werden und dann gibt es eine Pause in der die Platte den Media Cache leeren kann. Oder man nutzt sie um Cold Data zu archivieren, beschreibt sie also am Stück oder eben nach und nach mit mehr Dateien, löscht oder überschreibt aber idealerweise die bestehenden Dateien nie.

Glaube, am besten wäre, definitiv gar keine SMR-Platten zu nehmen. Wenn zusätzlich zu anderen Faktoren auch noch auf den Einsatzzweck hinsichtlich dieses SMR geachtet werden müßte, machte es alle möglichen Vorgänge / Nutzungsweisen / die Verwaltung ja noch komplizierter / einschränkender.

Plötzlich läuft die Platte seit vielleicht 15, 20 Minuten schnell, also wie es sein sollte, obwohl der Speicherplatz natürlich noch geringer wurde / wird.

Hattest Du das PS in meinem letzten Post bzw. der Verschlüsselung gelesen?
Ja, habe ich, aber Du meine Reation daruf also nicht (übersieht man oft solche Nachträge mangels Benachrichtigung über sie):

Nein, nein, habe ich nicht, vor allem gerade wegen derartiger Unwägbarkeiten, habe so schon genug Probleme mit Windows, Computer und Festplatten.

Gerade lief die Synchronisation mal für vielleicht 10, 20, 30 Sekunden in Bereichen bei ca. 125 MB / Sek. Zur gleichen Zeit gab es Probleme mit überfülltem RAM, kann da ein Zusammenhang betehenvielleicht

Hattest Du das gelesen:

Gibt es denn einen Zusammenhang mit dieser Leistung oder gar SMR zu den Verbindungsabbrüchen? Oder wie könnten die sonst (abgesehen vielleicht von defekten Kabeln, defekten / losen Kontakten etc., die mir bisher nicht aufgefallen wären) zustande gekommen sein?

Mittlerweile läuft die Platte wie sie soll seit wohl einer halben Stunde, trotz voller werdenden Speichers (140 GB frei), allderings mit über 100 angezeigten Fehlern. 16 Min. bis zum Abschluß angezeigt. Das kann doch alles nicht angehen, könnte man denken, plötzlich läuft die Platte "sinnvoll", nach dem sie acht Stunden mit etwa 0,5 Elementen / Sek. bzw. etwa 1 - 3 MB / Sek. lief.

Dass so etwas grundlegendes wie Datenübertragung (ganz einfach von einer Platte zu einer anderen), eine Standardfunktion, ständig gebraucht, bei Win alles andere als einfach ist, weiß ich ja schon seit einiger Zeit, aber dass so eine einfachst wirkende Alltagsfunktion, hier jedenfalls, ständig Probleme bereitet, fehleranfällig ist, eine derartige Komplexität annehmen kann, ist mir völlig unverständlich (selbst wenn es hinsichtlich der technischen Vorgänge und gewisser Umstände alles erklärbar wäre). Einfach mal so eine größere Menge an Daten zu übertragen, müsste ja tatsächlich geplant werden (falls man kein Riskio eingehen wollte, Zeitpläne nicht einhalten zu können). Oder man müsste vielleicht extrem viel mehr Geld ausgeben für vielleicht besser funktionierende Produkte. Aber die müssten ja eigentlich auch allein schon an diesem (aus primitiver Anwendersicht) eigentlich unbrauchbarem Win-Betriebssystem scheitern.
 
verwendes du die front USB oder ein HUB das macht bei mein ext hdds probleme das duie mall anerkant werden und dan wider raus geschmisen werden
 
Das verwende ich an einem seitlichen Anschluss:
zZpedRo.jpeg


Als ich gerade mit sicherem Entfernen die Verbindung trennen wollte, wurde die Verbindung mit einer Meldung "Device connected" oder so angezeigt, daraufhin sofort mit "Device removed" oder so was, dann wieder erste Meldung und so fort.
 
schlise mal hinten direckt am mainboad die ext hdd an
 
Habe hier leider nur ein ganz normales Billig-Notebook mit seitlichen USB-Anschlüssen.
 
Auch wäre die Frage, wie schnell die Platte dann wieder so fragmentiert wäre, dass die Leistung wieder radikal einbräche.
Ja wie gesagt ich weiß ja nicht was Du machst, aber normalerweise hat man, gerade wenn man so viele Daten hat wie Du, ja nicht ständig Änderungen an all seinen Daten, sondern aktuelle Daten, also die Hot Data, mit denen aktuell gearbeitet wird und bei denen sich ständig was ändert und dann gibt es eben auch eine Menge Cold Data, solche die sich gar nicht mehr oder eben nur noch extrem selten ändern. Solche Cold Data gehören auf eine SMR Platte, da gibt es dann auch keinerlei Fragmentierung solange sich eben nicht ändert, aber die Hot Data gehört nicht auf eine SMR HDDs, jedenfalls nicht wenn die Änderungen dann alle auf einmal kommen wie bei einem Sync und damit der Media Cache schnell gefüllt wird und man dann unter der schlechten Schreibperformance von SMR Platten leidet.

Gibt es da vielleicht unterschiede in der Geschwindigkeit / Leistung?
Die meisten nutzen die Windows API zum Defragmentieren, die Unterschiede sind eher welche Dateien sie defragmentiere, machen wollen möglichst immer alle in aufeinanderfolgenden Clustern unterbringen, andere tolerieren wenn dazwischen ein kleiner Teil einer anderen Datei ist, einige Dateien wie die Metadateien des Filesystems lassen ja nicht verschieben und da die mit der Zeit auch wachen, sind sie meist auch fragmentiert. Anderes oder in einem anderen Modus werden nur stark fragmentierte Dateien defragmentiert, aber alle werden Probleme haben eine so volle Platte sinnvoll zu defragmentieren, weshalb ich das wirklich lassen würde.

Wenn zusätzlich zu anderen Faktoren auch noch auf den Einsatzzweck hinsichtlich dieses SMR geachtet werden müßte, machte es alle möglichen Vorgänge / Nutzungsweisen / die Verwaltung ja noch komplizierter / einschränkender.
Es geht ja alles, nur kann die Performance halt richtig in den Keller gehen und selbst bei HDDs ohne SMR ist die Performance bei kleinen oder eben stark fragmentierten Dateien ja nicht gerade toll, schon gar nicht im Vergleich zu SSDs.

Plötzlich läuft die Platte seit vielleicht 15, 20 Minuten schnell, also wie es sein sollte, obwohl der Speicherplatz natürlich noch geringer wurde / wird.
Das ist schwer zu sagen, ohne genau zu wissen was Du genau machst, aber vielleicht wurden ja ein paar große Dateien gelöscht die nicht fragmentiert waren und damit damit steht wieder ein großer zusammenhängender Adressbereich zum Schreiben zur Verfügung oder alle leeren Cluster außerhalb des für den MFT reservierten Bereiches sind dann belegt worden und nun muss Windows die Dateien eben in diesen Bereich schreiben und dort dürften eben auch viele aufeinanderfolgende Cluster frei und damit ein schnelles Schreiben möglich sein.

Dan wäre die Frage was für eine Software verwendet wird und wie deren Anzeige funktioniert. Der Explorer von Windows nutzt z.B. sonst unbelegtes RAM als Puffer und zeigt die Lesegeschwindigkeit an, weshalb die angezeigte Geschwindigkeit bei Kopieren von einer Quelle die die Daten schneller liefern kann als das Ziel sie wegschreibt, am Anfang immer so hoch wie die Lesegeschwindigkeit ist. Ist der Puffer voll, so fällt die angezeigte Geschwindigkeit auf die Schreibgeschwindigkeit und deshalb sieht es am Ende auch so aus als wolle der Kopiervorgang nicht enden, obwohl er scheinbar schon abgeschlossen ist, denn dann wird nichts mehr gelesen, sondern nur noch die Daten aus dem Puffer geschrieben. Braucht ein anderes Programm mehr RAM, so verkleinert der Explorer den Puffer und liest erstmal nichts, so dass die Anzeige auf 0 fällt, obwohl derweil noch mit der Schreibgeschwindigkeit geschrieben wird und wenn man verschiedene Ordner kopiert, dann kann es auch zu einer Pause kommen, wenn der Explorer erstmal schauen muss welche der Dateien es im Zielordner schon gibt.

Das die anzeigte Geschwindigkeit hoch war als das RAM knapp wurde, passt von daher nicht zum Verhalten des Explrores, aber Du kannst ja mal mit HWInfo64 und dort Sensors schauen wie hoch die aktuellen Lese- und Schreibgeschwindigkeiten von Quelle und Ziel wirklich sind.
Gibt es denn einen Zusammenhang mit dieser Leistung oder gar SMR zu den Verbindungsabbrüchen?
Nein, bei USB Platten eigentlich nicht, da hier die Timeouts groß genug sein sollten. An einem HW RAID Controller sollte man solche SMR Platten allerdings nicht betreiben, da diese i.d.R. nur 8s auf eine Antwort der Platte warten bevor sie diese als Defekt auf einem RAID werfen. Bei SMR HDDs kann es aber durchaus länger als 8s dauern bis die Platte antwortet. Vielleicht wartet die verwendete Software aber eben doch nicht so lange und bewertet die lange Antwortzeit der Platte als Fehler und bricht die Verbindung ab. Sollte es ein Problem der Spannungsversorgung sein, so steigt der Rohwert vom Attribut C0 wenn der Platte unerwartet die Spannungsversorgung fehlt, denn solltest Du mal beobachten wenn sowas wieder auftritt (F5 oder F6 drücken)!
allderings mit über 100 angezeigten Fehlern.
Was für Fehler und wo wurden sie angezeigt?
Das kann doch alles nicht angehen, könnte man denken, plötzlich läuft die Platte "sinnvoll", nach dem sie acht Stunden mit etwa 0,5 Elementen / Sek. bzw. etwa 1 - 3 MB / Sek. lief.
Das kann wie oben beschrieben viele Ursachen haben, vielleicht har die Software nun einen Ordner kopiert den es beim Ziel nicht gab und musst daher nicht vergleichen welche Dateien schon vorhanden sind oder eben das diese Dateien nun in den Bereich geschrieben wurden der eigentlich für den MFT reserviert ist. Vielleicht liegt es auch an der Art der Dateien, bei manchen braucht das Virenschutzprogramm länger diese zu untersuchen und dann gibt es noch Leute die sich zwei Virenschützer installieren und sich dann wundern wieso z.B. Archive so langsam kopiert werden, was dann daran liegen könnte, dass ein Antivirenprogramm das Archive entpackt um die einzelnen Dateien zu prüfen und das andere die von dem ersten im Temp geschriebenen Dateien auch noch mal überprüft.
Aber die müssten ja eigentlich auch allein schon an diesem (aus primitiver Anwendersicht) eigentlich unbrauchbarem Win-Betriebssystem scheitern.
Wem Windows nicht gefällt, der nehme halt Linux! Das Hauptproblem ist aber, dass es eben eine SMR Platte ist und diese sehr, sehr voll betrieben wird und sich darauf die Dateien auch noch ändern, statt das nur neue Dateien hinzukommen. Vielleicht liegt es auch an dem Tools welches zum Backup verwendet wird, wobei jede Tool welches Dateien synchronisiert natürlich auch einiges von der Zielplatte lesen muss, wenn es viele Dateien gibt die auf Quelle und Ziel vorhanden sind. Dies Tools werden immer langsamer je voller die Zielplatte ist. dies lässt sich einfach nicht vermeiden.
Habe hier leider nur ein ganz normales Billig-Notebook mit seitlichen USB-Anschlüssen.
Es könnte an den USB Hub liegen. Beachte auch, dass es ja nur ein passiver Hub zu sein scheint und ein USB 3 Port, auch ein Type-C nur 0,9A liefern können muss, nur USB 3.2 Gen2x2 Ports müssen 1,5A liefern können und Ladeports liefern natürlich auch meist mehr, aber gerade Notebooks sind da oft streng. Eine 3.5" HDD dürfte nicht so viel ziehen, aber je nach Gehäuse wird vielleicht ihre 5V Schiene darüber versorgt um sich den 12V (vom externen Netzteil) auf 5V Spannungswandler im Gehäuse zu sparen und andere Geräte, gerade 2.5" HDD oder USB SSDs können durch eine Menge ziehen und vielleicht dreht dann das Notebook an dem Port den Saft kurz ab und deswegen verschwindet die Platte. Bei XP gab es früher noch diese komische Meldung von wegen Stromüberspannung, keine Ahnung wer das damals in Deutsche übersetzt hat. Bei neueren Windows Versionen kommt diese aber glaube ich nicht mehr hoch. da muss man dann in die Ereignisanzeige gehen.
 
Dann sind Defrag-Programme also sinnvoll maximal nur sehr eingeschränkt verwendbar bzw. offenbar nur dann, wenn die Fragmentation einen gewissen, eher nicht beeinträchtigenden Umfang erreicht hätte, falls überhaupt.

Es geht ja alles, nur kann die Performance halt richtig in den Keller gehen
Das kommt mir irgendwie widersprüchlich vor. Ich würde denken, wenn die "Performance in den Keller geht", geht eben leider (sinnvoll) nur noch sehr wenig oder eher gar nichts.

Das ist schwer zu sagen, ohne genau zu wissen was Du genau machst
Das Sync-Programm lief ganz normal ohne (in dieser Hinsicht willentliche) Änderungen / Eingriffe von mir weiter. Habe auch außerhalb des Programms auf der Platte nichts gemacht. Wüßte nicht, was sich geändert hätte (außer besagtes Verhalten hinstichtlich RAMs).

aber vielleicht wurden ja ein paar große Dateien gelöscht
Das würde ich eigentlich ausschließen, glaube, das Programm löscht nur zu Beginn der Sync.

Mir fallen gerade nur zwei brauchbare Syncprogramme ein, die ich immer verwende, FreeFileSync und BeyondCompare. Sync-Programme, die - falls ich das so richtig einschätze jedenfalls - zum Syncen nicht die MFT nutzen, die beiden verwenden sie offenbar, sind wegen ihrer Leistung (für bestimmte Datenmengen) völlig unbrauchbar, glaube ich. Oder welche könnte man noch empfehlen?

so fällt die angezeigte Geschwindigkeit auf die Schreibgeschwindigkeit und deshalb sieht es am Ende auch so aus als wolle der Kopiervorgang nicht enden, obwohl er scheinbar schon abgeschlossen ist,
Ja, das ist mir auch schon sehr oft aufgefallen, Sync 100 % erledigt, aber kein Abschluß.

Das die anzeigte Geschwindigkeit hoch war als das RAM knapp wurde, passt von daher nicht zum Verhalten des Explrores,
Diesen Explorer benutze ich praktisch überhaupt nicht, zum Datentransfer auf keinen Fall.

Gibt es denn einen Zusammenhang mit dieser Leistung oder gar SMR zu den Verbindungsabbrüchen?

Nein, bei USB Platten eigentlich nicht, da hier die Timeouts groß genug sein sollten. An einem HW RAID Controller sollte man solche SMR Platten allerdings nicht betreiben, da diese i.d.R. nur 8s auf eine Antwort der Platte warten bevor sie diese als Defekt auf einem RAID werfen. Bei SMR HDDs kann es aber durchaus länger als 8s dauern bis die Platte antwortet. Vielleicht wartet die verwendete Software aber eben doch nicht so lange und bewertet die lange Antwortzeit der Platte als Fehler und bricht die Verbindung ab. Sollte es ein Problem der Spannungsversorgung sein, so steigt der Rohwert vom Attribut C0 wenn der Platte unerwartet die Spannungsversorgung fehlt, denn solltest Du mal beobachten wenn sowas wieder auftritt (F5 oder F6 drücken)!
Ich benutzte wohl den Begriff falsch, ich meinte mit Verbindungsabbrüchen, den Verlust der Verbindung zwischen Rechner und Platte, die Platte wird dann also mit "Device disconnected" (oder was bei der Meldung dann auch immer da steht), wie nach einem erfolgreichen "sicheren" Entfernen angezeigt.

Sollte es ein Problem der Spannungsversorgung sein, so steigt der Rohwert vom Attribut C0 wenn der Platte unerwartet die Spannungsversorgung fehlt, denn solltest Du mal beobachten wenn sowas wieder auftritt (F5 oder F6 drücken)!
Bei Crystal wohl. Aber wird dieser Wert denn nicht automatisch (ohne neu einzulesen) angepaßt? Oder warum F5, F6 drücken?) Dann sollte ich wohl ein Bildschirmfoto der von Crystal angezeigten Daten machen und nach einer akkustischen Fehlermeldung, die sich nicht zuordnen lässt einem Fehler, das Foto mit der aktuellen Anzeige vergleichen? Oder gibt es ein Log oder so etwas?

allderings mit über 100 angezeigten Fehlern.

Was für Fehler und wo wurden sie angezeigt?
Sie werden wohl erst am Ende des Syncens angezeigt, nicht währenddessen. Waren fast alles welche, die keiner Beachtung bedürften in diesem Zusammenhang, Dateien, die während der Sync. verschoben wurden (von mir etwa) oder etwa umbenannt, nicht zugreifbar, also völlig normal. Die also für das Programm nicht mehr vorhanden waren. Und ein merkwürdig klingender Fehler anderer Art, dieser:

-376d.ffs_tmp" kopiert werden.
ERROR_WORKING_SET_QUOTA: Nicht genügend Quoten, um den angeforderten Dienst auszuführen. [CopyFileEx]

Das kann wie oben beschrieben viele Ursachen haben, vielleicht har die Software nun einen Ordner kopiert den es beim Ziel nicht gab und musst daher nicht vergleichen welche Dateien schon vorhanden sind oder eben das diese Dateien nun in den Bereich geschrieben wurden der eigentlich für den MFT reserviert ist. Vielleicht liegt es auch an der Art der Dateien, bei manchen braucht das Virenschutzprogramm länger diese zu untersuchen und dann gibt es noch Leute die sich zwei Virenschützer installieren und sich dann wundern wieso z.B. Archive so langsam kopiert werden, was dann daran liegen könnte, dass ein Antivirenprogramm das Archive entpackt um die einzelnen Dateien zu prüfen und das andere die von dem ersten im Temp geschriebenen Dateien auch noch mal überprüft.
Ja, so könnte man ggf. auch selber ganz schnell erkennen, dass von einem etwa als "Schrott" deklarierte Software oder Hardware tatsächlich vielleicht gar nicht Schrott wäre, sondern der Fehler (wie so oft) beim Anwender läge, der (zudem noch zu einem vielleicht weit zurückliegenden Zeitpunkt) die Ursache für das Fehlverhalten der Software / Hardware gelegt hat (bei diesem Beispiel eben mit Aktivierung einer weiteren Antivir-Software), zu der aktuell dann erst einmal gar kein Zusammenhang erkannt würden zum aktuellen Problem und also völlig falsche Schlüsse gezegen würden). Aber ich habe nur die Win-Virusschutzmaßnahmen, -Firewall. Keine weiteren. Aber derartige (aus Unkenntniss, allen möglichen Mängeln vom Anwender verursachte) Ursache-Wirkungs-Kombinationen wird es ja in endlosen Variationen geben.

Wem Windows nicht gefällt, der nehme halt Linux!
Oder gar Apfel. Ja, aber so einfach lässt sich das, glaube ich, richtig / ohne Irreführung nicht darstellen. Ich bin eben mit diesem Win-Schrott "aufgewachsen". Diese überteuerten Produkte von Apfel würde ich (aus mehreren Gründen) einfach nicht kaufen wollen. Vor allem bei Linux, gehe auch davon aus, dass es bei Apfel so wäre, wäre ein ausschließendes "Problem" allein schon der (wohl nicht erbringbare) Aufwand, der nötig wäre Software / Hadrware in einen Zustand zu kriegen wie ich ihn gegenwärtig für Win habe und die Software so verwenden zu können, wie ich es gegenwärtig tun kann (wie auch immer das wäre). Ich müsste also lernen mit mindestens vielen neuen Programme umgehen zu können, die vermutlich nicht einmal das könnten oder nur zu einem Teil, was ich haben wollte / brauchte. Und viele Probleme / Unwägbarkeiten mehr.

Vielleicht liegt es auch an dem Tools welches zum Backup verwendet wird
Ja, kann natürlich sein, dass die ungünstig / falsch programmiert wären, ein falsches Konzept haben etc., das sich in so einem Verhalten äußert, das könnte ich natürlich null einschätzen (solange es natürlich nichts völlig offensichtliches wäre).

Es könnte an den USB Hub liegen. Beachte auch, dass es ja nur ein passiver Hub zu sein scheint und ein USB 3 Port, auch ein Type-C nur 0,9A liefern können muss, nur USB 3.2 Gen2x2 Ports müssen 1,5A liefern können und Ladeports liefern natürlich auch meist mehr, aber gerade Notebooks sind da oft streng. Eine 3.5" HDD dürfte nicht so viel ziehen, aber je nach Gehäuse wird vielleicht ihre 5V Schiene darüber versorgt um sich den 12V (vom externen Netzteil) auf 5V Spannungswandler im Gehäuse zu sparen und andere Geräte, gerade 2.5" HDD oder USB SSDs können durch eine Menge ziehen und vielleicht dreht dann das Notebook an dem Port den Saft kurz ab und deswegen verschwindet die Platte.
Wie könnte ich diesen Hub als Ursache falsi- / verifizieren? Habe nur einen normalen USB-3.0-Anschluss am Notebook und eben diesen kleinen, wohl noch schnelleren / besseren kleineren Anschluss, an dem der Hub ist. Vielleicht ein Adapter beschaffen (dass ich die Platte an diesen Anschluss anschließen könnte), falls sicher wäre, dass das nicht zu einer Fehler- / Ursachenquelle würde. Oder einfach mal den USB-2-Anschluss zum Testen versuchen, nur zu sehen, ob die Geschwindigkeit konstant bliebe, so wäre wie bei einem solchen zu erwarten wäre, falls dann dann auch eine Aussagekraft hätte. Oder einen anderen Hub beschaffen. Das müsste dann einer sein mit USB 3.2 Gen2x2 Ports und 1,5A? Das wäre, worauf ich achten müsste? Aber es bliebe verwunderlich, dass das Verhalten eben vorher nicht - falls ich mich richtig erinnere - (bei weitem) nicht (in diesem Maß) aufgetreten wäre. Aber vielleicht ist, aus welchen Gründen auch immer, eben jetzt mehr Strom erfordlich innerhalb des Notebooks.
 
Das kommt mir irgendwie widersprüchlich vor. Ich würde denken, wenn die "Performance in den Keller geht", geht eben leider (sinnvoll) nur noch sehr wenig oder eher gar nichts.
Das ist nicht widersprüchlich, denn es ist ein klarer Unterschied ob etwas funktioniert, wenn auch langsamer als man es sich wünschen würde oder ob es gar nicht geht.

Das Sync-Programm lief ganz normal ohne (in dieser Hinsicht willentliche) Änderungen / Eingriffe von mir weiter.
Es ging eher darum was Du mit deinen Daten machst, dass Du eben solche eine ungewöhnliche Nutzung hast.

Das würde ich eigentlich ausschließen, glaube, das Programm löscht nur zu Beginn der Sync.
Das reicht ja um danach entsprechen viele zusammenhängende frei Cluster zu haben, wenn die gelöschte Datei eben eher am Anfang der Nutzung der Platte geschrieben und dabei eben noch nicht fragmentiert wurde.

zum Syncen nicht die MFT nutzen
Das ist irrelevant, NTFS legt beim Formatieren einen Bereich von per Default 12,5% an der normalerweise etwa in der Mitte des Adressraums liegt und für den NFT reserviert ist. Da können auch Dateien geschrieben werde, aber dies passiert eben erst wenn sonst nichts mehr frei ist. Aber eben erst, wenn wirklich nichts mehr frei ist und dies führt dazu, dass wenn dies fast der Fall ist, eine Datei dann extrem fragmentiert sein kann, eben weil da alle verteilen freien Cluster mit ihr belegt werde und die nächste Datei wird dann plötzlich ganz schnell geschrieben, wenn es dann keine andere Möglichkeit mehr gibt als diese in dem reservierten Bereich zu schreiben. Das ist ein Verhalten von Windows NTFS und hat mit dem Programm nichts zu tun, denn die Programme bestimmen ja nicht auf welchen Clustern eine Datei landet, sondern dies macht Windows.

Ich benutzte wohl den Begriff falsch, ich meinte mit Verbindungsabbrüchen, den Verlust der Verbindung zwischen Rechner und Platte, die Platte wird dann also mit "Device disconnected"
Das hatte ich schon so verstanden. Du nutzt aber nicht zufällig mehrere Instanzen dieser Sync Tools und hast es zufällig so konfiguriert das es die Platte danach abmeldet? Ich meine einige Backuptool,s haben diese Funktion.

Aber wird dieser Wert denn nicht automatisch (ohne neu einzulesen) angepaßt?
Nein, bzw. wenn der Intervall abgelaufen und Auto Aktualisierung aktiv ist. Wenn man Werte neu eingelesen haben will, muss man F5 drücken und wenn man eine Platten hinzugefügt, entfernt oder gewechselt hat, nimmt man besser F6, da hier auch alle Platten neu erkannt werden.
Oder einen anderen Hub beschaffen. Das müsste dann einer sein mit USB 3.2 Gen2x2 Ports und 1,5A?
Nein, der USB Hub bekommt ja seinen Strom vom USB Port des Rechners, wenn er eben kein eigenes Netzteil hat. Auch ein USB 3.2 Gen2x2 Hub, wenn es solche überhaupt schon gibt, bekäme also nicht mehr Strom als der jetzige Hub. Es müsste ein aktiver Hub sein, also einer mit einem eigenen Netzteil.
 
Das ist nicht widersprüchlich, denn es ist ein klarer Unterschied ob etwas funktioniert, wenn auch langsamer als man es sich wünschen würde oder ob es gar nicht geht.
Könnte ich so überhaupt nicht sehen: falls das Verhalten der Platte so gewollt / konstruiert wäre, könnte ich es momentan nur als radikale Fehlkonstruktion ansehen, falls es nicht gewollt wäre, die Konstruktion das Verhalten aber zuließe, ebenfalls. Bei ersterem könnte man die Platte wohl tatsächlich als technisch funktionierend ansehen, denn sie funktionierte ja wie gewollt, bei ersterem und letzterem aber als nicht funktionierend in der Praxis, im Alltag. Führe ein Auto (zeitweise) nur noch 20 km/h oder spränge es mal an, mal nicht, müsste man dann ja auch sagen können, es funktionerte, denn es führe ja (nur immer oder mitunter eben langsam), es spränge ja an (aber nur nicht immer). Im Alltag wäre das Auto aber wohl in diesem Zustand vermutlich (fast) völlig unbrauchbar, nutzlos, Schrott. Eine Platte also, die im Alltagsgebrauch in unbestimmter, unbekannter Zeit vielleicht etwa in drei Vierteln / vier Fünfteln der Gesamttransferzeit nicht einmal ein Element in Byte- / KB-Größen pro Sekunde transferiert bzw. große / größere mit vielleicht Geschwindigkeiten im KB-Bereich pro Sekunde, vielleicht einstelligen untersten MB-Bereich pro Sekunde, könnte ich nur als unbrauchbar ansehen. Könnte man aber alles bestimmt einfach als Definitionssache ansehen, somit also "alle Möglichen" Beurteilungen / Definitionen gelten lassen. Es kann ja natürlich auch sein, dass es andere Ursachen gäbe (z.B. eben der Hub, der aber dann auch erst seit einiger Zeit, offenbar nicht von Anfang an erkennbare Probleme gemacht hätte in dieser Hinsicht), die gar nicht bei der Platte, deren Kabel, Netzteil lägen.

Es ging eher darum was Du mit deinen Daten machst, dass Du eben solche eine ungewöhnliche Nutzung hast.
Ich kann mir eigentlich gar nicht vorstellen, dass die Nutzung ungewöhnlich wäre, ich vermute, ich handhabe die Daten (grundsätzlich) so, wie andere auch. Um etwa Daten geordnet zu halten / kriegen ist ein Verschieben öfter mal nötig, auch in Kombination Platz auf bestimmten Platten für eine gewisse Nutzung, etwa für neue Daten zu schaffen. Aber das hieße offenbar, hätte ich eine passende Menge an passenden Platten (besagte 20 TB-WD-Platten etwa), könnten die Auswirkungen des Problems möglicherweise angeglichen werden. Aber mir widerstrebte auch, so einem Umstand (Daten angepaßt an Fragementierung zu transferieren / handzuhaben, das würde die Verwaltung / Handhabung ja zusätzlich kompliziert(er) machen) beachten zu müssen.

Wievel freien Speicherplatz sollte eine (SMR-)Platte denn immer haben (unabhängig von einer möglichen Defragmentation), damit sie sinnvoll funktionierte / keinen (derartigen) Leistungsabbruch kriegte? 500 bis vielleicht 1000 GB scheinen ja schon zu wenig.

Das reicht ja um danach entsprechen viele zusammenhängende frei Cluster zu haben, wenn die gelöschte Datei eben eher am Anfang der Nutzung der Platte geschrieben und dabei eben noch nicht fragmentiert wurde.
Aber müsste der Transfer dann nicht am Ende desselben und vor allem bei vollerer / voller werdender Platte langsam(er) werden, statt sogar noch (viel) schneller?

Das ist irrelevant, NTFS legt beim Formatieren einen Bereich von per Default 12,5% an der normalerweise etwa in der Mitte des Adressraums liegt und für den NFT reserviert ist. Da können auch Dateien geschrieben werde, aber dies passiert eben erst wenn sonst nichts mehr frei ist. Aber eben erst, wenn wirklich nichts mehr frei ist und dies führt dazu, dass wenn dies fast der Fall ist, eine Datei dann extrem fragmentiert sein kann, eben weil da alle verteilen freien Cluster mit ihr belegt werde und die nächste Datei wird dann plötzlich ganz schnell geschrieben, wenn es dann keine andere Möglichkeit mehr gibt als diese in dem reservierten Bereich zu schreiben. Das ist ein Verhalten von Windows NTFS und hat mit dem Programm nichts zu tun, denn die Programme bestimmen ja nicht auf welchen Clustern eine Datei landet, sondern dies macht Windows.
Eine von verschiedenen Entwicklern geäußerte Erwähnung (und von anderen Personen zu diesem Umstand) hinsichtlich der Nutzung der MFT ihrer Programme (im Vergleich zu Programmen, die die Daten offenbar auf herkömmliche bzw. jedenfalls andere Weise verarbeiten) und dem damit erzeugten beachtlichen Geschwindigkeits- / Leistungsgewinn, las ich schon öfter. Diese hohe / viel höhere Verarbeitungsgeschwindigket entspricht auch tatsächlich dem, was ich meiner Erfahrung nach meine erkannt zu haben bei diesen Programmen. Sync-Programme etwa also, die nicht die MFT nutzten, wären im Vergleich zu denen, die sie nutzten extrem langsam(er) nach meiner Beobachtung und hätten pratisch somit keinen Nutzen mehr für mich.

Das hatte ich schon so verstanden. Du nutzt aber nicht zufällig mehrere Instanzen dieser Sync Tools
Ja, nutze ich auf keinen Fall, ich könnte schon "zufrieden" sein, wenn eine Instanz akzeptabel liefe. Dieses Windows wirkt auf mich extremst instabil bzw. vielleicht auch die Hardware und / oder die Kombination zwischen Softeware und Hardware, alles funktioniert irgendwie nie richtig, immer gibt es irgendwelche Probleme, also würde ich grundsätzlich immer nur einen Vorgang / Prozess auslösen.

und hast es zufällig so konfiguriert das es die Platte danach abmeldet? Ich meine einige Backuptool,s haben diese Funktion.
Nein, habe ich nicht, wusste nicht, dass es so eine Funktion gibt, das würde vermutlich bei mir auch nie funktionieren, das manuelle "sichere Entfernen" (das ist doch gemeint, nehme ich an), "funktioniert" hier ja schon sehr eingeschränkt bzw. gar nicht.

Nein, bzw. wenn der Intervall abgelaufen und Auto Aktualisierung aktiv ist. Wenn man Werte neu eingelesen haben will, muss man F5 drücken und wenn man eine Platten hinzugefügt, entfernt oder gewechselt hat, nimmt man besser F6, da hier auch alle Platten neu erkannt werden.

Glaube, hier ging es um Crystal. Ist auf "Auto refresh" gestellt, 5 Min. (dann brauchte man F5 also wohl nicht zu drücken). Dass man Crystal nicht programmiert, damit es sie bei anschließen einer neuen Platte automatisch einliest, wundert mich.

Nein, der USB Hub bekommt ja seinen Strom vom USB Port des Rechners, wenn er eben kein eigenes Netzteil hat. Auch ein USB 3.2 Gen2x2 Hub, wenn es solche überhaupt schon gibt, bekäme also nicht mehr Strom als der jetzige Hub. Es müsste ein aktiver Hub sein, also einer mit einem eigenen Netzteil.

Falls es am Hub gelegen hätte, wie erklärte sich dann, dass plötzlich, als die Daten wieder schnell(er) übertragen wurden, der Hub offensichtlich mehr Strom kriegte? Bis zum Ende der erfolgreichen Übertragung offenbar. Oder vielleicht mit weniger funktionierte.

Warum wären solche Hubs überhaupt im Handel, wenn sie wegen mangelnder Stromversorgung gar nicht oder nur eingeschränkt funktionierten? Einen Hub mit Strom von einer 3,5"-Platte zu versorgen ist offenbar nicht gedacht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh