Hallo zusammen,
ich habe ein Problem mit Duplicati (Version 2.0.1.53_experimental), welches mich langsam zur Verzweiflung treibt.
Eigentlich macht die Software alles genau, wie ich es brauche. Jobs, welche in einstellbaren Zeitabständen meine Daten auf dem lokalen PC mit der Cloud synchronisieren, und zwar verschlüsselt.
Die ersten 2TB klappten auch absolut problemlos, abgesehen davon, dass ich immer 94GB Upload pro Tag hatte, aber ca. 10GB weniger in der Cloud ankamen. Damit konnte ich aber leben, bei allen anderen Tools, die ich versucht hatte, war das auch so.
Vor ein paar Tagen oder 2-3 Wochen, weiß es nicht mehr ganz genau, stellte sich aber folgendes Problem ein: Mein aktuell hochladender Backupjob, 2,3TB in Summe, brach nach ca. 600GB einfach ab. Als ich ihn wieder neu startete, lief er wieder ein paar Tage und brach dann wieder ab. Die Zeitspanne zwischen den Abbrüchen wurde immer kürzer und gipfelte in einem Abbruch nach jedem File (Duplicati erzeugt einstellbare Chunks, ich hatte diese auf 500MB eingestellt). Da es jedes mal eine bis mehrere Stunden dauert, bis der Upload tatsächlich beginnt (Prüfung durch Duplicati, was schon in der Cloud vorhanden ist) könnt Ihr Euch sicher vorstellen, wie zermürbend das ist.
Merkwürdigerweise verändert sich das auch immer, zuletzt brach er denn wieder erst nach mehr als nur 1-2 Files ab.
(Falls jemand den exakten Fehler braucht, hier ist er beschrieben: Amazon Drive: The remote server returned an error: (400) Bad Request. [$20] · Issue #2297 · duplicati/duplicati · GitHub)
Ich beschäftigte mich dann mal intensiv mit den Logs und google, was ich vorher aus Zeitgründen nur sporadisch geschafft hatte, und fand diesen Thread: GetRequestStream timed out · Issue #2462 · duplicati/duplicati · GitHub
Dort wird empfohlen, die Anzahl der Retries von 5 auf 25 zu erhöhen und den Abstand zwischen selbigen auf 30 Sekunden zu stellen. Das Ergebnis: Duplicati versucht ein (z.B.) 250MB File hochzuladen, scheitert, lädt es erneut hoch, scheitert, lädt es erneut hoch bis es dann irgendwann endlich klappt. Ich hatte mehrere Files, welche erst nach 9 Retries klappten, und natürlich merkt Duplicati das erst am Ende des Uploads. Im Ergebnis habe ich heute 33GB über meine Leitung hochgeladen, aber nur 11GB kamen tatsächlich in der Cloud an. Das kann also keine Lösung sein.
Heute habe ich mir dann meinen großen Job auch noch zerschossen, weil bei einem anderen Job die Meldung kam, die Festplatte sei voll (Noch 2,xGB auf C:\) löschte ich über 40GB an Dateien aus einem Temp Folder (C:\Users\XXX\AppData\Local\Temp) woraufhin Duplicati beim Fortsetzen des großen Jobs nach einem Repair und nach diesem nach Neuerstellung der Datenbank fragte. Diese läuft seit einigen Stunden und ich habe wenig Hoffnung, dass sie erfolgreich sein wird.
Natürlich wäre es am besten, wenn ich den Fehler in Duplicati abstellen könnte, damit habe ich schließlich schon 2TB hochgeladen, welche mit einem neuen Tool komplett neu hochgeladen werden müssten. Zudem gefällt es mir eigentlich.
Aber so wie es aussieht, gibt es hier arge Probleme mit dem Tool, weswegen ich auch Alternativen gegenüber offen bin.
Was nutzt Ihr für Euer Backup in die Amazon Cloud? Meine Anforderungen sind wie gesagt konfigurierbare Jobs, welche täglich in die Cloud syncen und Verschlüsselung. Und kostenlos wäre toll. Ich habe vor Duplicati auch einige kostenpflichtige Tools versucht, das war auch alles nix (u.a. oDrive).
Ich bin aktuell noch in der kostenlosen Testphase vom Amazon Cloud Drive, diese läuft noch 45 Tage, und wenn ich bis dahin keine ordentliche Lösung gefunden habe, werde ich auch nicht verlängern, denn dann nützt mir das ganze Cloud Drive nix.
ich habe ein Problem mit Duplicati (Version 2.0.1.53_experimental), welches mich langsam zur Verzweiflung treibt.
Eigentlich macht die Software alles genau, wie ich es brauche. Jobs, welche in einstellbaren Zeitabständen meine Daten auf dem lokalen PC mit der Cloud synchronisieren, und zwar verschlüsselt.
Die ersten 2TB klappten auch absolut problemlos, abgesehen davon, dass ich immer 94GB Upload pro Tag hatte, aber ca. 10GB weniger in der Cloud ankamen. Damit konnte ich aber leben, bei allen anderen Tools, die ich versucht hatte, war das auch so.
Vor ein paar Tagen oder 2-3 Wochen, weiß es nicht mehr ganz genau, stellte sich aber folgendes Problem ein: Mein aktuell hochladender Backupjob, 2,3TB in Summe, brach nach ca. 600GB einfach ab. Als ich ihn wieder neu startete, lief er wieder ein paar Tage und brach dann wieder ab. Die Zeitspanne zwischen den Abbrüchen wurde immer kürzer und gipfelte in einem Abbruch nach jedem File (Duplicati erzeugt einstellbare Chunks, ich hatte diese auf 500MB eingestellt). Da es jedes mal eine bis mehrere Stunden dauert, bis der Upload tatsächlich beginnt (Prüfung durch Duplicati, was schon in der Cloud vorhanden ist) könnt Ihr Euch sicher vorstellen, wie zermürbend das ist.
Merkwürdigerweise verändert sich das auch immer, zuletzt brach er denn wieder erst nach mehr als nur 1-2 Files ab.
(Falls jemand den exakten Fehler braucht, hier ist er beschrieben: Amazon Drive: The remote server returned an error: (400) Bad Request. [$20] · Issue #2297 · duplicati/duplicati · GitHub)
Ich beschäftigte mich dann mal intensiv mit den Logs und google, was ich vorher aus Zeitgründen nur sporadisch geschafft hatte, und fand diesen Thread: GetRequestStream timed out · Issue #2462 · duplicati/duplicati · GitHub
Dort wird empfohlen, die Anzahl der Retries von 5 auf 25 zu erhöhen und den Abstand zwischen selbigen auf 30 Sekunden zu stellen. Das Ergebnis: Duplicati versucht ein (z.B.) 250MB File hochzuladen, scheitert, lädt es erneut hoch, scheitert, lädt es erneut hoch bis es dann irgendwann endlich klappt. Ich hatte mehrere Files, welche erst nach 9 Retries klappten, und natürlich merkt Duplicati das erst am Ende des Uploads. Im Ergebnis habe ich heute 33GB über meine Leitung hochgeladen, aber nur 11GB kamen tatsächlich in der Cloud an. Das kann also keine Lösung sein.
Heute habe ich mir dann meinen großen Job auch noch zerschossen, weil bei einem anderen Job die Meldung kam, die Festplatte sei voll (Noch 2,xGB auf C:\) löschte ich über 40GB an Dateien aus einem Temp Folder (C:\Users\XXX\AppData\Local\Temp) woraufhin Duplicati beim Fortsetzen des großen Jobs nach einem Repair und nach diesem nach Neuerstellung der Datenbank fragte. Diese läuft seit einigen Stunden und ich habe wenig Hoffnung, dass sie erfolgreich sein wird.
Natürlich wäre es am besten, wenn ich den Fehler in Duplicati abstellen könnte, damit habe ich schließlich schon 2TB hochgeladen, welche mit einem neuen Tool komplett neu hochgeladen werden müssten. Zudem gefällt es mir eigentlich.
Aber so wie es aussieht, gibt es hier arge Probleme mit dem Tool, weswegen ich auch Alternativen gegenüber offen bin.
Was nutzt Ihr für Euer Backup in die Amazon Cloud? Meine Anforderungen sind wie gesagt konfigurierbare Jobs, welche täglich in die Cloud syncen und Verschlüsselung. Und kostenlos wäre toll. Ich habe vor Duplicati auch einige kostenpflichtige Tools versucht, das war auch alles nix (u.a. oDrive).
Ich bin aktuell noch in der kostenlosen Testphase vom Amazon Cloud Drive, diese läuft noch 45 Tage, und wenn ich bis dahin keine ordentliche Lösung gefunden habe, werde ich auch nicht verlängern, denn dann nützt mir das ganze Cloud Drive nix.
Zuletzt bearbeitet: