kandamir
Experte
Thread Starter
- Mitglied seit
- 19.03.2018
- Beiträge
- 181
- Desktop System
- Heimserver
- Prozessor
- Intel Xeon E3-1225v6 4x 3.30GHz
- Mainboard
- Supermicro X11SSH-LN4F Intel C236 So.1151 Dual Channel DDR4 mATX Retail
- Speicher
- 2x Kingston ValueRAM 16GB, 2400MHz, DDR4, ECC, CL17, DIMM
- SSD
- M2 SSD Corsair MP500
- HDD
- 4x SEAGATE IronWolf Pro 4TB, 2x SEAGATE IronWolf Pro 16TB
- Gehäuse
- Inter-Tech 4U-4408
- Netzteil
- Seasonic PRIME 600W ATX
- Betriebssystem
- VMware ESXi 6.5 / Napp-It
Hallo zusammen,
Bei mir geht es um das Thema doppelte Dateien finden. Ich habe dazu schon einiges an Tools gefunden, aber keines war dabei, welches mein Szenario abzudecken scheint. Mein Szenario sieht so aus:
Zwei Verzeichnisse mit Unterverzeichnissen. Im beiden Verzeichnissen befinden sich Foto- und Video-Dateien. Aufgabe: Prüfe, ob es für jedes Foto oder Video aus Verzeichnis1 ein Duplikat in Verzeichnis2 gibt (per Hash-Vergleich o.ä.). Falls ja: entweder a) protokolliere vollständigen Dateinamen aus Verzeichnis1 in einer Textdatei oder b) Lösche die Datei in Verzeichnis1.
Die Anzahl der Dateien sowohl in Verzeichnis1 als auch der Dateien in Verzeichnis2 ist potentiell sehr groß (mehrere Tausend Dateien). Die Anzahl der doppelten Dateien ist ebenfalls potentiell sehr groß.
In meinem Szenario geht es also nicht darum, nach doppelten Dateien innerhalb eines Verzeichnisbaumes zu suchen, sondern über zwei Verzeichnisbäume hinweg. Eine manuelle Prüfung aller Fundstellen ist aufgrund der erwarteten Menge an Duplikaten nicht machbar.
Ich habe diverse Tools wie fslint, fdupes usw. gefunden, aber bei keinem Tool konnte ich herauslesen, dass dieses „wenn in Verzwichnis2 vorhanden, lösche es aus Verzeichnis1“ geht - oder ich habe nicht verstanden, wie es denn geht. Kann auch sein…
Hat jemand ein Tool oder wegen mir auch auch Skript parat, mit dem die o.g. Aufgabe gelöst werden könnte. Das ganze sollte möglichst unter Linux laufen. Windows-Tools scheiden mangels Windows-Installation aus. Am liebsten Linux-Shell.
Danke vorab für Eure Tipps!
Bei mir geht es um das Thema doppelte Dateien finden. Ich habe dazu schon einiges an Tools gefunden, aber keines war dabei, welches mein Szenario abzudecken scheint. Mein Szenario sieht so aus:
Zwei Verzeichnisse mit Unterverzeichnissen. Im beiden Verzeichnissen befinden sich Foto- und Video-Dateien. Aufgabe: Prüfe, ob es für jedes Foto oder Video aus Verzeichnis1 ein Duplikat in Verzeichnis2 gibt (per Hash-Vergleich o.ä.). Falls ja: entweder a) protokolliere vollständigen Dateinamen aus Verzeichnis1 in einer Textdatei oder b) Lösche die Datei in Verzeichnis1.
Die Anzahl der Dateien sowohl in Verzeichnis1 als auch der Dateien in Verzeichnis2 ist potentiell sehr groß (mehrere Tausend Dateien). Die Anzahl der doppelten Dateien ist ebenfalls potentiell sehr groß.
In meinem Szenario geht es also nicht darum, nach doppelten Dateien innerhalb eines Verzeichnisbaumes zu suchen, sondern über zwei Verzeichnisbäume hinweg. Eine manuelle Prüfung aller Fundstellen ist aufgrund der erwarteten Menge an Duplikaten nicht machbar.
Ich habe diverse Tools wie fslint, fdupes usw. gefunden, aber bei keinem Tool konnte ich herauslesen, dass dieses „wenn in Verzwichnis2 vorhanden, lösche es aus Verzeichnis1“ geht - oder ich habe nicht verstanden, wie es denn geht. Kann auch sein…
Hat jemand ein Tool oder wegen mir auch auch Skript parat, mit dem die o.g. Aufgabe gelöst werden könnte. Das ganze sollte möglichst unter Linux laufen. Windows-Tools scheiden mangels Windows-Installation aus. Am liebsten Linux-Shell.
Danke vorab für Eure Tipps!