Rdfind: Unterschied zwischen den Versionen
Zeile 7: | Zeile 7: | ||
* Sobald es die Duplikate gefunden hat, werden sie Ihnen gemeldet. | * Sobald es die Duplikate gefunden hat, werden sie Ihnen gemeldet. | ||
* Sie können entscheiden, ob Sie sie löschen oder durch [https://www.ostechnix.com/explaining-soft-link-and-hard-link-in-linux-with-examples/ Hardlinks oder symbolische (Soft-)Links] ersetzen möchten. | * Sie können entscheiden, ob Sie sie löschen oder durch [https://www.ostechnix.com/explaining-soft-link-and-hard-link-in-linux-with-examples/ Hardlinks oder symbolische (Soft-)Links] ersetzen möchten. | ||
; Verwendung | ; Verwendung |
Version vom 13. Oktober 2024, 20:36 Uhr
topic - Kurzbeschreibung
Beschreibung
"Rdfind" steht für ‚redundant data find‘ und ist ein kostenloses Open-Source-Dienstprogramm zum Auffinden doppelter Dateien in und/oder innerhalb von Verzeichnissen und Unterverzeichnissen.
- Es vergleicht Dateien anhand ihres Inhalts, nicht anhand ihrer Dateinamen.
- Rdfind verwendet einen Ranking-Algorithmus, um Originaldateien und doppelte Dateien zu klassifizieren.
- Wenn Sie zwei oder mehr identische Dateien haben, ist Rdfind intelligent genug, um die Originaldatei zu finden und die restlichen Dateien als Duplikate zu betrachten.
- Sobald es die Duplikate gefunden hat, werden sie Ihnen gemeldet.
- Sie können entscheiden, ob Sie sie löschen oder durch Hardlinks oder symbolische (Soft-)Links ersetzen möchten.
- Verwendung
Nach der Installation führen Sie einfach den Befehl Rdfind zusammen mit dem Verzeichnispfad aus, um nach doppelten Dateien zu suchen.
rdfind ~/Downloads
Der Befehl Rdfind durchsucht das Verzeichnis ~/Downloads und speichert die Ergebnisse in einer Datei namens "results.txt" im aktuellen Arbeitsverzeichnis.
- Sie können den Namen der möglichen doppelten Dateien in der Datei "results.txt" anzeigen.
cat results.txt
# Automatically generated
# duptype id depth size device inode priority name
DUPTYPE_FIRST_OCCURRENCE 1469 8 9 2050 15864884 1 /home/sk/Downloads/tor-browser_en-US/Browser/TorBrowser/Tor/PluggableTransports/fte/tests/dfas/test5.regex
DUPTYPE_WITHIN_SAME_TREE -1469 8 9 2050 15864886 1 /home/sk/Downloads/tor-browser_en-US/Browser/TorBrowser/Tor/PluggableTransports/fte/tests/dfas/test6.regex
[...]
DUPTYPE_FIRST_OCCURRENCE 13 0 403635 2050 15740257 1 /home/sk/Downloads/Hyperledger(1).pdf
DUPTYPE_WITHIN_SAME_TREE -13 0 403635 2050 15741071 1 /home/sk/Downloads/Hyperledger.pdf
# end of file
Durch Überprüfung der Datei results.txt können Sie die Duplikate leicht finden.
- Sie können die Duplikate manuell entfernen, wenn Sie möchten.
Sie können auch die Option "‚‘‚dryrun‘'" verwenden, um alle Duplikate in einem bestimmten Verzeichnis zu finden, ohne etwas zu ändern, und die Zusammenfassung in Ihrem Terminal auszugeben:
rdfind -dryrun true ~/Downloads
Sobald Sie die Duplikate gefunden haben, können Sie sie entweder durch Hardlinks oder durch Symlinks ersetzen.
Um alle Duplikate durch Hardlinks zu ersetzen, führen Sie Folgendes aus:
rdfind -makehardlinks true ~/Downloads
Um alle Duplikate durch Symlinks/Softlinks zu ersetzen, führen Sie Folgendes aus:
rdfind -makesymlinks true ~/Downloads
Möglicherweise befinden sich in einem Verzeichnis einige leere Dateien, die Sie ignorieren möchten.
- Wenn dies der Fall ist, verwenden Sie die Option "-ignoreempty" wie unten beschrieben.
rdfind -ignoreempty true ~/Downloads
Wenn Sie die alten Dateien nicht mehr benötigen, löschen Sie die doppelten Dateien einfach, anstatt sie durch harte oder weiche Links zu ersetzen.
Um alle Duplikate zu löschen, führen Sie einfach Folgendes aus:
rdfind -deleteduplicates true ~/Downloads
Wenn Sie leere Dateien nicht ignorieren und zusammen mit allen Duplikaten löschen möchten, führen Sie Folgendes aus:
rdfind -deleteduplicates true -ignoreempty false ~/Downloads
Weitere Informationen finden Sie im Hilfebereich:
rdfind --help
Und die Handbuchseiten
man rdfind
Installation
Anwendung
Fehlerbehebung
Syntax
Optionen
Parameter
Umgebungsvariablen
Exit-Status
Konfiguration
Dateien
Anhang
Siehe auch
Dokumentation
Man-Pages
Info-Pages
Links
Projekt
Weblinks