Duplikate im Filesystem unter Linux finden

Duplikate finden sich im Laufe der Zeit in jedem Filesystem egal ob in Windows oder Linux wieder. Hier ein Backup, dort eine Kopie und schon hat man viele doppelte Dateien. Bei mir war es sogar ein Versehen. Ich habe in einen bereits – zum Teil – sortierten Ordner die kompletten Dateien noch mal kopiert. Ein ‚zurück auf Los und neu sortieren‘ sowie ‚lösche die hinein kopierten Daten‘ kam nicht in Frage. Also habe ich mich auf die Suche nach einer Lösung zum Löschen von Dubletten gemacht.

Dabei bin ich auf HowToGeek, welches im Übrigen sehr lesenswert ist, auf fdupes gestoßen. Sollte bei allen modernen Distributionen im Paketmanager zu finden sein.

fdupes -r -S -d /pfad/zum/verzeichnis

Wobei ‚-r‘ für rekursiv, ‚-S‘ für die Anzeige der Größen und ‚-d‘ für den interaktiven Löschmodus steht. Bei letzterem Parameter entsteht folgender Dialog zwischen dem Benutzer und fdupes:

$ fdupes -r -d -S .                                                                                                                                                                        
[1] ./c                                 
[2] ./b/c

Set 1 of 2, preserve files [1 - 2, all] (0 bytes each): all

   [+] ./c
   [+] ./b/c

[1] ./a
[2] ./b/a

Set 2 of 2, preserve files [1 - 2, all] (7 bytes each): 2

   [-] ./a
   [+] ./b/a

Ich habe diesen Modus gewählt, da ich wusste welche Dateien ich Löschen muss. Wenn man sich nicht sicher ist und einfach eine Übersicht der Dateien benötigt, sollte man -d als Parameter weg lassen.