我使用过rdfind、fdupes和fslint,并查看了以前的文章,如this one。但是,链接post中的解决方案无助于处理分散在嵌套子文件夹中的文件。rdfind、fdupes和fslint运行良好,它们删除了大量重复文件,但没有找到所有文件。我仍然可以看到许多重复的文件具有完全相同的文件大小。有没有方法可以找到所有文件大小相同的文件分散在一个文件夹的嵌套子目录中?
发布于 2016-01-14 19:18:36
#prefix each filepath with the size of the file padded to 10 places
find . -type f -printf "%10s\t%p\n" |
sort --numeric | #sort numerically (uniq needs this)
uniq --repeated --check-chars=10 #select duplicates 有关详细信息,请参阅相应的手册。
发布于 2016-01-16 07:42:03
如果rdfind、fdupe和fslint没有找到它们,那么它们就不是复制的;它们只是碰巧大小相同的文件。
发布于 2016-01-14 19:34:14
为了解决您的问题(清理副本),您可能会发现使用像rdfind这样的工具是值得的。我的Debian系统说:
包装: rdfind 优先事项:额外 第一节:实用程序 描述:查找重复文件实用程序rdfind是一个程序,用于查找重复文件,并可选择地列出、删除它们或用符号链接或硬链接替换它们。这是一个用C++编写的命令行程序,与其替代程序相比,它的速度非常快。主页:http://rdfind.pauldreik.se/
据我所知,它是通过校验和候选文件来工作的。因此,如果您的潜在副本不完全相同(例如,从不可重复的构建中生成的对象文件),它将不会考虑它们的复制。
https://stackoverflow.com/questions/34797696
复制相似问题