imagededup图像去重工具
imagededup 是一个 Python 包,用来简化在一堆图片中提取类似的图片。
imagededup 采用如下算法进行图像查重:
- Convolutional Neural Network (CNN)
- Perceptual hashing (PHash)
- Difference hashing (DHash)
- Wavelet hashing (WHash)
- Average hashing (AHash)
示例代码:
from imagededup.methods import PHash
phasher = PHash()
# Generate encodings for all images in an image directory
encodings = phasher.encode_images(image_dir='path/to/image/directory')
# Find duplicates using the generated encodings
duplicates = phasher.find_duplicates(encoding_map=encodings)
# plot duplicates obtained for a given file using the duplicates dictionary
from imagededup.utils import plot_duplicates
plot_duplicates(image_dir='path/to/image/directory',
duplicate_map=duplicates,
filename='ukbench00120.jpg')
评论
FDUPES文件去重工具
FDUPES是一个文件去重工具,可在指定的文件夹中标识出重复的文件。使用方法:Usage: fdupes [options] DIRECTORY... -r --recurse for e
FDUPES文件去重工具
0
Duplicity支持去重的数据备份工具
Duplicity备份目录,通过生成加密的tar格式卷并可上传到远程或者本地文件服务器。该项目使用librsync实现增量的归档,因此对空间占用是非常高效的。使用GnuPG来加密和签名归档。因此无需担
Duplicity支持去重的数据备份工具
0