Stackoverflow合股,
我试图在Python上的两个SIMilarity图像之间计算SSIM (结构化bmp )。我发现相似性()函数是在skimage python库中实现的,以及原始MatLab实现(即托管于此 )中的等效代码。恳求是正确的:
def structuralSimilarityIndex(ref_image, impaired_image, cs_map=False):
window = Metric.fSpecialGauss(constant.SSIM_FILTER_SIZE,
constant.SSIM_FILTER_SIGMA)
C1 = (constant.SSIM_Constant_1 * constant.PIXEL_MAX) ** 2
C2 = (constant.SSIM_Constant_2 * constant.PIXEL_MAX) ** 2
mu1 = signal.fftconvolve(window, ref_image, mode='valid')
mu2 = signal.fftconvolve(window, impaired_image, mode='valid')
mu1_sq = mu1 * mu1
mu2_sq = mu2 * mu2
mu1_mu2 = mu1 * mu2
sigma1_sq = signal.fftconvolve(
window, ref_image*ref_image, mode='valid') - mu1_sq
sigma2_sq = signal.fftconvolve(
window, impaired_image*impaired_image, mode='valid') - mu2_sq
sigma12 = signal.fftconvolve(
window, ref_image*impaired_image, mode='valid') - mu1_mu2
if cs_map:
return (((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)), (2.0 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2))
else:
return np.mean(((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)))我使用这段代码读取图像:
ref_image = np.asfarray(Image.open('ref_image.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('impaired_image.bmp').covert('L)ref_image和impaired_image的输入图像形状和impaired_image分别为:
(512,512) float64 (512,512) float64
我使用相同的条件和相同的输入图像进行了测试,如下所示:
# Using the above code
structuralSimilarityIndex(ref_image, impaired_image, cs_map=False)
# Using the function imported from skimage.metrics
structural_similarity(ref_image, impaired_image, gaussian_weights=False, use_sample_covariance=False)结果大不相同,这里的结果是:
来自Skimage python库的SSIM:
SSIM : 0.38135154028457885
以上代码中的SSIM:
SSIM : 0.8208087737160036
编辑:
我添加了读取和调用代码
以上的Python代码来自于信号处理库,根据作者的说法,该函数试图精确地模仿ssim.m的功能,这是作者的SSIM提供的
更新:
我测试了在相同图像上用MatLab编写的原始代码,结果如下:
SSIM : 0.8424
这与上面给出的Python实现的结果不远。
发布于 2019-11-08 13:35:03
我已经打开了一个问题,在科学图像Github存储库,我得到了一个答案。在这里,答案是,我没有改变任何答案,你可以找到它这里:
我认为这里的主要问题是,从PIL中计算图像的方式会产生浮点图像,但是那些值在0,255.0范围内的图像。当输入是浮点时,skimage将假设data_range的范围为- 1.0,1.0,因此您需要手动指定data_range=255。
另外,请参阅docstring的Notes部分,以获得设置gaussian_weights=True、sigma=1.5的建议,以更好地匹配Wang et编写的Matlab。阿尔。(我认为最近的Matlab也有自己的内置SSIM实现,但我还没有尝试与这种情况进行比较,也不知道它是否完全相同)。
ref_image = np.asfarray(Image.open('avion.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('avion_jpeg_r5.bmp').convert('L'))
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=255)当我尝试的时候给了
0.8292。
或者,您可以使用skimage.io.imread和rgb2gray读取数据并将其转换为灰度。在这种情况下,您的值将在0,1.0内缩放,并且data_range应该设置为1.0。
from skimage.io import imread
from skimage.color import rgb2gray
ref_image = imread('avion.bmp')
ref_image = rgb2gray(ref_image)
impaired_image = imread('avion_jpeg_r5.bmp')
impaired_image = rgb2gray(impaired_image)
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=1.0)给出
0.8265
我认为上述两种情况之间的微小差异可能是由于rgb2gray使用了与PIL的convert方法不同的亮度转换。
https://stackoverflow.com/questions/58604326
复制相似问题