哪个 SSIM 是正确的:skimage.metrics.structural_similarity()?
Which SSIM is correct : skimage.metrics.structural_similarity()?
Whosebug 社区,
我正在尝试计算 Python 上两个 bmp
图像之间的 SSIM(结构相似度)。我找到了 structural_similarity() function implemented in the skimage
python library and the equivalent code from the original MatLab
implementation which is hosted here。实现如下:
def structuralSimilarityIndex(ref_image, impaired_image, cs_map=False):
window = Metric.fSpecialGauss(constant.SSIM_FILTER_SIZE,
constant.SSIM_FILTER_SIGMA)
C1 = (constant.SSIM_Constant_1 * constant.PIXEL_MAX) ** 2
C2 = (constant.SSIM_Constant_2 * constant.PIXEL_MAX) ** 2
mu1 = signal.fftconvolve(window, ref_image, mode='valid')
mu2 = signal.fftconvolve(window, impaired_image, mode='valid')
mu1_sq = mu1 * mu1
mu2_sq = mu2 * mu2
mu1_mu2 = mu1 * mu2
sigma1_sq = signal.fftconvolve(
window, ref_image*ref_image, mode='valid') - mu1_sq
sigma2_sq = signal.fftconvolve(
window, impaired_image*impaired_image, mode='valid') - mu2_sq
sigma12 = signal.fftconvolve(
window, ref_image*impaired_image, mode='valid') - mu1_mu2
if cs_map:
return (((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)), (2.0 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2))
else:
return np.mean(((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)))
我正在使用这段代码读取图像:
ref_image = np.asfarray(Image.open('ref_image.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('impaired_image.bmp').covert('L)
ref_image
和impaired_image
的输入图像shape和dtype
分别为:
(512, 512) float64
(512, 512) float64
我使用相同的条件和相同的输入图像进行了测试,如下所示:
# Using the above code
structuralSimilarityIndex(ref_image, impaired_image, cs_map=False)
# Using the function imported from skimage.metrics
structural_similarity(ref_image, impaired_image, gaussian_weights=False, use_sample_covariance=False)
结果大不相同,这里是结果:
来自 Skimage
python 库的 SSIM:
SSIM : 0.38135154028457885
上述代码中的 SSIM:
SSIM : 0.8208087737160036
编辑:
我添加了阅读和调用代码
以上Python代码来自signal processing library,根据作者的说法,该函数试图精确模仿ssim.m作者提供的MATLAB的功能SSIM
更新 :
我测试了在相同图像上用 MatLab 编写的原始代码,结果如下:
SSIM : 0.8424
这与上面给出的 Python 实施的结果相差不远。
我在 scikit-image Github 存储库上打开了一个问题,我得到了答案。这里是答案,我没有对答案做任何改动,你可以找到它 here:
我认为这里的主要问题是您从 PIL 计算图像的方式会产生浮点图像,但这些图像的值在 [0, 255.0] 范围内。当输入为浮点数时,skimage 将为 data_range 假定一个范围 [-1.0, 1.0],因此您需要手动指定 data_range=255.
此外,请参阅文档字符串的注释部分,了解设置 gaussian_weights=True, sigma=1.5 以更接近 Wang 等人的 Matlab 脚本的建议。阿尔。 (我想最近的Matlab也有它自己内置的SSIM实现,但我没有尝试与那个案例进行比较,不知道它是否完全相同)。
ref_image = np.asfarray(Image.open('avion.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('avion_jpeg_r5.bmp').convert('L'))
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=255)
gives 0.8292
when I tried it.
或者,您可以使用 skimage.io.imread 和 rgb2gray 读取数据并将其转换为灰度。在这种情况下,值将在 [0, 1.0] 范围内为您缩放,并且 data_range 应设置为 1.0。
from skimage.io import imread
from skimage.color import rgb2gray
ref_image = imread('avion.bmp')
ref_image = rgb2gray(ref_image)
impaired_image = imread('avion_jpeg_r5.bmp')
impaired_image = rgb2gray(impaired_image)
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=1.0)
gives 0.8265
我认为上述两种情况之间的微小差异可能是由于 rgb2gray
使用与 PIL 的 convert
方法不同的亮度转换。
Whosebug 社区,
我正在尝试计算 Python 上两个 bmp
图像之间的 SSIM(结构相似度)。我找到了 structural_similarity() function implemented in the skimage
python library and the equivalent code from the original MatLab
implementation which is hosted here。实现如下:
def structuralSimilarityIndex(ref_image, impaired_image, cs_map=False):
window = Metric.fSpecialGauss(constant.SSIM_FILTER_SIZE,
constant.SSIM_FILTER_SIGMA)
C1 = (constant.SSIM_Constant_1 * constant.PIXEL_MAX) ** 2
C2 = (constant.SSIM_Constant_2 * constant.PIXEL_MAX) ** 2
mu1 = signal.fftconvolve(window, ref_image, mode='valid')
mu2 = signal.fftconvolve(window, impaired_image, mode='valid')
mu1_sq = mu1 * mu1
mu2_sq = mu2 * mu2
mu1_mu2 = mu1 * mu2
sigma1_sq = signal.fftconvolve(
window, ref_image*ref_image, mode='valid') - mu1_sq
sigma2_sq = signal.fftconvolve(
window, impaired_image*impaired_image, mode='valid') - mu2_sq
sigma12 = signal.fftconvolve(
window, ref_image*impaired_image, mode='valid') - mu1_mu2
if cs_map:
return (((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)), (2.0 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2))
else:
return np.mean(((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)))
我正在使用这段代码读取图像:
ref_image = np.asfarray(Image.open('ref_image.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('impaired_image.bmp').covert('L)
ref_image
和impaired_image
的输入图像shape和dtype
分别为:
(512, 512) float64
(512, 512) float64
我使用相同的条件和相同的输入图像进行了测试,如下所示:
# Using the above code
structuralSimilarityIndex(ref_image, impaired_image, cs_map=False)
# Using the function imported from skimage.metrics
structural_similarity(ref_image, impaired_image, gaussian_weights=False, use_sample_covariance=False)
结果大不相同,这里是结果:
来自 Skimage
python 库的 SSIM:
SSIM : 0.38135154028457885
上述代码中的 SSIM:
SSIM : 0.8208087737160036
编辑:
我添加了阅读和调用代码
以上Python代码来自signal processing library,根据作者的说法,该函数试图精确模仿ssim.m作者提供的MATLAB的功能SSIM
更新 :
我测试了在相同图像上用 MatLab 编写的原始代码,结果如下:
SSIM : 0.8424
这与上面给出的 Python 实施的结果相差不远。
我在 scikit-image Github 存储库上打开了一个问题,我得到了答案。这里是答案,我没有对答案做任何改动,你可以找到它 here:
我认为这里的主要问题是您从 PIL 计算图像的方式会产生浮点图像,但这些图像的值在 [0, 255.0] 范围内。当输入为浮点数时,skimage 将为 data_range 假定一个范围 [-1.0, 1.0],因此您需要手动指定 data_range=255.
此外,请参阅文档字符串的注释部分,了解设置 gaussian_weights=True, sigma=1.5 以更接近 Wang 等人的 Matlab 脚本的建议。阿尔。 (我想最近的Matlab也有它自己内置的SSIM实现,但我没有尝试与那个案例进行比较,不知道它是否完全相同)。
ref_image = np.asfarray(Image.open('avion.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('avion_jpeg_r5.bmp').convert('L'))
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=255)
gives
0.8292
when I tried it.
或者,您可以使用 skimage.io.imread 和 rgb2gray 读取数据并将其转换为灰度。在这种情况下,值将在 [0, 1.0] 范围内为您缩放,并且 data_range 应设置为 1.0。
from skimage.io import imread
from skimage.color import rgb2gray
ref_image = imread('avion.bmp')
ref_image = rgb2gray(ref_image)
impaired_image = imread('avion_jpeg_r5.bmp')
impaired_image = rgb2gray(impaired_image)
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=1.0)
gives
0.8265
我认为上述两种情况之间的微小差异可能是由于 rgb2gray
使用与 PIL 的 convert
方法不同的亮度转换。