Watson,对不同大小的图像进行分类

Watson, classfiying images with different sizes

给定一个定制的 IBM 视觉识别服务模型,该模型使用一组大小为 100x100 的图像进行训练,在分类过程中是否只发送 100x100 图像会更好,或者图像大小不是属性 这有助于产生更好的分类结果?

训练模型时,您希望训练图像 "represent" 稍后要使用训练模型进行分类的图像的外观。

不过,经过训练的模型并不强烈依赖于分辨率。在内部,该服务在训练和分类之前将图像调整为标准尺寸(224x224 像素)。我们真的不建议在发送到系统之前对图像进行操作,因为这个细节将来可能会发生变化,但目前,您可以在发送图像之前将图像大小调整为正好 224x224,并且您应该不会看到结果发生变化。

然而,如果你正在训练的对象几乎占据了整个图像,例如,但在图像中你试图对感兴趣的对象进行分类只占图像的 1/4 并且显示很多例如,系统难以分类的背景。

简而言之,匹配训练图像的分辨率不太可能提高准确性。但是匹配感兴趣对象的比例会(意思是:训练图像中的对象占图像的 X%,测试图像中的相同对象也占图像的 X%)。