具有 2 个通道的数据的 Inception v3 和 Xception
Inception v3 and Xception for data with 2 channels
我正在尝试将预训练模型用于形状为 (64,256,2) 的我自己的数据,并且我能够像这样更改 VGG16 和 ResNet50 的输入形状:
base_model = keras.applications.vgg16.VGG16(input_shape=(32,128,2), include_top=False, weights=None)
但是,同样的方法不适用于Inception v3和Xception。
我得到的错误是:
model = keras.applications.inception_v3.InceptionV3(input_shape=(64, 256, 2), weights=None, include_top=False)
Input size must be at least 75x75; got `input_shape=(64, 256, 2)`
关于如何解决这个问题有什么想法吗?
谢谢!
大多数卷积神经网络都有 width/height 的最小维度。
https://github.com/fchollet/deep-learning-models/blob/master/inception_v3.py
网络中有许多池化层将特征图维度降低一个因子,如果您的输入太小,网络可以将您的输入传递到最后,而不会达到特征图的 0 height/width。因此,您必须为网络使用指定的最小维度,在本例中为 75by75。
我正在尝试将预训练模型用于形状为 (64,256,2) 的我自己的数据,并且我能够像这样更改 VGG16 和 ResNet50 的输入形状:
base_model = keras.applications.vgg16.VGG16(input_shape=(32,128,2), include_top=False, weights=None)
但是,同样的方法不适用于Inception v3和Xception。 我得到的错误是:
model = keras.applications.inception_v3.InceptionV3(input_shape=(64, 256, 2), weights=None, include_top=False)
Input size must be at least 75x75; got `input_shape=(64, 256, 2)`
关于如何解决这个问题有什么想法吗? 谢谢!
大多数卷积神经网络都有 width/height 的最小维度。
https://github.com/fchollet/deep-learning-models/blob/master/inception_v3.py
网络中有许多池化层将特征图维度降低一个因子,如果您的输入太小,网络可以将您的输入传递到最后,而不会达到特征图的 0 height/width。因此,您必须为网络使用指定的最小维度,在本例中为 75by75。