火炬中的卷积神经网络。训练网络时出错
Convolution Neural Network in torch. Error when training the network
我正在尝试将我的卷积神经网络建立在以下教程的基础上:
https://github.com/torch/tutorials/tree/master/2_supervised
问题是我的图像与教程中使用的图像尺寸不同。 (3x200x200)。我也只有两个 类.
以下是我所做的更改:
正在更改要在 1_data.lua 中加载的数据集。
nfeats = 3
width = 200
height = 200
ninputs = nfeats*width*height
和
nclass,noutputs
在 3_loss.lua 和 4_train.lua 中。
我的模型与教程中训练的模型相同。为了方便起见,我将代码放在下面:
model = nn.Sequential()
-- stage 1 : filter bank -> squashing -> L2 pooling -> normalization
model:add(nn.SpatialConvolutionMM(nfeats, nstates[1], filtsize, filtsize))
model:add(nn.Tanh())
model:add(nn.SpatialLPPooling(nstates[1],2,poolsize,poolsize,poolsize,poolsize))
model:add(nn.SpatialSubtractiveNormalization(nstates[1], normkernel))
-- stage 2 : filter bank -> squashing -> L2 pooling -> normalization
model:add(nn.SpatialConvolutionMM(nstates[1], nstates[2], filtsize, filtsize))
model:add(nn.Tanh())
model:add(nn.SpatialLPPooling(nstates[2],2,poolsize,poolsize,poolsize,poolsize))
model:add(nn.SpatialSubtractiveNormalization(nstates[2], normkernel))
-- stage 3 : standard 2-layer neural network
model:add(nn.Reshape(nstates[2]*filtsize*filtsize))
model:add(nn.Linear(nstates[2]*filtsize*filtsize, nstates[3]))
model:add(nn.Tanh())
model:add(nn.Linear(nstates[3], noutputs))
当我 运行 doall.lua 文件时出现以下错误:
==> online epoch # 1 [batchSize = 1]
/home/torch/install/share/lua/5.1/torch/Tensor.lua:462: Wrong size for view. Input size: 64x47x47. Output size: 64x1600
stack traceback:
[C]: in function 'error'
/home/torch/install/share/lua/5.1/torch/Tensor.lua:462: in function 'view'
/home/torch/install/share/lua/5.1/nn/Reshape.lua:49: in function 'updateOutput'
/home/torch/install/share/lua/5.1/nn/Sequential.lua:29: in function 'forward'
4_train.lua:160: in function 'opfunc'
/home/torch/install/share/lua/5.1/optim/sgd.lua:43: in function 'optimMethod'
4_train.lua:184: in function 'train'
doall.lua:77: in main chunk
[C]: in function 'dofile'
[string "_RESULT={dofile('doall.lua' )}"]:1: in main chunk
[C]: in function 'xpcall'
/home/torch/install/share/lua/5.1/trepl/init.lua:630: in function 'repl'
.../torch/install/lib/luarocks/rocks/trepl/scm-1/bin/th:185: in main chunk
[C]: at 0x00406670
我已经被困在这里一天多了。请帮忙。
问题是本教程中的卷积神经网络已被设计为使用 32x32 像素的固定尺寸输入分辨率。
在 2 个卷积层/池化层之后,您将获得 64 个 5x5 分辨率的特征图。这为以下全连接层提供了 64x5x5 = 1,600 个元素的输入。
正如您在教程中看到的那样,有一个专门的 reshape 操作可以将 3D 输入张量转换为具有 1,600 个元素的 1D 张量:
-- nstates[2]*filtsize*filtsize = 64x5x5 = 1,600
model:add(nn.Reshape(nstates[2]*filtsize*filtsize))
当你使用更高分辨率的输入时,你会产生更高分辨率的输出特征图,这里 200x200 像素的输入提供 64 个大小为 47x47 的输出特征图。这就是为什么您会收到此 wrong size 错误。
因此您需要相应地调整整形和后续线性层:
model:add(nn.Reshape(nstates[2]*47*47))
model:add(nn.Linear(nstates[2]*47*47, nstates[3]))
我正在尝试将我的卷积神经网络建立在以下教程的基础上:
https://github.com/torch/tutorials/tree/master/2_supervised
问题是我的图像与教程中使用的图像尺寸不同。 (3x200x200)。我也只有两个 类.
以下是我所做的更改:
正在更改要在 1_data.lua 中加载的数据集。
nfeats = 3
width = 200
height = 200
ninputs = nfeats*width*height
和
nclass,noutputs
在 3_loss.lua 和 4_train.lua 中。
我的模型与教程中训练的模型相同。为了方便起见,我将代码放在下面:
model = nn.Sequential()
-- stage 1 : filter bank -> squashing -> L2 pooling -> normalization
model:add(nn.SpatialConvolutionMM(nfeats, nstates[1], filtsize, filtsize))
model:add(nn.Tanh())
model:add(nn.SpatialLPPooling(nstates[1],2,poolsize,poolsize,poolsize,poolsize))
model:add(nn.SpatialSubtractiveNormalization(nstates[1], normkernel))
-- stage 2 : filter bank -> squashing -> L2 pooling -> normalization
model:add(nn.SpatialConvolutionMM(nstates[1], nstates[2], filtsize, filtsize))
model:add(nn.Tanh())
model:add(nn.SpatialLPPooling(nstates[2],2,poolsize,poolsize,poolsize,poolsize))
model:add(nn.SpatialSubtractiveNormalization(nstates[2], normkernel))
-- stage 3 : standard 2-layer neural network
model:add(nn.Reshape(nstates[2]*filtsize*filtsize))
model:add(nn.Linear(nstates[2]*filtsize*filtsize, nstates[3]))
model:add(nn.Tanh())
model:add(nn.Linear(nstates[3], noutputs))
当我 运行 doall.lua 文件时出现以下错误:
==> online epoch # 1 [batchSize = 1]
/home/torch/install/share/lua/5.1/torch/Tensor.lua:462: Wrong size for view. Input size: 64x47x47. Output size: 64x1600
stack traceback:
[C]: in function 'error'
/home/torch/install/share/lua/5.1/torch/Tensor.lua:462: in function 'view'
/home/torch/install/share/lua/5.1/nn/Reshape.lua:49: in function 'updateOutput'
/home/torch/install/share/lua/5.1/nn/Sequential.lua:29: in function 'forward'
4_train.lua:160: in function 'opfunc'
/home/torch/install/share/lua/5.1/optim/sgd.lua:43: in function 'optimMethod'
4_train.lua:184: in function 'train'
doall.lua:77: in main chunk
[C]: in function 'dofile'
[string "_RESULT={dofile('doall.lua' )}"]:1: in main chunk
[C]: in function 'xpcall'
/home/torch/install/share/lua/5.1/trepl/init.lua:630: in function 'repl'
.../torch/install/lib/luarocks/rocks/trepl/scm-1/bin/th:185: in main chunk
[C]: at 0x00406670
我已经被困在这里一天多了。请帮忙。
问题是本教程中的卷积神经网络已被设计为使用 32x32 像素的固定尺寸输入分辨率。
在 2 个卷积层/池化层之后,您将获得 64 个 5x5 分辨率的特征图。这为以下全连接层提供了 64x5x5 = 1,600 个元素的输入。
正如您在教程中看到的那样,有一个专门的 reshape 操作可以将 3D 输入张量转换为具有 1,600 个元素的 1D 张量:
-- nstates[2]*filtsize*filtsize = 64x5x5 = 1,600
model:add(nn.Reshape(nstates[2]*filtsize*filtsize))
当你使用更高分辨率的输入时,你会产生更高分辨率的输出特征图,这里 200x200 像素的输入提供 64 个大小为 47x47 的输出特征图。这就是为什么您会收到此 wrong size 错误。
因此您需要相应地调整整形和后续线性层:
model:add(nn.Reshape(nstates[2]*47*47))
model:add(nn.Linear(nstates[2]*47*47, nstates[3]))