这个基础卷积是在普通的卷积神经网络中进行的吗?
Is this basic convolution performed in ordinary convolutional neural network?
我目前正在研究这个 paper(第 53 页),其中建议以特殊方式完成卷积。
这是公式:
这是他们的解释:
如图4.2所示,所有输入的feature maps(假设i一共),O_i(i = 1,····,I)被映射成若干个feature maps(假设J总共), Q_j (j = 1, · · · , J) 在基于多个局部滤波器的卷积层中 (总共 I × J), w_{ij} (i = 1, · · · , 我; j = 1, · · · , J)。该映射可以表示为信号处理中众所周知的卷积运算。
假设输入特征图都是一维的,卷积层中一个特征图的每个单元可以计算为方程 \ref{eq:equation} (上面的方程)。
其中o_{i,m}是第i个输入特征图的第m个单元O_i,q_{j,m}是第j个特征的第m个单元卷积层的mapQ_j,w_{i,j,n}是权重向量w_{i,j}的第n个元素,连接输入的第i个特征图和输入的第j个特征图卷积层,F称为滤波器大小,即卷积层每个单元接收的输入波段数。
目前一切顺利:
我从中基本理解的是我试图在这张图片中说明的内容。
在我看来,他们正在做的实际上是处理所有数据点直到 F,并跨越所有特征图。基本上在 x-y 方向上移动,并从中计算点。
这基本上不是在大小为 (I x F) 的二维图像上使用等于图像大小的滤波器进行二维卷积吗?
重量似乎没有什么不同在这里有任何重要性..?
所以我为什么要在这里问这个..
我正在尝试实现这个,我不确定他们在做什么,实际上只是基本卷积,其中滑动 window feed 不断提供新数据,或者他们所做的不是正常卷积, 这意味着我需要设计一个特殊的层来执行此操作?...
是的,他们只是在使用通常的卷积。您可能更容易查看第 54 页,他们在那里简化了方程式。这是相关的屏幕截图:
如你所见,他们在这里描述的只是典型的卷积运算符。
我目前正在研究这个 paper(第 53 页),其中建议以特殊方式完成卷积。
这是公式:
这是他们的解释:
如图4.2所示,所有输入的feature maps(假设i一共),O_i(i = 1,····,I)被映射成若干个feature maps(假设J总共), Q_j (j = 1, · · · , J) 在基于多个局部滤波器的卷积层中 (总共 I × J), w_{ij} (i = 1, · · · , 我; j = 1, · · · , J)。该映射可以表示为信号处理中众所周知的卷积运算。 假设输入特征图都是一维的,卷积层中一个特征图的每个单元可以计算为方程 \ref{eq:equation} (上面的方程)。
其中o_{i,m}是第i个输入特征图的第m个单元O_i,q_{j,m}是第j个特征的第m个单元卷积层的mapQ_j,w_{i,j,n}是权重向量w_{i,j}的第n个元素,连接输入的第i个特征图和输入的第j个特征图卷积层,F称为滤波器大小,即卷积层每个单元接收的输入波段数。
目前一切顺利:
我从中基本理解的是我试图在这张图片中说明的内容。
在我看来,他们正在做的实际上是处理所有数据点直到 F,并跨越所有特征图。基本上在 x-y 方向上移动,并从中计算点。
这基本上不是在大小为 (I x F) 的二维图像上使用等于图像大小的滤波器进行二维卷积吗? 重量似乎没有什么不同在这里有任何重要性..?
所以我为什么要在这里问这个..
我正在尝试实现这个,我不确定他们在做什么,实际上只是基本卷积,其中滑动 window feed 不断提供新数据,或者他们所做的不是正常卷积, 这意味着我需要设计一个特殊的层来执行此操作?...
是的,他们只是在使用通常的卷积。您可能更容易查看第 54 页,他们在那里简化了方程式。这是相关的屏幕截图:
如你所见,他们在这里描述的只是典型的卷积运算符。