内核大小等于 1 的 Conv1D 做什么?

what the Conv1D with kernel size equal to 1 do?

我读了一个使用 LSTMCONV1 的例子。 (摘自:CNN LSTM

Conv1D(filters=64, kernel_size=1, activation='relu')
  1. 卷积的值是多少? (矩阵1*1的值是多少?)
  2. 我不知道 filters=64 是什么?这是什么意思?
  3. relu 激活函数是否作用于卷积的输出? (从我读到的似乎是这样,但我不确定)
  4. 我们在这里使用 kernel_size = 1 卷积的动机是什么?

过滤器

filters = 64 表示使用的独立过滤器数量为 64。 每个过滤器将输出 1 个通道。即这里有 64 个过滤器对输入进行操作以产生 64 个不同的通道(或向量)。因此 filters 参数决定了输出通道的数量。

kernel_size

kernel_size决定卷积的大小window。假设 kernel_size = 1 那么每个内核的维度将是 in_channels x 1。因此每个内核权重将是in_channels x 1维张量。

激活 = relu

这意味着 relu 激活将应用于卷积运算的输出。

kernel_size = 1个卷积

用于通过应用 non-linearity 减少深度通道。它会在保持感受野的同时跨通道做一些类似加权平均的事情。

在你的例子中:filters = 64, kernel_size = 1, activation = relu 假设输入特征图的大小为 100 x 10(100 个通道)。那么层的权重将是维度 64 x 100 x 1。输出大小将为 64 x 10.