内核大小等于 1 的 Conv1D 做什么?
what the Conv1D with kernel size equal to 1 do?
我读了一个使用 LSTM
和 CONV1
的例子。
(摘自:CNN LSTM)
Conv1D(filters=64, kernel_size=1, activation='relu')
- 我知道卷积的维度是1(一个dim with size 1))
- 卷积的值是多少? (矩阵1*1的值是多少?)
- 我不知道
filters=64
是什么?这是什么意思?
relu
激活函数是否作用于卷积的输出? (从我读到的似乎是这样,但我不确定)
- 我们在这里使用
kernel_size = 1
卷积的动机是什么?
过滤器
filters = 64
表示使用的独立过滤器数量为 64。
每个过滤器将输出 1 个通道。即这里有 64 个过滤器对输入进行操作以产生 64 个不同的通道(或向量)。因此 filters
参数决定了输出通道的数量。
kernel_size
kernel_size
决定卷积的大小window。假设 kernel_size = 1
那么每个内核的维度将是 in_channels x 1
。因此每个内核权重将是in_channels x 1
维张量。
激活 = relu
这意味着 relu
激活将应用于卷积运算的输出。
kernel_size = 1个卷积
用于通过应用 non-linearity 减少深度通道。它会在保持感受野的同时跨通道做一些类似加权平均的事情。
在你的例子中:filters = 64, kernel_size = 1, activation = relu
假设输入特征图的大小为 100 x 10
(100 个通道)。那么层的权重将是维度 64 x 100 x 1
。输出大小将为 64 x 10
.
我读了一个使用 LSTM
和 CONV1
的例子。
(摘自:CNN LSTM)
Conv1D(filters=64, kernel_size=1, activation='relu')
- 我知道卷积的维度是1(一个dim with size 1))
- 卷积的值是多少? (矩阵1*1的值是多少?)
- 我不知道
filters=64
是什么?这是什么意思? relu
激活函数是否作用于卷积的输出? (从我读到的似乎是这样,但我不确定)- 我们在这里使用
kernel_size = 1
卷积的动机是什么?
过滤器
filters = 64
表示使用的独立过滤器数量为 64。
每个过滤器将输出 1 个通道。即这里有 64 个过滤器对输入进行操作以产生 64 个不同的通道(或向量)。因此 filters
参数决定了输出通道的数量。
kernel_size
kernel_size
决定卷积的大小window。假设 kernel_size = 1
那么每个内核的维度将是 in_channels x 1
。因此每个内核权重将是in_channels x 1
维张量。
激活 = relu
这意味着 relu
激活将应用于卷积运算的输出。
kernel_size = 1个卷积
用于通过应用 non-linearity 减少深度通道。它会在保持感受野的同时跨通道做一些类似加权平均的事情。
在你的例子中:filters = 64, kernel_size = 1, activation = relu
假设输入特征图的大小为 100 x 10
(100 个通道)。那么层的权重将是维度 64 x 100 x 1
。输出大小将为 64 x 10
.