Pytorch 隐藏状态 LSTM
Pytorch hidden state LSTM
为什么我们需要在pytorch中初始化LSTM中的隐藏状态h0。由于 h0 无论如何都会被计算并被覆盖?是不是很像
一个
一 = 0
一=4
即使不做a=0也应该没问题..
关键是你可以提供初始状态,这是一个特性。他们本可以将其实现为默认设置,但通过让您控制张量的分配,您可以节省一些内存(分配一次,每次调用归零)。
为什么需要设置 h
? Sequence-to-sequence 模型需要这个(将输入压缩到一个向量,使用这个向量作为解码器的隐藏状态)或者你可能想让初始状态可学习。
为什么我们需要在pytorch中初始化LSTM中的隐藏状态h0。由于 h0 无论如何都会被计算并被覆盖?是不是很像
一个 一 = 0
一=4
即使不做a=0也应该没问题..
关键是你可以提供初始状态,这是一个特性。他们本可以将其实现为默认设置,但通过让您控制张量的分配,您可以节省一些内存(分配一次,每次调用归零)。
为什么需要设置 h
? Sequence-to-sequence 模型需要这个(将输入压缩到一个向量,使用这个向量作为解码器的隐藏状态)或者你可能想让初始状态可学习。