零丢弃率的丢弃层
Dropout Layer with zero dropping rate
我无法理解 PyTorch 中 dropout 层的某个方面。
如 Pytorch Documentation 中所述,该方法的签名是 torch.nn.Dropout(p=0.5, inplace=False)
,其中 p
是辍学率。
选择p=0
这一层有什么作用?它会以任何方式更改其输入吗?
Dropout与p=0
等同于恒等运算。
事实上,这是设置为 eval
模式时 Dropout 模块的确切行为:
During evaluation the module simply computes an identity function.
我无法理解 PyTorch 中 dropout 层的某个方面。
如 Pytorch Documentation 中所述,该方法的签名是 torch.nn.Dropout(p=0.5, inplace=False)
,其中 p
是辍学率。
选择p=0
这一层有什么作用?它会以任何方式更改其输入吗?
Dropout与p=0
等同于恒等运算。
事实上,这是设置为 eval
模式时 Dropout 模块的确切行为:
During evaluation the module simply computes an identity function.