零丢弃率的丢弃层

Dropout Layer with zero dropping rate

我无法理解 PyTorch 中 dropout 层的某个方面。

Pytorch Documentation 中所述,该方法的签名是 torch.nn.Dropout(p=0.5, inplace=False),其中 p 是辍学率。

选择p=0这一层有什么作用?它会以任何方式更改其输入吗?

Dropoutp=0等同于恒等运算。

事实上,这是设置为 eval 模式时 Dropout 模块的确切行为:

During evaluation the module simply computes an identity function.