在 DURBAN 中微调权重

Fine tuning weights in DBN

在深度信念网络中,我使用 CD-1 对网络进行了预训练。我存储了权重和偏差。现在我可以 运行 一个带有 dropout 的监督 mlp 代码,并将权重初始化为从预训练中获得的权重。它是否等同于通过 dropout 微调实现的 DBN?

dropout fine tuning on DBN

表示

run a supervised mlp code with dropout and initialise the weights as those obtained from pre training

所以是的,它们是等价的。