在 DURBAN 中微调权重
Fine tuning weights in DBN
在深度信念网络中,我使用 CD-1 对网络进行了预训练。我存储了权重和偏差。现在我可以 运行 一个带有 dropout 的监督 mlp 代码,并将权重初始化为从预训练中获得的权重。它是否等同于通过 dropout 微调实现的 DBN?
dropout fine tuning on DBN
表示
run a supervised mlp code with dropout and initialise the weights as those obtained from pre training
所以是的,它们是等价的。
在深度信念网络中,我使用 CD-1 对网络进行了预训练。我存储了权重和偏差。现在我可以 运行 一个带有 dropout 的监督 mlp 代码,并将权重初始化为从预训练中获得的权重。它是否等同于通过 dropout 微调实现的 DBN?
dropout fine tuning on DBN
表示
run a supervised mlp code with dropout and initialise the weights as those obtained from pre training
所以是的,它们是等价的。