adam 优化器的默认学习率和衰减是多少
What is the default learningRate and decay of the adam optimizer
根据 the documentation,学习率在 adam 优化器中是可选的。
如果未设置,默认学习率是多少?
是根据变量值动态计算的吗?
如您在 source code which is linked to on the doc page 中所见,默认值为(当前):
learningRate = 0.001
beta1 = 0.9
beta2 = 0.999
根据 the documentation,学习率在 adam 优化器中是可选的。
如果未设置,默认学习率是多少?
是根据变量值动态计算的吗?
如您在 source code which is linked to on the doc page 中所见,默认值为(当前):
learningRate = 0.001
beta1 = 0.9
beta2 = 0.999