如何在 Flux.jl 中设置优化器的学习率
How to set the Learning Rate of an optimizer in Flux.jl
我想在 Flux 中为我的优化器设置默认学习率。我在看这个例子:https://fluxml.ai/Flux.jl/stable/training/optimisers/ 看起来这样做的接口是通过 update!
函数。这是设置学习率的方式还是他们的其他选择?
如Flux.jl docs中所述,有几个不同的界面可以设置学习率。对于优化器,您可以使用 update!()
函数。在梯度下降的情况下:
Descent(η = 0.1):
Classic gradient descent optimiser with learning rate η. For each parameter
p and its gradient δp, this runs p -= η*δp
这意味着我们可以将一些学习率(通常在 0.1 和 0.001 之间)传递给 Descent
函数来设置 LR。
还有许多其他函数可用于为特定优化器用例指定 LR,您可以在此处找到它们:https://fluxml.ai/Flux.jl/stable/training/optimisers/#Optimiser-Reference
我想在 Flux 中为我的优化器设置默认学习率。我在看这个例子:https://fluxml.ai/Flux.jl/stable/training/optimisers/ 看起来这样做的接口是通过 update!
函数。这是设置学习率的方式还是他们的其他选择?
如Flux.jl docs中所述,有几个不同的界面可以设置学习率。对于优化器,您可以使用 update!()
函数。在梯度下降的情况下:
Descent(η = 0.1): Classic gradient descent optimiser with learning rate η. For each parameter p and its gradient δp, this runs p -= η*δp
这意味着我们可以将一些学习率(通常在 0.1 和 0.001 之间)传递给 Descent
函数来设置 LR。
还有许多其他函数可用于为特定优化器用例指定 LR,您可以在此处找到它们:https://fluxml.ai/Flux.jl/stable/training/optimisers/#Optimiser-Reference