如何在 Flux.jl 中设置优化器的学习率

How to set the Learning Rate of an optimizer in Flux.jl

我想在 Flux 中为我的优化器设置默认学习率。我在看这个例子:https://fluxml.ai/Flux.jl/stable/training/optimisers/ 看起来这样做的接口是通过 update! 函数。这是设置学习率的方式还是他们的其他选择?

Flux.jl docs中所述,有几个不同的界面可以设置学习率。对于优化器,您可以使用 update!() 函数。在梯度下降的情况下:

Descent(η = 0.1): Classic gradient descent optimiser with learning rate η. For each parameter p and its gradient δp, this runs p -= η*δp

这意味着我们可以将一些学习率(通常在 0.1 和 0.001 之间)传递给 Descent 函数来设置 LR。

还有许多其他函数可用于为特定优化器用例指定 LR,您可以在此处找到它们:https://fluxml.ai/Flux.jl/stable/training/optimisers/#Optimiser-Reference