反向传播是否使用优化函数来更新权重?

Does backpropagation use optimization function to update weights?

我知道反向传播计算成本函数相对于模型参数(权重和偏差)的导数。但是,我需要确保反向传播不会更新权重和偏差;相反,它使用 OPTIMIZER 来更新权重和偏差,例如 Adam、Gradient Descent 和其他

提前致谢

如果我理解你的问题:当你在深度学习框架(PyTorch/TensorFlow)中使用优化器时,说“Adam”,优化器正在执行权重更新。这个过程是自动发生的,你不需要手动编写任何代码,框架会为你更新权重+偏差。