在 keras 或 tensorflow 的 adamOptimizer 中找不到 apply_gradients

Cannot find apply_gradients in adamOptimizer in keras or tensorflow

apply_gradients 可能已在 tensorflow 或 keras 的优化器的未来版本中删除。不知道为什么,但我得到这个:

AttributeError: 'Adam' object has no attribute 'apply_gradients'

还有其他方法可以达到同样的效果吗?

apply_gradients 是仅在 tensorflow.keras 中才有可能的东西,因为您可以通过 eager execution 进行手动训练循环。

keras 必须使用符号图,并且只能使用 fittrain_on_batch.

应用渐变

我遇到了同样的问题。最后,这个初始化器起作用了:

optimizer = tf.keras.optimizers.Adam()

但是这些导致错误:

optimizer = keras.optimizers.Adam()
optimizer = tf.python.keras.optimizers.Adam()