在 keras 或 tensorflow 的 adamOptimizer 中找不到 apply_gradients
Cannot find apply_gradients in adamOptimizer in keras or tensorflow
apply_gradients 可能已在 tensorflow 或 keras 的优化器的未来版本中删除。不知道为什么,但我得到这个:
AttributeError: 'Adam' object has no attribute 'apply_gradients'
还有其他方法可以达到同样的效果吗?
apply_gradients
是仅在 tensorflow.keras
中才有可能的东西,因为您可以通过 eager execution 进行手动训练循环。
纯 keras
必须使用符号图,并且只能使用 fit
或 train_on_batch
.
应用渐变
我遇到了同样的问题。最后,这个初始化器起作用了:
optimizer = tf.keras.optimizers.Adam()
但是这些导致错误:
optimizer = keras.optimizers.Adam()
optimizer = tf.python.keras.optimizers.Adam()
apply_gradients 可能已在 tensorflow 或 keras 的优化器的未来版本中删除。不知道为什么,但我得到这个:
AttributeError: 'Adam' object has no attribute 'apply_gradients'
还有其他方法可以达到同样的效果吗?
apply_gradients
是仅在 tensorflow.keras
中才有可能的东西,因为您可以通过 eager execution 进行手动训练循环。
纯 keras
必须使用符号图,并且只能使用 fit
或 train_on_batch
.
我遇到了同样的问题。最后,这个初始化器起作用了:
optimizer = tf.keras.optimizers.Adam()
但是这些导致错误:
optimizer = keras.optimizers.Adam()
optimizer = tf.python.keras.optimizers.Adam()