不能将 tf.keras.optimizer 与 tf.keras.models.sequential 一起使用

Can't use tf.keras.optimizer with tf.keras.models.sequential

我将 python 3 与 conda 和 tensorflow 一起使用,使用以下代码来创建 tf.keras.models.sequential 并使用 tf.keras.optimizer.Adam 对其进行优化,但出现以下错误:

from tensorflow.python.keras.models import Sequential
from tensorflow.python.keras.datasets import mnist
from tensorflow.python.keras.optimizers import Adam
from tensorflow.python.keras.layers import Dense, Dropout
from siamese import triplet_loss

model = Sequential()
model.add(Dense(units=100, input_shape=(784,), activation="relu"))
model.compile(loss=triplet_loss.TripletLoss.semihard, optimizer=Adam())

(train_x, train_y), (test_x, test_y) = mnist.load_data()
train_x = train_x.reshape((-1, 784)) / 255.0
print(train_x)

ValueError: optimizer must be an instance of tf.train.Optimizer, not a

我尝试从 tf.train 导入优化器,但它似乎没有找到任何要导入的东西...

tf 版本为 1.12

谢谢

将代码更改为

时有效
model = Sequential()
model.add(Dense(units=100, input_shape=(784,), activation="relu"))
model.compile(loss=triplet_loss.TripletLoss.semihard, optimizer=tf.train.AdamOptimizer(learning_rate=0.005))

这适用于 Tensorflow 版本 2.x

model = Sequential()
model.add(Dense(units=100, input_shape=(784,), activation="relu"))
model.compile(loss=triplet_loss.TripletLoss.semihard, optimizer=tf.compat.v1.train.AdamOptimizer(learning_rate=0.005))