(MNIST - GAN) 鉴别器和生成器错误在第一次迭代后下降到接近于零
(MNIST - GAN) Discriminator and Generator error dropping close to zero after first iteration
为了深入了解生成对抗网络,我正在尝试基于此 Stanford university assignment 使用 tensorflow 自己为 MNIST 数据集实施 GAN。
我仔细审查和研究了我对给定练习的解决方案,并通过了测试。但是,我的发电机只会产生噪音。
我很确定我的辅助函数是正确的,所有测试都通过了,而且我在网上找到了显示完全相同实现的参考资料。那么哪里可以
出错的只是判别器和生成器架构:
def discriminator(x):
with tf.variable_scope("discriminator"):
l_1 = leaky_relu(tf.layers.dense(x, 256, activation=None))
l_2 = leaky_relu(tf.layers.dense(l_1, 256, activation=None))
logits = tf.layers.dense(l_2, 1, activation=None)
return logits
def generator(z):
with tf.variable_scope("generator"):
l_1 = tf.maximum(tf.layers.dense(z, 1024, activation=None), 0)
l_2 = tf.maximum(tf.layers.dense(l_1, 1024, activation=None), 0)
img = tf.tanh(tf.layers.dense(l_2, 784, activation=None))
return img
我看到生成器和鉴别器的误差在第一次迭代中下降到接近于零。
Iter: 0, D: 1.026, G:0.6514
Iter: 50, D: 2.721e-05, G:5.066e-06
Iter: 100, D: 1.099e-05, G:3.084e-06
Iter: 150, D: 7.546e-06, G:1.946e-06
Iter: 200, D: 3.386e-06, G:1.226e-06
...
学习率较低,例如1e-7
,判别器和生成器的错误率衰减缓慢,但最终会下降到零,并且只产生噪声。
Iter: 0, D: 1.722, G:0.6772
Iter: 50, D: 1.704, G:0.665
Iter: 100, D: 1.698, G:0.661
Iter: 150, D: 1.663, G:0.6594
Iter: 200, D: 1.661, G:0.6574
...
我得到了张量流图和 运行 用于我的实验,但到目前为止未能从中解释任何有意义的东西。
如果您有任何建议或可以推荐一种调试技术,我将很乐意听到。
根据要求,这是我的 GAN 代码 - 损失:
def gan_loss(logits_real, logits_fake):
labels_real = tf.ones_like(logits_real)
labels_fake = tf.zeros_like(logits_fake)
d_loss_real = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_real, labels=labels_real)
d_loss_fake = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake)
D_loss = tf.reduce_mean(d_loss_real + d_loss_fake)
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake))
return D_loss, G_loss
据我了解,您应该更改此模型:
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
logits=logits_fake, labels=labels_fake))
对此:
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
logits=logits_fake, labels=tf.ones_like(logits_fake)))
为了深入了解生成对抗网络,我正在尝试基于此 Stanford university assignment 使用 tensorflow 自己为 MNIST 数据集实施 GAN。
我仔细审查和研究了我对给定练习的解决方案,并通过了测试。但是,我的发电机只会产生噪音。
我很确定我的辅助函数是正确的,所有测试都通过了,而且我在网上找到了显示完全相同实现的参考资料。那么哪里可以 出错的只是判别器和生成器架构:
def discriminator(x):
with tf.variable_scope("discriminator"):
l_1 = leaky_relu(tf.layers.dense(x, 256, activation=None))
l_2 = leaky_relu(tf.layers.dense(l_1, 256, activation=None))
logits = tf.layers.dense(l_2, 1, activation=None)
return logits
def generator(z):
with tf.variable_scope("generator"):
l_1 = tf.maximum(tf.layers.dense(z, 1024, activation=None), 0)
l_2 = tf.maximum(tf.layers.dense(l_1, 1024, activation=None), 0)
img = tf.tanh(tf.layers.dense(l_2, 784, activation=None))
return img
我看到生成器和鉴别器的误差在第一次迭代中下降到接近于零。
Iter: 0, D: 1.026, G:0.6514
Iter: 50, D: 2.721e-05, G:5.066e-06
Iter: 100, D: 1.099e-05, G:3.084e-06
Iter: 150, D: 7.546e-06, G:1.946e-06
Iter: 200, D: 3.386e-06, G:1.226e-06
...
学习率较低,例如1e-7
,判别器和生成器的错误率衰减缓慢,但最终会下降到零,并且只产生噪声。
Iter: 0, D: 1.722, G:0.6772
Iter: 50, D: 1.704, G:0.665
Iter: 100, D: 1.698, G:0.661
Iter: 150, D: 1.663, G:0.6594
Iter: 200, D: 1.661, G:0.6574
...
我得到了张量流图和 运行 用于我的实验,但到目前为止未能从中解释任何有意义的东西。 如果您有任何建议或可以推荐一种调试技术,我将很乐意听到。
根据要求,这是我的 GAN 代码 - 损失:
def gan_loss(logits_real, logits_fake):
labels_real = tf.ones_like(logits_real)
labels_fake = tf.zeros_like(logits_fake)
d_loss_real = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_real, labels=labels_real)
d_loss_fake = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake)
D_loss = tf.reduce_mean(d_loss_real + d_loss_fake)
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake))
return D_loss, G_loss
据我了解,您应该更改此模型:
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
logits=logits_fake, labels=labels_fake))
对此:
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
logits=logits_fake, labels=tf.ones_like(logits_fake)))