MXNet - GAN 在 MNIST 中的应用
MXNet - application of GANs to MNIST
所以这个问题是关于 GANs.
我正在尝试做一个简单的例子来证明我自己的概念;即,生成手写数字图像 (MNIST)。虽然大多数人会通过深度卷积甘斯 (dgGAN) 来解决这个问题,但我只是想通过一维数组来实现这一点(即,而不是 28x28 灰度像素值,一个 28*28 1d 数组)。
这个 git repo 具有 "vanilla" 甘斯,它将 MNIST 数据集视为一个包含 784 个值的一维数组。它们的输出值看起来还不错,所以我想做类似的事情。
导入报表
from __future__ import print_function
import matplotlib as mpl
from matplotlib import pyplot as plt
import mxnet as mx
from mxnet import nd, gluon, autograd
from mxnet.gluon import nn, utils
import numpy as np
import os
from math import floor
from random import random
import time
from datetime import datetime
import logging
ctx = mx.gpu()
np.random.seed(3)
超参数
batch_size = 100
epochs = 100
generator_learning_rate = 0.001
discriminator_learning_rate = 0.001
beta1 = 0.5
latent_z_size = 100
加载数据
mnist = mx.test_utils.get_mnist()
# convert imgs to arrays
flattened_training_data = mnist["test_data"].reshape(10000, 28*28)
定义模型
G = nn.Sequential()
with G.name_scope():
G.add(nn.Dense(300, activation="relu"))
G.add(nn.Dense(28 * 28, activation="tanh"))
D = nn.Sequential()
with D.name_scope():
D.add(nn.Dense(128, activation="relu"))
D.add(nn.Dense(64, activation="relu"))
D.add(nn.Dense(32, activation="relu"))
D.add(nn.Dense(2, activation="tanh"))
loss = gluon.loss.SoftmaxCrossEntropyLoss()
初始化东西
G.initialize(mx.init.Normal(0.02), ctx=ctx)
D.initialize(mx.init.Normal(0.02), ctx=ctx)
trainer_G = gluon.Trainer(G.collect_params(), 'adam', {"learning_rate": generator_learning_rate, "beta1": beta1})
trainer_D = gluon.Trainer(D.collect_params(), 'adam', {"learning_rate": discriminator_learning_rate, "beta1": beta1})
metric = mx.metric.Accuracy()
动态图(juptyer notebook)
import matplotlib.pyplot as plt
import time
def dynamic_line_plt(ax, y_data, colors=['r', 'b', 'g'], labels=['Line1', 'Line2', 'Line3']):
x_data = []
y_max = 0
y_min = 0
x_min = 0
x_max = 0
for y in y_data:
x_data.append(list(range(len(y))))
if max(y) > y_max:
y_max = max(y)
if min(y) < y_min:
y_min = min(y)
if len(y) > x_max:
x_max = len(y)
ax.set_ylim(y_min, y_max)
ax.set_xlim(x_min, x_max)
if ax.lines:
for i, line in enumerate(ax.lines):
line.set_xdata(x_data[i])
line.set_ydata(y_data[i])
else:
for i in range(len(y_data)):
l = ax.plot(x_data[i], y_data[i], colors[i], label=labels[i])
ax.legend()
fig.canvas.draw()
火车
stamp = datetime.now().strftime('%Y_%m_%d-%H_%M')
logging.basicConfig(level=logging.DEBUG)
# arrays to store data for plotting
loss_D = nd.array([0], ctx=ctx)
loss_G = nd.array([0], ctx=ctx)
acc_d = nd.array([0], ctx=ctx)
labels = ['Discriminator Loss', 'Generator Loss', 'Discriminator Acc.']
%matplotlib notebook
fig, ax = plt.subplots(1, 1)
ax.set_xlabel('Time')
ax.set_ylabel('Loss')
dynamic_line_plt(ax, [loss_D.asnumpy(), loss_G.asnumpy(), acc_d.asnumpy()], labels=labels)
for epoch in range(epochs):
tic = time.time()
data_iter.reset()
for i, batch in enumerate(data_iter):
####################################
# Update Disriminator: maximize log(D(x)) + log(1-D(G(z)))
####################################
# extract batch of real data
data = batch.data[0].as_in_context(ctx)
# add noise
# Produce our noisey input to the generator
latent_z = mx.nd.random_normal(0,1,shape=(batch_size, latent_z_size), ctx=ctx)
# soft and noisy labels
# real_label = mx.nd.ones((batch_size, ), ctx=ctx) * nd.random_uniform(.7, 1.2, shape=(1)).asscalar()
# fake_label = mx.nd.ones((batch_size, ), ctx=ctx) * nd.random_uniform(0, .3, shape=(1)).asscalar()
# real_label = nd.random_uniform(.7, 1.2, shape=(batch_size), ctx=ctx)
# fake_label = nd.random_uniform(0, .3, shape=(batch_size), ctx=ctx)
real_label = mx.nd.ones((batch_size, ), ctx=ctx)
fake_label = mx.nd.zeros((batch_size, ), ctx=ctx)
with autograd.record():
# train with real data
real_output = D(data)
errD_real = loss(real_output, real_label)
# train with fake data
fake = G(latent_z)
fake_output = D(fake.detach())
errD_fake = loss(fake_output, fake_label)
errD = errD_real + errD_fake
errD.backward()
trainer_D.step(batch_size)
metric.update([real_label, ], [real_output,])
metric.update([fake_label, ], [fake_output,])
####################################
# Update Generator: maximize log(D(G(z)))
####################################
with autograd.record():
output = D(fake)
errG = loss(output, real_label)
errG.backward()
trainer_G.step(batch_size)
####
# Plot Loss
####
# append new data to arrays
loss_D = nd.concat(loss_D, nd.mean(errD), dim=0)
loss_G = nd.concat(loss_G, nd.mean(errG), dim=0)
name, acc = metric.get()
acc_d = nd.concat(acc_d, nd.array([acc], ctx=ctx), dim=0)
# plot array
dynamic_line_plt(ax, [loss_D.asnumpy(), loss_G.asnumpy(), acc_d.asnumpy()], labels=labels)
name, acc = metric.get()
metric.reset()
logging.info('Binary training acc at epoch %d: %s=%f' % (epoch, name, acc))
logging.info('time: %f' % (time.time() - tic))
输出
img = G(mx.nd.random_normal(0,1,shape=(100, latent_z_size), ctx=ctx))[0].reshape((28, 28))
plt.imshow(img.asnumpy(),cmap='gray')
plt.show()
现在这几乎没有上面的回购示例那么好。虽然很相似。
所以我想知道你是否可以看看并找出原因:
- 颜色反转
- 为什么结果低于标准
我一直在摆弄这个尝试很多不同的东西来改善结果(我会在一秒钟内列出),但对于 MNIST 数据集来说,这真的不需要。
我尝试过的东西(我也尝试过很多组合):
- 增加生成器网络
- 增加鉴别器网络
- 使用软标签
- 使用嘈杂的标签
- 生成器中每一层之后的批量归一化
- 数据的批量规范
- 标准化所有介于 -1 和 1 之间的值
- 发电机漏电
- 在生成器中删除图层
- 与生成器相比,判别器的学习率提高了
- 与生成器相比,i 的学习率降低
如果您有任何想法,请告诉我。
1) 如果查看原始数据集:
training_set = mnist["train_data"].reshape(60000, 28, 28)
plt.imshow(training_set[10,:,:], cmap='gray')
您会注意到 digit 是黑底白字。因此,从技术上讲,您的结果并没有反转 - 它们与您用作真实数据的原始图像的模式相匹配。
如果您想为了可视化目的反转颜色,您可以通过添加“_r”(它适用于所有颜色调色板)将调色板更改为反转调色板来轻松实现:
plt.imshow(img.asnumpy(), cmap='gray_r')
您还可以通过更改 vmin 和 vmax 参数来调整颜色范围。他们控制颜色之间的差异应该有多大。默认情况下,它是根据提供的集合自动计算的。
2) "Why the results are sub par" - 我认为这正是社区开始使用 dcGAN 的原因。对我来说,您提供的 git 回购协议中的结果非常嘈杂。当然,它们与您收到的不同,您只需将激活函数从 tanh 更改为 sigmoid 即可获得相同的质量,如 github:
上的示例所示
G = nn.Sequential()
with G.name_scope():
G.add(nn.Dense(300, activation="relu"))
G.add(nn.Dense(28 * 28, activation="sigmoid"))
D = nn.Sequential()
with D.name_scope():
D.add(nn.Dense(128, activation="relu"))
D.add(nn.Dense(64, activation="relu"))
D.add(nn.Dense(32, activation="relu"))
D.add(nn.Dense(2, activation="sigmoid"))
Sigmoid never goes below zero 并且在这种情况下效果更好。这是我训练 30 个时期的更新模型时得到的示例图片(其余超参数相同)。
如果您决定探索 dcGAN 以获得更好的结果,请查看此处 - https://mxnet.incubator.apache.org/tutorials/unsupervised_learning/gan.html 这是一个关于如何使用 Mxnet 和 Gluon 构建 dcGAN 的详细解释教程。通过使用 dcGAN,您将获得比这更好的结果。
所以这个问题是关于 GANs.
我正在尝试做一个简单的例子来证明我自己的概念;即,生成手写数字图像 (MNIST)。虽然大多数人会通过深度卷积甘斯 (dgGAN) 来解决这个问题,但我只是想通过一维数组来实现这一点(即,而不是 28x28 灰度像素值,一个 28*28 1d 数组)。
这个 git repo 具有 "vanilla" 甘斯,它将 MNIST 数据集视为一个包含 784 个值的一维数组。它们的输出值看起来还不错,所以我想做类似的事情。
导入报表
from __future__ import print_function
import matplotlib as mpl
from matplotlib import pyplot as plt
import mxnet as mx
from mxnet import nd, gluon, autograd
from mxnet.gluon import nn, utils
import numpy as np
import os
from math import floor
from random import random
import time
from datetime import datetime
import logging
ctx = mx.gpu()
np.random.seed(3)
超参数
batch_size = 100
epochs = 100
generator_learning_rate = 0.001
discriminator_learning_rate = 0.001
beta1 = 0.5
latent_z_size = 100
加载数据
mnist = mx.test_utils.get_mnist()
# convert imgs to arrays
flattened_training_data = mnist["test_data"].reshape(10000, 28*28)
定义模型
G = nn.Sequential()
with G.name_scope():
G.add(nn.Dense(300, activation="relu"))
G.add(nn.Dense(28 * 28, activation="tanh"))
D = nn.Sequential()
with D.name_scope():
D.add(nn.Dense(128, activation="relu"))
D.add(nn.Dense(64, activation="relu"))
D.add(nn.Dense(32, activation="relu"))
D.add(nn.Dense(2, activation="tanh"))
loss = gluon.loss.SoftmaxCrossEntropyLoss()
初始化东西
G.initialize(mx.init.Normal(0.02), ctx=ctx)
D.initialize(mx.init.Normal(0.02), ctx=ctx)
trainer_G = gluon.Trainer(G.collect_params(), 'adam', {"learning_rate": generator_learning_rate, "beta1": beta1})
trainer_D = gluon.Trainer(D.collect_params(), 'adam', {"learning_rate": discriminator_learning_rate, "beta1": beta1})
metric = mx.metric.Accuracy()
动态图(juptyer notebook)
import matplotlib.pyplot as plt
import time
def dynamic_line_plt(ax, y_data, colors=['r', 'b', 'g'], labels=['Line1', 'Line2', 'Line3']):
x_data = []
y_max = 0
y_min = 0
x_min = 0
x_max = 0
for y in y_data:
x_data.append(list(range(len(y))))
if max(y) > y_max:
y_max = max(y)
if min(y) < y_min:
y_min = min(y)
if len(y) > x_max:
x_max = len(y)
ax.set_ylim(y_min, y_max)
ax.set_xlim(x_min, x_max)
if ax.lines:
for i, line in enumerate(ax.lines):
line.set_xdata(x_data[i])
line.set_ydata(y_data[i])
else:
for i in range(len(y_data)):
l = ax.plot(x_data[i], y_data[i], colors[i], label=labels[i])
ax.legend()
fig.canvas.draw()
火车
stamp = datetime.now().strftime('%Y_%m_%d-%H_%M')
logging.basicConfig(level=logging.DEBUG)
# arrays to store data for plotting
loss_D = nd.array([0], ctx=ctx)
loss_G = nd.array([0], ctx=ctx)
acc_d = nd.array([0], ctx=ctx)
labels = ['Discriminator Loss', 'Generator Loss', 'Discriminator Acc.']
%matplotlib notebook
fig, ax = plt.subplots(1, 1)
ax.set_xlabel('Time')
ax.set_ylabel('Loss')
dynamic_line_plt(ax, [loss_D.asnumpy(), loss_G.asnumpy(), acc_d.asnumpy()], labels=labels)
for epoch in range(epochs):
tic = time.time()
data_iter.reset()
for i, batch in enumerate(data_iter):
####################################
# Update Disriminator: maximize log(D(x)) + log(1-D(G(z)))
####################################
# extract batch of real data
data = batch.data[0].as_in_context(ctx)
# add noise
# Produce our noisey input to the generator
latent_z = mx.nd.random_normal(0,1,shape=(batch_size, latent_z_size), ctx=ctx)
# soft and noisy labels
# real_label = mx.nd.ones((batch_size, ), ctx=ctx) * nd.random_uniform(.7, 1.2, shape=(1)).asscalar()
# fake_label = mx.nd.ones((batch_size, ), ctx=ctx) * nd.random_uniform(0, .3, shape=(1)).asscalar()
# real_label = nd.random_uniform(.7, 1.2, shape=(batch_size), ctx=ctx)
# fake_label = nd.random_uniform(0, .3, shape=(batch_size), ctx=ctx)
real_label = mx.nd.ones((batch_size, ), ctx=ctx)
fake_label = mx.nd.zeros((batch_size, ), ctx=ctx)
with autograd.record():
# train with real data
real_output = D(data)
errD_real = loss(real_output, real_label)
# train with fake data
fake = G(latent_z)
fake_output = D(fake.detach())
errD_fake = loss(fake_output, fake_label)
errD = errD_real + errD_fake
errD.backward()
trainer_D.step(batch_size)
metric.update([real_label, ], [real_output,])
metric.update([fake_label, ], [fake_output,])
####################################
# Update Generator: maximize log(D(G(z)))
####################################
with autograd.record():
output = D(fake)
errG = loss(output, real_label)
errG.backward()
trainer_G.step(batch_size)
####
# Plot Loss
####
# append new data to arrays
loss_D = nd.concat(loss_D, nd.mean(errD), dim=0)
loss_G = nd.concat(loss_G, nd.mean(errG), dim=0)
name, acc = metric.get()
acc_d = nd.concat(acc_d, nd.array([acc], ctx=ctx), dim=0)
# plot array
dynamic_line_plt(ax, [loss_D.asnumpy(), loss_G.asnumpy(), acc_d.asnumpy()], labels=labels)
name, acc = metric.get()
metric.reset()
logging.info('Binary training acc at epoch %d: %s=%f' % (epoch, name, acc))
logging.info('time: %f' % (time.time() - tic))
输出
img = G(mx.nd.random_normal(0,1,shape=(100, latent_z_size), ctx=ctx))[0].reshape((28, 28))
plt.imshow(img.asnumpy(),cmap='gray')
plt.show()
现在这几乎没有上面的回购示例那么好。虽然很相似。
所以我想知道你是否可以看看并找出原因:
- 颜色反转
- 为什么结果低于标准
我一直在摆弄这个尝试很多不同的东西来改善结果(我会在一秒钟内列出),但对于 MNIST 数据集来说,这真的不需要。
我尝试过的东西(我也尝试过很多组合):
- 增加生成器网络
- 增加鉴别器网络
- 使用软标签
- 使用嘈杂的标签
- 生成器中每一层之后的批量归一化
- 数据的批量规范
- 标准化所有介于 -1 和 1 之间的值
- 发电机漏电
- 在生成器中删除图层
- 与生成器相比,判别器的学习率提高了
- 与生成器相比,i 的学习率降低
如果您有任何想法,请告诉我。
1) 如果查看原始数据集:
training_set = mnist["train_data"].reshape(60000, 28, 28)
plt.imshow(training_set[10,:,:], cmap='gray')
您会注意到 digit 是黑底白字。因此,从技术上讲,您的结果并没有反转 - 它们与您用作真实数据的原始图像的模式相匹配。
如果您想为了可视化目的反转颜色,您可以通过添加“_r”(它适用于所有颜色调色板)将调色板更改为反转调色板来轻松实现:
plt.imshow(img.asnumpy(), cmap='gray_r')
您还可以通过更改 vmin 和 vmax 参数来调整颜色范围。他们控制颜色之间的差异应该有多大。默认情况下,它是根据提供的集合自动计算的。
2) "Why the results are sub par" - 我认为这正是社区开始使用 dcGAN 的原因。对我来说,您提供的 git 回购协议中的结果非常嘈杂。当然,它们与您收到的不同,您只需将激活函数从 tanh 更改为 sigmoid 即可获得相同的质量,如 github:
上的示例所示G = nn.Sequential()
with G.name_scope():
G.add(nn.Dense(300, activation="relu"))
G.add(nn.Dense(28 * 28, activation="sigmoid"))
D = nn.Sequential()
with D.name_scope():
D.add(nn.Dense(128, activation="relu"))
D.add(nn.Dense(64, activation="relu"))
D.add(nn.Dense(32, activation="relu"))
D.add(nn.Dense(2, activation="sigmoid"))
Sigmoid never goes below zero 并且在这种情况下效果更好。这是我训练 30 个时期的更新模型时得到的示例图片(其余超参数相同)。
如果您决定探索 dcGAN 以获得更好的结果,请查看此处 - https://mxnet.incubator.apache.org/tutorials/unsupervised_learning/gan.html 这是一个关于如何使用 Mxnet 和 Gluon 构建 dcGAN 的详细解释教程。通过使用 dcGAN,您将获得比这更好的结果。