论文:《Conditional Generative Adversarial Nets》
年份:2014年
引言
原始的GAN过于自由,训练会很容易失去方向,导致不稳定且效果差。比如说GAN生成MNIST数字的过程,虽然可以生成数字,但生成的结果是随机的(因为是根据输入的随机噪声生成的图片),没有办法控制模型生成的具体数字。
CGAN就是在原来的GAN模型中加入一些先验条件,使得GAN变得更加可控制。具体来说,我们可以在生成模型G和判别模型D中同时加入条件约束y来引导数据的生成过程。条件可以是任何补充的信息,如类标签等,这样我们在生成新的样本的同时,还能确切地控制新样本的类型。
cGAN结构
cGAN的全程是Conditional Generative Adversarial Networks,即条件对抗生成网络。它为生成器、判别器都额外加入了一个条件y,这个条件实际上是希望生成的标签。
生成器G必须要生成和条件y匹配的样本,判别器不仅要判别图像是否真实,还要判别图像和条件y是否匹配。cGAN的输入输出为:
- 生成器G:输入一个噪声z,一个条件y,输出符合该条件的图像G。
- 判别器D:输入一张图像x,一个条件y,输出该图像在该条件下的真实概率D(x|y)
![](https://img2020.cnblogs.com/blog/1813159/202008/1813159-20200811170425408-754854655.png)
优化目标
在原始的GAN中,优化目标为:
![](https://img2020.cnblogs.com/blog/1813159/202008/1813159-20200811170441170-22928452.png)
在cGAN中,在其中加入条件y,则优化目标修改成了:
![](https://img2020.cnblogs.com/blog/1813159/202008/1813159-20200811170448186-1353755540.png)
以MNIST为例,生成器G和判别器D的输入输出是:
- G输入一个噪声z,一个数字标签y(y的取值范围是0~9)。输出和数字标签相符合的图像G(z|y)。
- D输入一个图像x,一个数字标签y。输出图像和数字符合的概率D(x|y)。
显然,在训练完成后,向G输入某个数字标签和噪声,可以生成对应数字的图像。
Pytorch代码实现
cGAN生成器
定义生成器及前向传播函数:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
| class Generator(nn.Module): def __init__(self): super().__init__() self.label_emb = nn.Embedding(10, 10) self.model = nn.Sequential( nn.Linear(110, 256), nn.LeakyReLU(0.2, inplace=True), nn.Linear(256, 512), nn.LeakyReLU(0.2, inplace=True), nn.Linear(512, 1024), nn.LeakyReLU(0.2, inplace=True), nn.Linear(1024, 784), nn.Tanh() ) def forward(self, z, labels): z = z.view(z.size(0), 100) c = self.label_emb(labels) x = torch.cat([z, c], 1) out = self.model(x) return out.view(x.size(0), 28, 28)
|
其中,torch.nn.Embedding的函数介绍如下:
1 2 3 4 5 6
| nn.Embedding(num_embeddings, embedding_dim) """ params: - num_embeddings - 词嵌入字典大小,即一个字典里要有多少个词。 - embedding_dim - 每个词嵌入向量的大小。 """
|
cGAN判别器
定义判别器及前向传播函数:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
| class Discriminator(nn.Module): def __init__(self): super().__init__() self.label_emb = nn.Embedding(10, 10) self.model = nn.Sequential( nn.Linear(794, 1024), nn.LeakyReLU(0.2, inplace=True), nn.Dropout(0.4), nn.Linear(1024, 512), nn.LeakyReLU(0.2, inplace=True), nn.Dropout(0.4), nn.Linear(512, 256), nn.LeakyReLU(0.2, inplace=True), nn.Dropout(0.4), nn.Linear(256, 1), nn.Sigmoid() ) def forward(self, x, labels): x = x.view(x.size(0), 784) c = self.label_emb(labels) x = torch.cat([x, c], 1) out = self.model(x) return out.squeeze()
|
cGAN损失函数
定义判别器对真、假图像的损失函数:
1 2 3 4 5 6 7 8 9 10 11 12 13
| real_validity = D(images, labels) d_loss_real = criterion(real_validity, real_labels)
z = torch.randn(batch_size, 100).to(device) fake_labels = torch.randint(0,10,(batch_size,)).to(device) fake_images = G(z, fake_labels) fake_validity = D(fake_images, fake_labels) d_loss_fake = criterion(fake_validity, torch.zeros(batch_size).to(device))
d_loss = d_loss_real + d_loss_fake
|
cGAN可视化
利用网格(10×10)的形式显示指定条件下生成的图像
![](https://img2020.cnblogs.com/blog/1813159/202008/1813159-20200811170502324-663011961.png)
1 2 3 4 5 6 7 8
| from torchvision.utils import make_grid z = torch.randn(100, 100).to(device) labels = torch.LongTensor([i for i in range(10) for _ in range(10)]).to(device) images = G(z, labels).unsqueeze(1) grid = make_grid(images, nrow=10, normalize=True) fig, ax = plt.subplots(figsize=(10,10)) ax.imshow(grid.permute(1, 2, 0).detach().cpu().numpy(), cmap='binary') ax.axis('off')
|
查看指定标签数据
可视化指定单个数字条件下生成的数字:
1 2 3 4 5 6 7 8 9
| def generate_digit(generator, digit): z = torch.randn(1, 100).to(device)
label = torch.LongTensor([digit]).to(device)
img = generator(z, label).detach().cpu()
img = 0.5 * img + 0.5
return transforms.ToPILImage()(img)
generate_digit(G, 8)
|
可视化损失值
记录判别器和生成器的损失变化:
1
| writer.add_scalars('scalars', {'g_loss': g_loss, 'd_loss': d_loss}, step)
|
![](https://img2020.cnblogs.com/blog/1813159/202008/1813159-20200811170517127-827948811.png)