GAN生成對抗網路-DCGAN原理與基本實現-深度卷積生成對抗網路03
什麼是DCGAN
實現程式碼
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
import matplotlib.pyplot as plt
%matplotlib inline
import numpy as np
import glob
import os
# 視訊記憶體自適應分配
gpus = tf.config.experimental.list_physical_devices(device_type='GPU')
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu,True)
gpu_ok = tf.test.is_gpu_available()
print("tf version:", tf.__version__)
print("use GPU", gpu_ok) # 判斷是否使用gpu進行訓練
# 手寫資料集
(train_images,train_labels),(test_images,test_labels) = tf.keras.datasets.mnist.load_data()
train_images = train_images.reshape(train_images.shape[0],28,28,1).astype("float32")
# 歸一化
train_images = (train_images-127.5)/127.5
BATCH_SIZE = 256
BUFFER_SIZE = 60000
# 建立資料集
datasets = tf.data.Dataset.from_tensor_slices(train_images)
# 亂序
datasets = datasets.shuffle(BUFFER_SIZE).batch(BATCH_SIZE)
編寫模型
# 生成器模型
def generator_model():
model = keras.Sequential() # 順序模型
model.add(layers.Dense(7*7*256,input_shape=(100,),use_bias=False)) # 輸出7*7*256個單元,隨機數輸入資料形狀長度100的向量
model.add(layers.BatchNormalization()) # 批處理
model.add(layers.LeakyReLU())# LeakyReLU()啟用
model.add(layers.Reshape((7,7,256))) # 7*7*256
model.add(layers.Conv2DTranspose(128,(5,5),strides=(1,1),padding="same",use_bias=False)) # 反摺積
model.add(layers.BatchNormalization()) # 批處理
model.add(layers.LeakyReLU())# LeakyReLU()啟用 # 7*7*128
model.add(layers.Conv2DTranspose(64,(5,5),strides=(2,2),padding="same",use_bias=False)) # 反摺積
model.add(layers.BatchNormalization()) # 批處理
model.add(layers.LeakyReLU())# LeakyReLU()啟用 # 14*14*64
model.add(layers.Conv2DTranspose(1,(5,5),
strides=(2,2),
padding="same",
use_bias=False,
activation="tanh")) # 反摺積 # 28*28*1
return model
# 判別模型
def discriminator_model():
model = keras.Sequential()
model.add(layers.Conv2D(64,(5,5),
strides=(2,2),
padding="same",
input_shape = (28,28,1)))
model.add(layers.LeakyReLU())
model.add(layers.Dropout(0.3))
model.add(layers.Conv2D(128,(5,5),
strides=(2,2),
padding="same"))
model.add(layers.LeakyReLU())
model.add(layers.Dropout(0.3))
model.add(layers.Conv2D(256,(5,5),
strides=(2,2),
padding="same"))
model.add(layers.LeakyReLU())
model.add(layers.Flatten())
model.add(layers.Dense(1))
return model
# 編寫loss binary_crossentropy(對數損失函式)即 log loss,與 sigmoid 相對應的損失函式,針對於二分類問題。
cross_entropy = tf.keras.losses.BinaryCrossentropy(from_logits=True)
# 辨別器loss
def discriminator_loss(real_out,fake_out):
read_loss = cross_entropy(tf.ones_like(real_out),real_out) # 使用binary_crossentropy 對真實圖片判別為1
fake_loss = cross_entropy(tf.zeros_like(fake_out),fake_out) # 生成的圖片 判別為0
return read_loss + fake_loss
# 生成器loss
def generator_loss(fake_out):
return cross_entropy(tf.ones_like(fake_out),fake_out) # 希望對生成的圖片返回為1
# 優化器
generator_opt = tf.keras.optimizers.Adam(1e-4) # 學習速率1e-4 0.0001
discriminator_opt = tf.keras.optimizers.Adam(1e-4)
EPOCHS = 100 # 訓練步數
noise_dim = 100
num_exp_to_generate = 16
seed = tf.random.normal([num_exp_to_generate,noise_dim]) # 16,100 # 生成16個樣本,長度為100的隨機數
generator = generator_model()
discriminator = discriminator_model()
# 訓練一個epoch
def train_step(images):
noise = tf.random.normal([BATCH_SIZE,noise_dim])
with tf.GradientTape() as gen_tape,tf.GradientTape() as disc_tape: # 梯度
real_out = discriminator(images,training=True)
gen_image = generator(noise,training=True)
fake_out = discriminator(gen_image,training=True)
gen_loss = generator_loss(fake_out)
disc_loss = discriminator_loss(real_out,fake_out)
gradient_gen = gen_tape.gradient(gen_loss,generator.trainable_variables)
gradient_disc = disc_tape.gradient(disc_loss,discriminator.trainable_variables)
generator_opt.apply_gradients(zip(gradient_gen,generator.trainable_variables))
discriminator_opt.apply_gradients(zip(gradient_disc,discriminator.trainable_variables))
def genrate_plot_image(gen_model,test_noise):
pre_images = gen_model(test_noise,training=False)
fig = plt.figure(figsize=(4,4))
for i in range(pre_images.shape[0]):
plt.subplot(4,4,i+1)
plt.imshow((pre_images[i,:,:,0]+1)/2,cmap="gray")
plt.axis("off")
plt.show()
def train(dataset,epochs):
for epoch in range(epochs):
for image_batch in dataset:
train_step(image_batch)
print(".",end="")
genrate_plot_image(generator,seed)
# 訓練模型
train(datasets,EPOCHS)
相關文章
- 卷積生成對抗網路(DCGAN)---生成手寫數字卷積
- GAN實戰筆記——第四章深度卷積生成對抗網路(DCGAN)筆記卷積
- 0901-生成對抗網路GAN的原理簡介
- 【深度學習理論】通俗理解生成對抗網路GAN深度學習
- 解讀生成對抗網路(GAN) 之U-GAN-IT
- 萬字綜述之生成對抗網路(GAN)
- [深度學習]生成對抗網路的實踐例子深度學習
- 實戰生成對抗網路[1]:簡介
- 【機器學習】李宏毅——生成式對抗網路GAN機器學習
- 實戰生成對抗網路[2]:生成手寫數字
- 第六週:生成式對抗網路
- 海量案例!生成對抗網路(GAN)的18個絕妙應用
- LSGAN:最小二乘生成對抗網路
- 如何應用TFGAN快速實踐生成對抗網路?
- GAN實戰筆記——第七章半監督生成對抗網路(SGAN)筆記
- 白話生成對抗網路 GAN,50 行程式碼玩轉 GAN 模型!【附原始碼】行程模型原始碼
- 生成對抗網路的進步多大,請看此文
- 一文入門人工智慧的掌上明珠:生成對抗網路(GAN)人工智慧
- GAN實戰筆記——第六章漸進式增長生成對抗網路(PGGAN)筆記
- 帶自注意力機制的生成對抗網路,實現效果怎樣?
- 訓練生成對抗網路的一些技巧和陷阱
- 生成對抗網路綜述:從架構到訓練技巧架構
- 【生成對抗網路學習 其一】經典GAN與其存在的問題和相關改進
- 吳恩達Deeplearning.ai國慶節上新:生成對抗網路(GAN)專項課程吳恩達AI
- 生成對抗網路,AI將圖片轉成漫畫風格AI
- 對抗網路學習記錄
- 【生成對抗網路學習 其三】BiGAN論文閱讀筆記及其原理理解筆記
- 獨家 | GAN大盤點,聊聊這些年的生成對抗網路 : LSGAN, WGAN, CGAN, infoGAN, EBGAN, BEGAN, VAE
- 理解生成對抗網路,一步一步推理得到GANs(二)
- 理解生成對抗網路,一步一步推理得到GANs(一)
- 極端影像壓縮的生成對抗網路,可生成低位元速率的高質量影像
- 極端影象壓縮的生成對抗網路,可生成低位元速率的高質量影象
- GAN網路之入門教程(三)之DCGAN原理
- 送書 | AI插畫師:如何用基於PyTorch的生成對抗網路生成動漫頭像?AIPyTorch
- 醫療領域:合成資料、生成對抗網路、數字孿生的應用
- dl4j-gans: Deeplearning4j生成對抗網路GNA的示例原始碼原始碼
- 卷積神經網路的原理及Python實現卷積神經網路Python
- 谷歌獲批GAN專利,一整套對抗訓練網路被收入囊中谷歌