在tf 2.0 DC Gan示例中
tensorflow 2.0指南
,有两个梯度磁带。请参见下面的内容。
@tf.function
def train_step(images):
noise = tf.random.normal([BATCH_SIZE, noise_dim])
with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape:
generated_images = generator(noise, training=True)
real_output = discriminator(images, training=True)
fake_output = discriminator(generated_images, training=True)
gen_loss = generator_loss(fake_output)
disc_loss = discriminator_loss(real_output, fake_output)
gradients_of_generator = gen_tape.gradient(gen_loss, generator.trainable_variables)
gradients_of_discriminator = disc_tape.gradient(disc_loss, discriminator.trainable_variables)
generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.trainable_variables))
discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.trainable_variables))正如你可以清楚地看到,有两个梯度磁带。我想知道使用一盘磁带会有什么不同,并将其更改为以下内容
@tf.function
def train_step(images):
noise = tf.random.normal([BATCH_SIZE, noise_dim])
with tf.GradientTape() as tape:
generated_images = generator(noise, training=True)
real_output = discriminator(images, training=True)
fake_output = discriminator(generated_images, training=True)
gen_loss = generator_loss(fake_output)
disc_loss = discriminator_loss(real_output, fake_output)
gradients_of_generator = tape.gradient(gen_loss, generator.trainable_variables)
gradients_of_discriminator = tape.gradient(disc_loss, discriminator.trainable_variables)
generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.trainable_variables))
discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.trainable_variables))这会给我以下错误:
RuntimeError: GradientTape.gradient can only be called once on non-persistent tapes.我想知道为什么需要两盘磁带。到目前为止,关于tf2.0API的文档还很少。有没有人能给我解释或者给我指给我正确的文档/教程?
发布于 2019-05-10 16:44:10
从
文档
的
默认情况下,只要调用GradientTape.gradient()方法,就会释放GradientTape持有的资源。要在同一计算中计算多个渐变,请创建一个持久的渐变带。这允许在对磁带对象进行垃圾回收时释放资源时多次调用gradient()方法。
可以使用以下命令创建持久渐变
并且可以/应该使用以下命令手动删除
(致谢@zwep,@Crispy13)。
发布于 2019-05-10 17:17:09
技术原因是
被调用两次,这在(非持久性)磁带上是不允许的。
然而,在目前的情况下,潜在的原因是GANS的训练通常是通过交替优化生成器和鉴别器来完成的。每种优化都有自己的优化器,这些优化器通常在不同的变量上运行,现在即使是最小化的损失也是不同的(
和
在您的代码中)。
所以你最终得到了两个梯度,因为训练GANs本质上是以交替的方式优化两个不同的(对抗性)问题。
https://stackoverflow.com/questions/56072634
复制相似问题