我正在pokemon数据集https://www.kaggle.com/kvpratama/pokemon-images-dataset上训练一个Vanilla- GAN (或原始的GAN 2016),对于很少的历次,判别器比实际例子有100%的准确率,但是当历元通过时,它会下降到0%左右,大约4-5次。
然而,一个有趣的效果是,当我把批次从32件增加到64件时,这种效果似乎有延迟效应。也就是说,它大约在400-500个世纪。
请帮帮忙。
发布于 2019-07-23 05:56:58
不久前我想出了我的答案。所以现在开始..。
发布于 2019-07-23 03:37:53
甄别器一次被训练两次,用真实的图像和发生器的假输出。因此,err_{real}+err_{fake}被反向传播。生成器通过欺骗鉴别器来训练,从而将其归类为真实的。
然而,需要注意的是,他们并不是一次就所有数据接受培训,而是按批量进行培训。这意味着,从直觉上说,batch_size越大,判别器越好(特别是在开始时),因为它同时被训练成更真实的图像。因此,生成器需要更多的时间来欺骗鉴别器,从而减缓了本已困难的收敛速度。
https://datascience.stackexchange.com/questions/56193
复制相似问题