首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么鉴别器的准确度下降到0%,并且围绕着这个问题有一个修正吗?

为什么鉴别器的准确度下降到0%,并且围绕着这个问题有一个修正吗?
EN

Data Science用户
提问于 2019-07-23 01:09:44
回答 2查看 1.2K关注 0票数 0

我正在pokemon数据集https://www.kaggle.com/kvpratama/pokemon-images-dataset上训练一个Vanilla- GAN (或原始的GAN 2016),对于很少的历次,判别器比实际例子有100%的准确率,但是当历元通过时,它会下降到0%左右,大约4-5次。

然而,一个有趣的效果是,当我把批次从32件增加到64件时,这种效果似乎有延迟效应。也就是说,它大约在400-500个世纪。

请帮帮忙。

EN

回答 2

Data Science用户

回答已采纳

发布于 2019-07-23 05:56:58

不久前我想出了我的答案。所以现在开始..。

  1. 确保您的培训数据已规范化。这就是导致鉴别器准确度下降的原因。
  2. 你需要减少你的辍学,因为它会造成严重的偏见,如果做得不有效。
  3. 删除您的鉴别器中任何不必要的层,因为它们可能会导致过度匹配。
  4. 使用批处理规范化。
  5. 在你的发电机里引入辍学。
票数 1
EN

Data Science用户

发布于 2019-07-23 03:37:53

甄别器一次被训练两次,用真实的图像和发生器的假输出。因此,err_{real}+err_{fake}被反向传播。生成器通过欺骗鉴别器来训练,从而将其归类为真实的。

然而,需要注意的是,他们并不是一次就所有数据接受培训,而是按批量进行培训。这意味着,从直觉上说,batch_size越大,判别器越好(特别是在开始时),因为它同时被训练成更真实的图像。因此,生成器需要更多的时间来欺骗鉴别器,从而减缓了本已困难的收敛速度。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/56193

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档