通常反向传播神经网络存在着梯度消失的问题。我发现卷积神经网络(CNN)有些如何摆脱这个消失的梯度问题(为什么?)
另外,在一些论文中,还讨论了CNN的一些预培训方法。有人能给我解释一下吗?
(1) the resons for pretraining in CNN and
(2) what are the problems/limitations with CNN?
(3) any relavent papers talking about the limitation of CNN?提前谢谢。
发布于 2014-10-17 14:35:01
https://stackoverflow.com/questions/26423668
复制相似问题