也许更好地向计算机科学或交叉验证提出一个问题?
我正在开始一些关于任意长度序列的LSTM工作,这是我正在经历的一个问题,我还没有看到解决的问题,就是我的网络似乎开发了几个线性增长的参数(也许是作为时间的度量?)
这方面的明显问题是,训练数据被限制在长度为x的序列上,因此网络会合理地将这个参数增长到直到x。但在那之后,网络最终会产生南,因为价值观变得太极端了。
有没有人读过任何关于随着时间的推移国家稳定正常化的文章?
如有任何建议,将不胜感激。
发布于 2016-08-31 22:09:51
想法1:梯度裁剪通常应用于RNN中。下面是实现的一个示例:如何在张量流中有效地应用梯度剪裁?
想法2:使用经常性批处理规范化(arXiv) (批归一化)
下面是批量规范化的LSTM单元的Tensorflow实现:https://github.com/OlavHN/bnlstm/blob/master/lstm.py
这个实现在本文中解释:用于Tensorflow的批量归一化LSTM
https://stackoverflow.com/questions/35323023
复制相似问题