首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用堆叠式LSTM总是比单一LSTM好吗?

使用堆叠式LSTM总是比单一LSTM好吗?
EN

Data Science用户
提问于 2019-03-25 18:42:24
回答 2查看 3.7K关注 0票数 1

我目前正在学习LSTM和RNN。

我遇到了几个概念,比如多维LSTM堆叠式LSTM

我使用了堆叠式LSTM,它给了我一个比单一LSTM更好的性能。根据我的理解,如果我增加LSTM的深度,隐藏单位的数量也会增加。意思是太合适了,对吧?那为什么我会得到更好的结果?

注:我曾使用过BatchNormDropout在每堆LSTM之后

EN

回答 2

Data Science用户

发布于 2021-11-03 10:11:34

通常,您确实可以考虑在神经网络中添加更多的层和批规范/退出,这是分别控制模型偏差和方差的一种方法。然而,通过堆叠更多的层来增加方差并不总是意味着您的模型过合适。

要诊断你实际上是过度适应,你应该看到你的训练损失远低于你的验证损失(下图)。

但通常情况下,你应该把训练和验证损失曲线之间的“差距”降到最小。这一差距,也就是泛化差距,在你的情况下似乎正在被最小化,增加更多的层(见下面的理想)。这是绝对公平的。

票数 1
EN

Data Science用户

发布于 2019-06-10 15:42:59

来自https://machinelearningmastery.com/stacked-long-short-term-memory-networks/

“叠加LSTM隐藏层可以使模型更深入,更准确地将其描述为一种深度学习技术……附加的隐藏层被理解为重新组合了以前层的学习表示,并在高抽象级别上创建了新的表示形式。例如,从线条到形状到对象……足够大的单层多层Perceptron可以用来近似大多数功能。增加网络的深度提供了另一种解决方案,需要更少的神经元和更快的训练。最终,增加深度是一种代表性优化。”

在神经网络中增加层/隐单元的数量并不一定会导致过度拟合。太少会导致低训练和测试准确性;太多将导致高训练精度,但测试精度低(过度拟合)。在中间的某个地方,会有适当数量的隐藏层和单位来解决这个问题。一些复杂的问题,如NLP,需要许多堆叠隐藏的LSTM层http://ruder.io/deep-learning-nlp-best-practices/

这个线程可能有用:https://ai.stackexchange.com/questions/3156/how-to-select-number-of-hidden-layers-and-number-of-memory-cells-in-an-lstm

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/47969

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档