长期的短期记忆网络是相当复杂的,我还没有把我的头脑完全围绕在它们上面。
在我看来,LSTMs在时间序列预测方面的巨大收获在于缺乏滞后特征的必要性:它自己决定哪些滞后信息实际上是重要的,并将其记在下一步(S)。
在培训LSTM时,是否仍然应该创建滞后的特性作为时间步骤的输入?就像最后一个时间步骤的输出,或者是前面时间步骤的方法和中间值,对于特定的类、距离、差异等等?
发布于 2019-04-06 09:28:50
博士
不,在使用LSTM时不必包含滞后变量。
在LSTM体系结构中,你的神经元不仅有一个输入门和一个输出门,而且还有一个遗忘门,使它们能够在多个时间间隔内记住值。因此,您不必在功能集中包含任何滞后变量,因为您可以期望LSTM自己发现相关的时间依赖关系。这不仅适用于LSTM,也适用于其他RNN体系结构。
发布于 2021-10-28 19:55:34
遗憾的是,LSTM并不完美,包含滞后变量确实可以显著改善模型性能,如这篇博客文章所示。在各种Kaggle竞赛中也观察到了这一点。
我会让比我更有见识的人来解释为什么会是这样。
https://datascience.stackexchange.com/questions/48717
复制相似问题