RNN/LSTM隐藏状态背后的直觉是什么?它们与隐马尔可夫模型( HMM )的隐藏状态相似吗?
发布于 2019-11-11 21:24:24
我个人认为它们不能与马尔可夫模型的隐藏状态相媲美。一个关键的区别是,在HMM中,您可以解释给定的状态对某人意味着什么,而在RNN/LSTM中,您不能解释给定的状态。
比较RNN/LSTM的隐藏状态的最接近的方法是将它看作完全连接的神经网络的中间层的输出,但对于时间序列数据则是这样。
隐藏的状态越大,它就能保留更多的过去记忆。
发布于 2021-12-15 18:48:03
简单地说,隐藏状态可以描述为递归网络的工作内存,该网络携带来自前几个时间步骤/事件的信息。这种工作记忆无法控制地覆盖自己的每一步,并且存在于RNNs和LSTM中。
鉴于后者,我欣赏与马尔可夫框架的类比--从更广泛的意义上讲。可以随意查看我对类似问题的回答,以获得更多关于序列模型中隐藏和单元状态体系结构的信息。
https://datascience.stackexchange.com/questions/63021
复制相似问题