首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >对于HMM和神经网络,“时代”有不同的含义吗?

对于HMM和神经网络,“时代”有不同的含义吗?
EN

Stack Overflow用户
提问于 2017-05-18 12:33:43
回答 1查看 135关注 0票数 0

我正在用隐马尔可夫模型构建一个带有N样本语句的语音到文本系统,用于重新估计。在神经网络的背景下,我理解时代的概念是指一个完整的训练周期。我认为这意味着“向相同的数据提供相同的数据,每次更新具有不同权重和偏差的网络”--如果我错了,请纠正我。

同样的逻辑在执行相同句子的HMMs的重估(即训练)时工作吗?换句话说,如果我有N个句子,我是否可以重复输入样本10次,以生成10 * N样本。这是否意味着我将在HMMs上执行10个时代?此外,这是否有助于取得更好的结果?

论文中,我得到的印象是,HMM中的时代指的是一个时间单位:

计数表示由加速度计为特定时间单位(历元)(例如1至60秒)产生的特定于设备的数字数量。

如果不是一个时间单位,至少听起来是不同的。最后,我想知道:

  • 在HMM中什么是时代?
  • 它与神经网络时代有何不同?
  • 考虑到划时代的定义为训练周期,多个历元是否会改善HMMs的重新估计?
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-05-19 19:29:36

在HMM中什么是时代?

与神经网络一样,对整个数据集进行一轮处理。

它与神经网络时代有何不同?

除了“时代”一词并没有被广泛用于HMM之外,没有什么不同之处。人们称之为“迭代”。

从本文中,我得出的印象是,在HMMs的上下文中,时代指的是一个时间单位。

本文中的"Epoch“与隐马尔可夫上下文完全无关,它是一种独立的特定于论文的概念,你不应该从论文中概括这个词的用法。

考虑到划时代的定义为训练周期,多个历元是否会改善HMMs的重新估计?

对于神经网络和隐马尔可夫模型,都没有这样的东西,如多个时代,改进的重新估计。每一个时代都会将训练精度提高到一定程度,然后发生过度训练,验证错误开始增加,训练误差继续为零。有一个最优的迭代次数,通常取决于模型架构。HMM模型通常参数较少,训练过度的可能性较小,因此额外的时间并不会有那么大的危害。尽管如此,仍有许多时代需要你最优地执行。

在语音识别中,通常是Baum算法的6-7次迭代.更少的时代给你提供了不那么精确的模型,更多的时代可能导致过度训练,或者根本没有改善任何东西。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44047897

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档