首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Seq到Seq模型培训

Seq到Seq模型培训
EN

Stack Overflow用户
提问于 2019-10-20 06:13:30
回答 1查看 58关注 0票数 0

我有几个问题:

  1. 在seq到seq模型中具有不同的输入长度,如果不使用注意掩码,RNN最终可能会计算填充元素的隐藏状态值吗?因此,这意味着注意掩码是强制性的,否则我的输出将是错误的?
  2. 如何处理不同长度的标签,那么,假设我已经通过批量传递它。现在我不希望我的填充元素对我的损失产生影响,所以我如何忽视这一点呢?
EN

回答 1

Stack Overflow用户

发布于 2019-10-20 07:05:31

  1. 不,不一定。RNN获取时间序列,每次计算隐藏状态。可以强制RNN停止,而不计算填充元素的隐藏状态值。

为此,您可以使用动态RNN。在这里阅读:What is a dynamic RNN in TensorFlow?

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58470497

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档