首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么fairseq中的非自回归变换模型需要prev_output_tokens输入?

为什么fairseq中的非自回归变换模型需要prev_output_tokens输入?
EN

Data Science用户
提问于 2020-08-23 08:35:23
回答 1查看 195关注 0票数 0

整流罩包括一个非自回归转换器的实现(据我所理解),这意味着整个输出序列是在一个前向运行中生成的(与每个前向运行预测输入和先前预测的令牌的自回归模型相反)。

但是,从代码中可以看出,模型仍然期望前面的令牌作为输入:

代码语言:javascript
复制
def forward(self, src_tokens, src_lengths, prev_output_tokens, tgt_tokens, **kwargs)

https://github.com/pytorch/fairseq/blob/master/fairseq/models/nat/nonautoregressive_transformer.py#L78

EN

回答 1

Data Science用户

发布于 2020-08-23 14:46:43

它与基类forward方法的签名保持一致,因此允许使用它来代替任何其他自回归转换器,但实际上没有使用它。同样的情况发生在模型解码器中。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/80682

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档