首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >解码器中嵌入层的输出(神经机器翻译)

解码器中嵌入层的输出(神经机器翻译)
EN

Stack Overflow用户
提问于 2020-08-06 04:21:36
回答 1查看 38关注 0票数 0

我正在尝试使用下面的教程https://www.tensorflow.org/tutorials/text/nmt_with_attention来理解注意力模型

在解码器部分是这样写的:

代码语言:javascript
复制
# x shape after passing through embedding == (batch_size, 1, embedding_dim)
    x = self.embedding(x)

我不明白为什么嵌入输出是(batch_size,1,embedding_dim)。根据文档(https://www.tensorflow.org/api_docs/python/tf/keras/layers/Embedding),输出必须是(batch_size,input_length,output_dim),这在教程的情况下是(batch_size,max_len,embedding_dim)。

问:为什么secode dimension = 1,而不是max_len?

EN

回答 1

Stack Overflow用户

发布于 2020-08-06 08:38:45

本教程中的模型是一个序列,用于在每个步骤中接收整个文本中的一个单词的sequence.so。这就是(batch_size,max_len,embedding_dim)中的大小等于1的原因。每个单词都由一个大小为embedding_dim的向量表示

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63272961

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档