首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Transformer -注意是您所需要的-编码器-解码器交叉注意

Transformer -注意是您所需要的-编码器-解码器交叉注意
EN

Stack Overflow用户
提问于 2019-02-04 12:50:43
回答 1查看 264关注 0票数 4

我的理解是,每个编码器块都接受前一个编码器的输出,并且输出是序列(也称为句子)的参与表示(Z)。我的问题是,最后一个编码块是如何从Z中产生K,V的(用于解码器的编解码注意力自动分层)

我们只是简单地从最后一个编码层获取Wk和Wv吗?

http://jalammar.github.io/illustrated-transformer/

EN

回答 1

Stack Overflow用户

发布于 2020-12-21 11:52:38

我认为对于解码器的所有第一个(非掩蔽的)多头注意力层,$K =V= Z$。但在计算该子层的注意力之前,$K$和$V$被投影到具有单独训练的参数矩阵$W_i^K$和$W_i^V$的不同空间。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54510289

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档