首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >BERT蒙面语言模型问题

BERT蒙面语言模型问题
EN

Data Science用户
提问于 2021-03-28 15:04:26
回答 1查看 69关注 0票数 0

我从互联网上读到了伯特的故事,从我的理解来看,伯特预训的蒙面语言模型是为了让伯特学会从所给出的上下文中猜出一个“蒙面”字。对于最接近原始掩码嵌入的输出嵌入,损失函数将是最低的。难道使用这种丢失函数并不能保证BERT会输出带有上下文的单词嵌入,而是能够输出最接近原始掩码嵌入的嵌入,而不需要相关的上下文?

谢谢。

EN

回答 1

Data Science用户

回答已采纳

发布于 2021-03-31 09:01:04

在这种情况下,掩蔽意味着用一个特殊的[MASK]令牌替换令牌。网络没有原始令牌的信息,只有这样,它才能通过查看上下文来潜在地弄清楚它是什么。

确保模型学到有意义的东西的不是损失函数,而是不允许您建议的解决办法的架构设计。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/92269

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档