首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >BERT语句嵌入与LSA嵌入的差异

BERT语句嵌入与LSA嵌入的差异
EN

Stack Overflow用户
提问于 2020-03-03 02:08:23
回答 1查看 238关注 0票数 0

BERT即服务(https://github.com/hanxiao/bert-as-service)允许提取语句级嵌入。假设我有一个预先训练的LSA模型,它给了我一个300维词向量,当我试图比较两个句子的语义一致性时,我想知道在哪种情况下LSA模型会比BERT表现得更好?

我想不出为什么LSA在这个用例中会更好--因为LSA只是一大袋单词矩阵的压缩。

EN

回答 1

Stack Overflow用户

发布于 2020-03-03 17:03:48

BERT需要具有序列长度的二次记忆,并且仅在拆分句子对上进行训练。在处理非常长的句子时,这可能不太方便。

对于LSA,您只需要词袋向量,它在文档长度中确实是恒定大小的。对于非常长的文档,LSA可能仍然是更好的选择。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/60494370

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档