首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么我们需要‘训练word2vec’,而word2vec本身被说是‘预培训’?

为什么我们需要‘训练word2vec’,而word2vec本身被说是‘预培训’?
EN

Data Science用户
提问于 2022-04-14 11:30:58
回答 1查看 176关注 0票数 1

我真的很困惑,为什么我们需要‘训练word2vec’,而word2vec本身被认为是‘预培训’?我搜索了word2vec预训练的嵌入,认为我可以得到一个映射表,直接将我的词汇表映射到预先训练的嵌入,但没有效果。相反,我只发现我们是如何训练自己的:

代码语言:javascript
复制
Word2Vec(sentences=common_texts, vector_size=100, window=5, min_count=1, workers=4)

但我很困惑: word2vec不是已经接受过预科培训了吗?我们为什么要重新“训练”它呢?如果它是预先训练的,那么我们用新的“培训”在模型中修改什么(或者具体地说,哪一部分)?我们现在的“培训”与“培训前”有什么不同?蒂娅。

哪种类型的词嵌入是真正的“预训练”,我们可以仅仅使用模型“字”,并得到它相应的嵌入?

EN

回答 1

Data Science用户

回答已采纳

发布于 2022-04-15 10:55:29

word2vec是一种训练单词嵌入的算法:给定一个原始文本,它为词汇表中的每个单词计算一个单词向量。这些向量可用于其他应用,因此它们形成了一个预先训练的模型。

重要的是要理解模型(嵌入)在很大程度上取决于它们所训练的数据。一些简单的应用程序可以简单地使用一般的预训练模型,但是一些特定的应用程序(例如,特定于技术领域)需要对嵌入进行一些定制数据的培训。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/110006

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档