我真的很困惑,为什么我们需要‘训练word2vec’,而word2vec本身被认为是‘预培训’?我搜索了word2vec预训练的嵌入,认为我可以得到一个映射表,直接将我的词汇表映射到预先训练的嵌入,但没有效果。相反,我只发现我们是如何训练自己的:
Word2Vec(sentences=common_texts, vector_size=100, window=5, min_count=1, workers=4)但我很困惑: word2vec不是已经接受过预科培训了吗?我们为什么要重新“训练”它呢?如果它是预先训练的,那么我们用新的“培训”在模型中修改什么(或者具体地说,哪一部分)?我们现在的“培训”与“培训前”有什么不同?蒂娅。
哪种类型的词嵌入是真正的“预训练”,我们可以仅仅使用模型“字”,并得到它相应的嵌入?
发布于 2022-04-15 10:55:29
word2vec是一种训练单词嵌入的算法:给定一个原始文本,它为词汇表中的每个单词计算一个单词向量。这些向量可用于其他应用,因此它们形成了一个预先训练的模型。
重要的是要理解模型(嵌入)在很大程度上取决于它们所训练的数据。一些简单的应用程序可以简单地使用一般的预训练模型,但是一些特定的应用程序(例如,特定于技术领域)需要对嵌入进行一些定制数据的培训。
https://datascience.stackexchange.com/questions/110006
复制相似问题