ELMo、BERT和GloVe在单词表征上有什么不同?它们执行单词嵌入任务的差异有多大?哪一个更好,每一个与其他相比有什么优势和劣势?
发布于 2021-10-16 03:07:00
这是一个大问题。
我将集中讨论单词表示。
ELMo,BERT和GloVe可以分为两大组。GloVe是非上下文词嵌入,ElMo,BERT是上下文词嵌入。
第二组又可分为单向模型(ELMo)和双向模型(BERT)。
首先,我们可以尝试理解4个术语:非上下文/上下文词嵌入和单向/双向模型。
之后,我们可以更深入地了解其他差异。
https://stackoverflow.com/questions/65565873
复制相似问题