我正在使用BERT单词嵌入3个标签的句子分类任务。我正在使用谷歌Colab进行编码。我的问题是,由于我每次重启内核时都必须执行嵌入部分,有没有办法在生成后保存这些单词嵌入?因为,生成这些嵌入需要花费大量的时间。 我用来生成BERT单词嵌入的代码是- [get_features(text_list[i]) for text_list[i] in text_list] 这里,gen_features是一个函数,它为我的列表text_list中的每个i返回单词嵌入。 我读到将嵌入转换为颠簸张量,然后使用np.save可以做到这一点。但实际上我不知道如何编码。 请帮帮忙。
我经历过几个链接,但不能够理解CBOW and Skip Gram是如何从零开始训练的?Word2Vec - CBOW和Skip-克Example or Application where CBOW would be preferable choice but not Skip-gram and vice versa.