首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用领域文本预训练BERT/RoBERTa语言模型,估计需要多长时间?哪个更快?

使用领域文本预训练BERT/RoBERTa语言模型,估计需要多长时间?哪个更快?
EN

Stack Overflow用户
提问于 2020-02-09 21:33:22
回答 1查看 473关注 0票数 1

我想使用领域语料库(情感相关文本)预训练BERT和RoBERTa传销。使用50k~100k单词需要多长时间。由于RoBERTa没有经过训练来预测下一个句子的目标,比BERT少一个训练目标,并且具有更大的小批量和学习率,我假设RoBERTa会快得多?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-02-10 16:49:19

10万字对于训练像BERT或RoBERTa这样的大型模型来说太少了。the RoBERTa paper的主要说法是,BERT实际上训练不足。BERT使用16 GB的文本数据进行训练,而RoBERTa使用160 GB的纯文本数据。

对于您描述的特定于领域的小数据,您可以尝试对现有模型进行微调。在这种情况下,我会选择RoBERTa,因为它似乎经过了更好的预训练,没有下一句话的目标(这是预处理数据的麻烦),它使用SentencePiece进行标记化,这允许无损去标记化。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/60137162

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档