首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >微调特定领域的Bert (无监督)

微调特定领域的Bert (无监督)
EN

Stack Overflow用户
提问于 2020-11-06 17:54:41
回答 1查看 736关注 0票数 5

我想在与特定领域(在我的例子中与工程相关)相关的文本上对BERT进行微调。训练应该是无人监督的,因为我没有任何标签或任何东西。这个是可能的吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-11-06 18:12:07

实际上,您想要的是继续对来自特定领域的文本进行预训练BERT。在这种情况下,您要做的是继续将模型训练为掩蔽语言模型,但使用的是特定于领域的数据。

您可以使用Huggingface的变形金刚中的run_mlm.py脚本。

票数 7
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64712375

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档