首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >伯特微调

伯特微调
EN

Stack Overflow用户
提问于 2020-02-26 16:16:03
回答 2查看 336关注 0票数 2

我试图建立我的回答问题的模型,基于BERT und不理解微调的含义。我是否理解它是正确的,它就像对特定领域的适应?如果我想把它和维基百科的语料库结合起来,我只需要在我的网络中整合一个没有改变的预先训练过的模型?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2020-02-28 05:59:48

微调是采用(精炼)预先训练的伯特模型来做两件事:

  1. 域名
  2. 任务(例如分类、实体提取等)。

您可以使用预先培训过的模型作为-是在一开始,如果性能足够,微调您的用例可能是不需要的。

票数 2
EN

Stack Overflow用户

发布于 2020-08-27 12:41:45

细化更像是对下游任务采用预先训练的模型。然而,最近的最先进的证明,细化对QA任务没有多大帮助。还请参见下面的帖子

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/60418179

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档