首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在ChatGPT中,强化-从人的学习反馈和数据重新标签之间的区别是什么?

在ChatGPT中,强化-从人的学习反馈和数据重新标签之间的区别是什么?
EN

Data Science用户
提问于 2023-01-04 02:16:19
回答 1查看 191关注 0票数 1
EN

回答 1

Data Science用户

发布于 2023-01-04 14:20:35

ChatGPT是一个生成模型,它生成令牌序列。在分类问题的意义上没有标签。因此,在ChatGPT的上下文中,使用奖励信号重新标记是没有意义的。

另一方面,RLHF用于使模型倾向于生成所需的序列。

票数 2
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/117491

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档