逆强化学习是利用专家轨迹学习奖励函数。目前最成功的方法是最大熵逆强化学习。但在这一点上,你需要一个基于模型的强化学习。但世界上大多数实际问题都是无模型的,很难计算出状态转移概率。那么,我们如何在现实问题中使用这种逆强化学习呢?
发布于 2018-04-03 21:17:10
我认为这一领域已经从那篇论文中走了出来。有一种趋势是使用专家提供的数据来“前提”代理方或直接从数据中提取策略。你可以搜索模仿学习或行为克隆。其中一些算法:生成性对抗性学习、匕首和深Q-从示范中学习。AlphaGo还使用监督学习来获得一个好的策略,然后才能在RL环境中接受培训。因此,与尝试从数据中恢复复杂的奖励函数不同,您可以使用上述方法获得一个好的策略,或者将代理的参数初始化到更有希望的方向。希望这能有所帮助!
https://datascience.stackexchange.com/questions/29816
相似问题