我的几个实验伙伴一直在玩交叉熵强化学习。从我能从它们收集到的所有信息和快速的互联网搜索来看,交叉熵方法似乎与遗传算法几乎完全相同。有人能向我解释一下这两种技术之间的真正区别是如果一种技术真的存在吗?
发布于 2015-07-03 17:51:21
在这种背景下,交叉熵是遗传算法的一种特殊形式.这比说“遗传算法”要具体得多,因为它涵盖了大量不同的算法。
简单地说:
遗传算法是一类算法/一种优化方法。
交叉熵是一种特殊的遗传算法.
发布于 2019-06-09 10:13:11
这两种方法都适用于经过几代人改进的群体。关键的区别在于人口是如何表示的。
遗传算法( Genetic Algorithms,GAs)对群体中的个体起作用,例如通过突变。您可以枚举每个个体的祖先。
交叉熵方法 (CEM)将种群表示为概率分布.个人是从这一分布中提取出来的。从最佳值( 2% )重新估计分布参数,丢弃其它98%的分布参数。
从技术上讲,“最佳2%”也是一种概率分布。你可以用它画一个很大的样本,但它很贵。所以你试着用简单的分布来近似“2%的分布”。交叉熵测量两个发行版之间的差异,您希望将其最小化。这通常比听起来更简单:如果你的分布是高斯的,你只需估计一个新的均值和(协)方差,从最好的2%。
实际考虑:
参考文献:
https://stackoverflow.com/questions/31208655
复制相似问题