我正在学习Coursera的机器学习课程,我刚刚接受了一次询问。
Multiple classifier making a xor classifier
在这张图片上,我们可以看到,为了制作xor分类器,我们构建了其他较小的分类器,这些分类器使用线性可分离门进行训练。
因此,每个分类器都有一个定义的任务(例如AND、OR等),并且网络必须针对此任务进行训练。
但在更大的神经网络中,不可能为每个神经元(或分类器)定义一个任务。
所以我的问题是:这是反向传播算法的任务吗(除了用于更新权重的事实之外)?
发布于 2020-05-16 20:32:08
如果有人想知道同样的事情,是的,就是这样。backprop算法使得每个神经元(或分类器)的“更小的线性可解”。
https://stackoverflow.com/questions/61822494
复制相似问题