众所周知,1层网络不能预测xor函数,因为它不是线性可分的。我试图创建一个2层网络,使用逻辑sigmoid函数和backprop来预测xor。我的网络在输入层有2个神经元(1个偏置),隐藏层有2个神经元和1个偏置,输出神经元1个。令我惊讶的是,这是不可能的。如果我添加了一个新的层,所以我有一个具有输入(2+1)、hidden1 (2+1)、hidden2 (2+1)和输出的3层网络,那么它就能工作。另外,如果我保持一个2层网络,但是我把隐藏层的大小增加到4个神经元+1的偏置,它也会收敛。有什么原因可以解释为什么有3个或更少隐藏神经元的2层网络不能模拟xor函数吗?
发布于 2017-07-29 08:05:27
发布于 2016-05-04 15:33:35
一个包含两个神经元的隐层网络应该足以分离异或问题。第一个神经元充当OR门,第二个神经元充当非和门。把这两个神经元加起来,如果它们超过阈值,它就是阳性的。你可以通过调整阈值的偏差来使用线性决策神经元。对于0/1输入,非和门的输入应为负值。这张图片应该更清楚,连接上的值是重量,神经元中的值是偏倚的负数。例如,对于input1=0 / input2=1,隐藏神经元1将是sign function(0*1 + 1*1 - 0.5) == 1,这意味着它通过OR门。决策函数充当0/1决策(或者只是符号函数在这种情况下也起作用)。

图片感谢“Abhranil博客”
发布于 2016-05-04 21:18:20
如果您使用的是基本梯度下降(没有其他优化,例如动量)和最小网络2输入、2个隐藏神经元、1个输出神经元,那么肯定可以训练它学习XOR,但它可能非常棘手和不可靠。
https://datascience.stackexchange.com/questions/11589
复制相似问题