我有以下代码:
from pybrain.datasets import SupervisedDataSet
from pybrain.supervised.trainers import BackpropTrainer
from pybrain.tools.shortcuts import buildNetwork
from pybrain.structure import TanhLayer
ds = SupervisedDataSet(2, 1)
ds.addSample((0, 0), (0,))
ds.addSample((0, 1), (1,))
ds.addSample((1, 0), (1,))
ds.addSample((1, 1), (0,))
net = buildNetwork(2, 3, 1, bias=True, hiddenclass=TanhLayer)
trainer = BackpropTrainer(net, ds)
trainer.trainUntilConvergence()
print '0,0 : {0}'.format(net.activate([0, 0]))
print '0,1 : {0}'.format(net.activate([0, 1]))
print '1,0 : {0}'.format(net.activate([1, 0]))
print '1,1 : {0}'.format(net.activate([1, 1]))我得到的输出总是收敛到与异或不同的地方。例如,我得到了一个输出:
0,0 : [ 1.33865922]
0,1 : [ 0.78127428]
1,0 : [ 0.8318278]
1,1 : [ 0.48067]发布于 2014-12-26 23:46:18
成功地解决了它。与您共享解决方案,因此您也可以使用它:
我没有使用trainer.trainUntilCovergence(),而是调用了trainer.train() K倍(我使用了K=1000),它起作用了
对我代码的修改:
#trainer.trainUntilConvergence()
for i in xrange(1000):
trainer.train()产出的变化:
0,0 : [ 0.00347109]
0,1 : [ 0.99712772]
1,0 : [ 0.99725655]
1,1 : [ 0.00121727]注意,当我没有使用足够的迭代(例如100)时,我得到了错误的输出。
添加一个重要的@dnth注释:
trainUntilConvergence()不起作用的原因是这种方法将您的数据分为75%的培训和25%的验证。因为对于XOR问题,只有4个样本数据,因此已经提取了1个数据作为验证数据,并且只对其余的3个数据进行了培训。因此,网络找到的解决方案很差,因为所有XOR的培训数据都不完整。
(验证==测试集)
https://stackoverflow.com/questions/27663044
复制相似问题