首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >用backPropagation逼近线性函数的前馈c#网络

用backPropagation逼近线性函数的前馈c#网络
EN

Stack Overflow用户
提问于 2017-06-09 20:02:39
回答 1查看 189关注 0票数 0

我正在学习"Accord.Neuro“前馈backPropagation网络,并使用c#中的backPropagation库(我使用了管理”动量“本身的ResilientBackpropagationLearning类)。

此时,我的问题是理解如何近似函数,特别是那些输入变量的线性组合(因此是最简单的)。其中一个例子是:3个变量-> y ( x1,x2,x3) =2*x1+ x2 +5* x3

我开始研究单个变量上的函数,然后用2,然后用3个变量,我设法得到了令人满意的结果。我设法调整了网络,取得了很好的效果。

-案例3投入:

  • 3输入
  • 1隐藏层,有15节
  • 1输出

训练集,在输入变量范围内随机生成,有100个例子。训练1000个时代(但也较少)。我可以得到小于0.001的网络错误和验证集上的平均百分比错误( 1-2% )。

  • 4输入
  • 1隐藏层,其中有25节
  • 1输出

在输入变量范围内随机生成的训练集,在500个训练实例中,我可以得到一个小于2.5的网络错误,在验证集上的平均百分比误差为25-30%。

我尝试过这么多的配置,结果都很糟糕。即使通过将示例数量增加到5000个,历元增加到100000个,隐藏节点增加到50个,我在验证集上也会出现一个平均百分比错误,这个百分比会提高,但只有20-25%。

为什么我变得这么穷?

这是我的程序的基本代码:ResilientBackpropagationLearning.htm

这是我的简单程序:

代码语言:javascript
复制
using Accord.Neuro;
using Accord.Neuro.Learning;
using System;

namespace ConsoleApp4_1
{
    class Program
    {
        struct struttura
        {
            public double INPUT1, INPUT2, INPUT3, INPUT4, OUTPUT1;
        }

        static void Main(string[] args)
        {
            bool needToStop = false;
            Random rr = new Random((int)DateTime.Now.Millisecond);

            int NE = 40, epoche = 50000, p;
            double ERRORE = 0.00001d;

            struttura[] EE = new struttura[NE];
            double error = 1; 
            double[][] input = new double[NE][];
            double[][] output = new double[NE][];
            for (int u = 0; u < NE; u++) input[u] = new double[4];
            for (int u = 0; u < NE; u++) output[u] = new double[1];


            for (p = 0; p < NE; p++)
            {
                EE[p].INPUT1 = rr.Next(1, 200);
                EE[p].INPUT2 = rr.Next(1, 100);
                EE[p].INPUT3 = rr.Next(1, 50);
                EE[p].INPUT4 = rr.Next(1, 150);

                EE[p].OUTPUT1 = 0.1d * EE[p].INPUT2 + (2.0d / 3) * EE[p].INPUT1 + (7.0d / 10) * EE[p].INPUT3 + (2.0d / 3) * EE[p].INPUT4;    //  278.3333333   
            }
            for (p = 0; p < NE; p++)
            {
                for (int u = 0; u < NE; u++) input[u][0] = EE[u].INPUT1 / 200;
                for (int u = 0; u < NE; u++) input[u][1] = EE[u].INPUT2 / 100;
                for (int u = 0; u < NE; u++) input[u][2] = EE[u].INPUT3 / 50;
                for (int u = 0; u < NE; u++) input[u][3] = EE[u].INPUT3 / 150;

                for (int u = 0; u < NE; u++) output[u][0] = EE[u].OUTPUT1 / 278.3333333;
            }

            // create neural network
            ActivationNetwork network = new ActivationNetwork(new SigmoidFunction(), 4, 8, 1);

            // create teacher
            var teacher = new ResilientBackpropagationLearning(network);   

            int i = 0;
            // loop
            while (!needToStop)
            {
                i++;
                // run epoch of learning procedure
                error = teacher.RunEpoch(input, output);
                // check error value to see if we need to stop
                if ((error < ERRORE) | (i == epoche)) needToStop = true;
                Console.WriteLine(i + "  " + error);
            }

            Console.WriteLine("Esempi per epoca: "+NE+"     epoca: " + i + "     error: " + error + "\n\n"); // bastano 408 epoche con NE = 40

            double[] test1 = new double[] { 30.0d / 200, 80.0d / 100, 23.0d / 50, 100.0d/150};
            double[] ris1 = network.Compute(test1);
            double[] ris1Atteso1 = new double[] { 110.7666667d };
            Console.WriteLine("a: " + (ris1[0] * 278.3333333d).ToString("") + "   " + ris1Atteso1[0]);

            double[] test2 = new double[] { 150.0d / 200, 40.0d / 100, 3.0d / 50, 40.0d/150};
            double[] ris2 = network.Compute(test2);
            double[] ris1Atteso2 = new double[] { 132.7666667d };
            Console.WriteLine("\na: " + (ris2[0] * 278.3333333d).ToString("") + "   " + ris1Atteso2[0]);

            double[] test3 = new double[] { 15.0d / 200, 30.0d / 100, 45.0d / 50, 146.0d/150};
            double[] ris3 = network.Compute(test3);
            double[] ris1Atteso3 = new double[] { 141,8333333d };
            Console.WriteLine("\na: " + (ris3[0] * 278.3333333d).ToString("") + "   " + ris1Atteso3[0]);

            double[] test4 = new double[] { 3.0d / 200, 60.0d / 100, 12.0d / 50, 70.0d/150};
            double[] ris4 = network.Compute(test4);
            double[] ris1Atteso4 = new double[] {63.0666667d};
            Console.WriteLine("\na: " + (ris4[0] * 278.3333333d).ToString("") + "   " + ris1Atteso4[0]);

            double[] test5 = new double[] { 50.0d / 200, 2.0d / 100, 44.0d / 50, 15.0d/150};
            double[] ris5 = network.Compute(test5);
            double[] ris1Atteso5 = new double[] { 74,333333d };
            Console.WriteLine("\na: " + (ris5[0] * 278.3333333d).ToString("") + "   " + ris1Atteso5[0]);

            double[] test6 = new double[] { 180.0d / 200, 95.0d / 100, 25.0d / 50, 70.0d/150 };
            double[] ris6 = network.Compute(test6);
            double[] ris1Atteso6 = new double[] { 193.6666667 };
            Console.WriteLine("\na: " + (ris6[0] * 278.3333333d).ToString("") + "   " + ris1Atteso6[0]);

            double[] test7 = new double[] { 22.0d / 200, 12.0d / 100, 2.0d / 50, 10.0d/150 };
            double[] ris7 = network.Compute(test7);
            double[] ris1Atteso7 = new double[] { 23.9333333d };
            Console.WriteLine("\na: " + (ris7[0] * 278.3333333d).ToString("") + "   " + ris1Atteso7[0]);

            double[] test8 = new double[] { 35.0d / 200, 5.0d / 100, 40.0d / 50, 120.0d/150 };
            double[] ris8 = network.Compute(test8);
            double[] ris1Atteso8 = new double[] { 131.8333333d };
            Console.WriteLine("\na: " + (ris8[0] * 278.3333333d).ToString("") + "   " + ris1Atteso8[0]);

            double[] test9 = new double[] { 115.0d / 200, 70.0d / 100, 50.0d / 50, 88.0d/150};
            double[] ris9 = network.Compute(test9);
            double[] ris1Atteso9 = new double[] { 177.3333333d };
            Console.WriteLine("\na: " + (ris9[0] * 278.3333333d).ToString("") + "   " + ris1Atteso9[0]);

            double[] test10 = new double[] { 18.0d / 200, 88.0d / 100, 1.0d / 50, 72.0d/150 };
            double[] ris10 = network.Compute(test10);
            double[] ris1Atteso10 = new double[] { 69.5d };
            Console.WriteLine("\na: " + (ris10[0] * 278.3333333d).ToString("") + "   " + ris1Atteso10[0]);

            double sum = Math.Abs(ris1[0] * 278.3333333d - ris1Atteso1[0])+ Math.Abs(ris2[0] * 278.3333333d - ris1Atteso2[0]) + Math.Abs(ris3[0] * 278.3333333d - ris1Atteso3[0]) + Math.Abs(ris4[0] * 278.3333333d - ris1Atteso4[0]) + Math.Abs(ris5[0] * 278.3333333d - ris1Atteso5[0]) 
                + Math.Abs(ris6[0] * 278.3333333d - ris1Atteso6[0]) + Math.Abs(ris7[0] * 278.3333333d - ris1Atteso7[0]) + Math.Abs(ris8[0] * 278.3333333d - ris1Atteso8[0]) + Math.Abs(ris9[0] * 278.3333333d - ris1Atteso9[0]) + Math.Abs(ris10[0] * 278.3333333d - ris1Atteso10[0]);

            double erroreMedio = sum / 10;

            double sumMedie = Math.Abs((ris1[0] * 278.3333d - ris1Atteso1[0]) / (ris1Atteso1[0]))
            + Math.Abs((ris2[0] * 278.3333d - ris1Atteso2[0]) / (ris1Atteso2[0]))
            + Math.Abs((ris3[0] * 278.3333d - ris1Atteso3[0]) / (ris1Atteso3[0]))
            + Math.Abs((ris4[0] * 278.3333d - ris1Atteso4[0]) / (ris1Atteso4[0]))
            + Math.Abs((ris5[0] * 278.3333d - ris1Atteso5[0]) / (ris1Atteso5[0]))
            + Math.Abs((ris6[0] * 278.3333d - ris1Atteso6[0]) / (ris1Atteso6[0]))
            + Math.Abs((ris7[0] * 278.3333d - ris1Atteso7[0]) / (ris1Atteso7[0]))
            + Math.Abs((ris8[0] * 278.3333d - ris1Atteso8[0]) / (ris1Atteso8[0]))
            + Math.Abs((ris9[0] * 278.3333d - ris1Atteso9[0]) / (ris1Atteso9[0]))
            + Math.Abs((ris10[0] * 278.3333d - ris1Atteso10[0]) / (ris1Atteso10[0]));

        Console.WriteLine("\nErrore medio su 10 : "+ erroreMedio);

        Console.WriteLine("\nErrore % medio : " + (sumMedie/10)*100);
            Console.ReadLine();
        }


    }





}
EN

回答 1

Stack Overflow用户

发布于 2017-06-10 09:23:18

虽然我不熟悉雅阁。你会遇到一个经典的问题,这个问题可能发生在错误的网络中。神经网络在训练集上得到了很好的效果,但在实际的训练集上却没有。

我觉得你应该用较少隐藏的神经元试试。由于您的网络学习了大量的培训集,因此它无法处理不同的数据。因为这将是更好的得分85%-训练和79%的验证。相对于99%的列车和65%的验证。注意,这两个网络的总数%是相同的(85+79)=(99+65),但是第一个网络在解决未知问题方面会更好;这是总的目标。

你现在所拥有的这个术语被称为“超越拟合”。最常见的原因是网络开始表现得更像内存,它会记忆重持久化,而在未知的验证集中,它应该更多地涉及决策。希望这能帮上忙。

同样要注意的是,随着隐藏神经元的减少,在火车上也不可能达到接近100%的目标,但最终并不是为了解决这个问题,记住这一点。

也不知道你试图用它解决什么,但确保你的数据集有正确的神经网络,为了简单的测试乐趣尝试爱尔兰花数据集。我的网络可以得分199.16%左右的总和(trained+validation)。你可以试着克服这个问题,如果是这样的话,给我一个更新:)

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44465878

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档