C++实现的BP神经网络(代码)

#pragma hdrstop
#include <stdio.h>
#include <iostream.h>

const A=30.0;
const B=10.0;
const MAX=500; //最大训练次数
const COEF=0.0035; //网络的学习效率
const BCOEF=0.001; //网络的阀值调整效率
const ERROR=0.002; //网络训练中的允许误差
const ACCURACY=0.0005; //网络要求精度
double sample[41][4]={{0,0,0,0},{5,1,4,19.020},{5,3,3,14.150},
                                                          {5,5,2,14.360},{5,3,3,14.150},{5,3,2,15.390},
                                                          {5,3,2,15.390},{5,5,1,19.680},{5,1,2,21.060},
                                                          {5,3,3,14.150},{5,5,4,12.680},{5,5,2,14.360},
                                                          {5,1,3,19.610},{5,3,4,13.650},{5,5,5,12.430},
                                                          {5,1,4,19.020},{5,1,4,19.020},{5,3,5,13.390},
                                                          {5,5,4,12.680},{5,1,3,19.610},{5,3,2,15.390},
                                                          {1,3,1,11.110},{1,5,2,6.521},{1,1,3,10.190},
                                                          {1,3,4,6.043},{1,5,5,5.242},{1,5,3,5.724},
                                                          {1,1,4,9.766},{1,3,5,5.870},{1,5,4,5.406},
                                                          {1,1,3,10.190},{1,1,5,9.545},{1,3,4,6.043},
                                                          {1,5,3,5.724},{1,1,2,11.250},{1,3,1,11.110},
                                                          {1,3,3,6.380},{1,5,2,6.521},{1,1,1,16.000},
                                                          {1,3,2,7.219},{1,5,3,5.724}};

  double w[4][10][10],wc[4][10][10],b[4][10],bc[4][10];
  double o[4][10],netin[4][10],d[4][10],differ; //单个样本的误差
  double is; //全体样本均方差
  int count,a;

  void netout(int m,int n); //计算网络隐含层和输出层的输出
  void calculd(int m,int n); //计算网络的反向传播误差
  void calcalwc(int m,int n); //计算网络权值的调整量
  void calcaulbc(int m,int n); //计算网络阀值的调整量
  void changew(int m,int n); //调整网络权值
  void changeb(int m,int n); //调整网络阀值
  void clearwc(int m,int n); //清除网络权值变化量wc
  void clearbc(int m,int n); //清除网络阀值变化量bc
  void initialw(void); //初始化NN网络权值W
  void initialb(void); //初始化NN网络阀值
  void calculdiffer(void); //计算NN网络单个样本误差
  void calculis(void); //计算NN网络全体样本误差
  void trainNN(void); //训练NN网络

  /*计算NN网络隐含层和输出层的输出   */
  void netout(int m,int n)
  {
      int i,j,k;

      //隐含层各节点的的输出
      for (j=1,i=2;j<=m;j++) //m为隐含层节点个数
      {
          netin[i][j]=0.0;
          for (k=1;k<=3;k++) //隐含层的每个节点均有三个输入变量
              netin[i][j]=netin[i][j]+o[i-1][k]*w[i][k][j];
          netin[i][j]=netin[i][j]-b[i][j];
        o[i][j]=A/(1+exp(-netin[i][j]/B));
      }

      //输出层各节点的输出
      for (j=1,i=3;j<=n;j++)
      {
          netin[i][j]=0.0;
          for (k=1;k<=m;k++)
              netin[i][j]=netin[i][j]+o[i-1][k]*w[i][k][j];
          netin[i][j]=netin[i][j]-b[i][j];
          o[i][j]=A/(1+exp(-netin[i][j]/B));
      }
  }

  /*计算NN网络的反向传播误差*/
  void calculd(int m,int n)
  {
        int i,j,k;
        double   t;
        a=count-1;
      d[3][1]=(o[3][1]-sample[a][3])*(A/B)*exp(-netin[3][1]/B)/pow(1+exp(-netin[3][1]/B),2);

        //隐含层的误差
        for (j=1,i=2;j<=m;j++)
        {
            t=0.00;
            for (k=1;k<=n;k++)
                t=t+w[i+1][j][k]*d[i+1][k];
                  d[i][j]=t*(A/B)*exp(-netin[i][j]/B)/pow(1+exp(-netin[i][j]/B),2);
        }
  }

  /*计算网络权值W的调整量*/
  void calculwc(int m,int n)
  {
      int i,j,k;

    //   输出层(第三层)与隐含层(第二层)之间的连接权值的调整
      for (i=1,k=3;i<=m;i++)
      {
          for (j=1;j<=n;j++)
          {
              wc[k][i][j]=-COEF*d[k][j]*o[k-1][i]+0.5*wc[k][i][j];
          }
        //   printf("\n");
      }
      //隐含层与输入层之间的连接权值的调整
      for (i=1,k=2;i<=m;i++)
      {
          for (j=1;j<=m;j++)
          {
              wc[k][i][j]=-COEF*d[k][j]*o[k-1][i]+0.5*wc[k][i][j];
          }
      //     printf("\n");
      }

  }

  /*计算网络阀值的调整量*/
  void calculbc(int m,int n)
  {
      int   j;
      for (j=1;j<=m;j++)
      {
          bc[2][j]=BCOEF*d[2][j];
      }
      for (j=1;j<=n;j++)
      {
          bc[3][j]=BCOEF*d[3][j];
      }
  }

  /*调整网络权值*/
  void changw(int m,int n)
  {
      int i,j;
      for (i=1;i<=3;i++)
          for (j=1;j<=m;j++)
          {
              w[2][i][j]=0.9*w[2][i][j]+wc[2][i][j];
              //为了保证系统有较好的鲁棒性,计算权值时乘惯性系数0.9
              printf("w[2][%d][%d]=%f\n",i,j,w[2][i][j]);
          }
      for (i=1;i<=m;i++)
          for (j=1;j<=n;j++)
          {
              w[3][i][j]=0.9*w[3][i][j]+wc[3][i][j];
              printf("w[3][%d][%d]=%f\n",i,j,w[3][i][j]);
          }
  }

  /*调整网络阀值*/
  void changb(int m,int n)
  {
      int   j;
      for (j=1;j<=m;j++)
          b[2][j]=b[2][j]+bc[2][j];

      for (j=1;j<=n;j++)
          b[3][j]=b[3][j]+bc[3][j];
  }

  /*清除网络权值变化量wc*/
  void clearwc(void)
  {
      for (int i=0;i<4;i++)
          for (int   j=0;j<10;j++)
              for (int   k=0;k<10;k++)
                  wc[i][j][k]=0.00;
  }

  /*清除网络阀值变化量*/
  void clearbc(void)
  {
      for (int i=0;i<4;i++)
          for (int   j=0;j<10;j++)
              bc[i][j]=0.00;
  }

  /*初始化网络权值W*/
  void initialw(void)
  {
      int i,j,k,x;
      double   weight;
      for (i=0;i<4;i++)
          for (j=0;j<10;j++)
              for (k=0;k<10;k++)
              {
                  randomize();
                  x=100+random(400);
                  weight=(double)x/5000.00;
                  w[i][j][k]=weight;
              }
  }

  /*初始化网络阀值*/
  void initialb(void)
  {
      int i,j,x;
      double   fazhi;
      for (i=0;i<4;i++)
        for (j=0;j<10;j++)
        {
            randomize();
            for (int   k=0;k<12;k++)
            {
                x=100+random(400);
            }
            fazhi=(double)x/50000.00;
            b[i][j]=fazhi;
        }
  }

  /*计算网络单个样本误差*/
  void calculdiffer(void)
  {
      a=count-1;
      differ=0.5*(o[3][1]-sample[a][3])*(o[3][1]-sample[a][3]);
  }

  void calculis(void)
  {
      int i;
      is=0.0;
      for (i=0;i<=19;i++)
      {
          o[1][1]=sample[i][0];
          o[1][2]=sample[i][1];
          o[1][3]=sample[i][2];
          netout(8,1);
          is=is+(o[3][1]-sample[i][3])*(o[3][1]-sample[i][3]);
      }
      is=is/20;
  }

  /*训练网络*/
  void trainNN(void)
  {
      long   int   time;
      int i,x[4];
      initialw();
      initialb();

      for (time=1;time<=MAX;time++)
      {
          count=0;
          while(count<=40)
          {
              o[1][1]=sample[count][0];
              o[1][2]=sample[count][1];
              o[1][3]=sample[count][2];

              count=count+1;
              clearwc();
              clearbc();
              netout(8,1);
              calculdiffer();
              while(differ>ERROR)
              {
                  calculd(8,1);
                  calculwc(8,1);
                  calculbc(8,1);
                  changw(8,1);
                  changb(8,1);
                  netout(8,1);
                  calculdiffer();
              }
          }
          printf("This   is   %d   times   training   NN...\n",time);
          calculis();
          printf("is==%f\n",is);
          if   (is<ACCURACY)   break;
      }
  }

  //---------------------------------------------------------------------------

  #pragma   argsused
  int main(int   argc,   char*   argv[])
  {
      double   result;
      int m,test[4];
      char   ch='y';
      cout<<"Please   wait   for   the   train   of   NN:"<<endl;
      trainNN();
      cout<<"Now,this   modular   network   can   work   for   you."<<endl;

      while(ch=='y'   ||   ch=='Y')
      {
        cout<<"Please   input   data   to   be   tested."<<endl;
          for (m=1;m<=3;m++)
          cin>>test[m];
          ch=getchar();
          o[1][1]=test[1];
          o[1][2]=test[2];
          o[1][3]=test[3];
          netout(8,1);
          result=o[3][1];
          printf("Final   result   is   %f.\n",result);
          printf("Still   test?[Yes]   or   [No]\n");
          ch=getchar();
      }

                  return 0;
  }

时间: 2024-08-02 01:26:54

C++实现的BP神经网络(代码)的相关文章

计算机视觉怎么给图像分类?KNN、SVM、BP神经网络、CNN、迁移学习供你选(附开源代码)

图像分类问题就是从固定的一组分类中,给输入图像分配标签的任务.这是计算机视觉的核心问题之一,尽管它看似简单,却在实际生活中有着各种各样的应用. 传统方式:功能描述和检测. 也许这种方法对于一些样本任务来说是比较好用的,但实际情况却要复杂得多. 因此,我们将使用机器学习来为每个类别提供许多示例,然后开发学习算法来查看这些示例,并了解每个类的视觉外观,而不是试图直接在代码中指定每一个大家感兴趣的类别是什么样的.  然而,图像分类问题就是一个非常复杂的工作,它总是借用诸如卷积神经网络(CNN)这样的深

backp-用java写可以识别数字的BP神经网络

问题描述 用java写可以识别数字的BP神经网络 现在学校要求写一个可以识别数字的神经网络,要求最好用bp, 也可以用别的算法,语言可以任意,最好是java.数据事uci的optical recognition of handwritten digits 想知道有没有指导怎么一步一步建立的的教程,不知道如何建立这样的网络,代码里需要几层方法? 解决方案 参考:http://download.csdn.net/download/u012828028/6546885 解决方案二: BP神经网络应用于

/*c语言实现*/遗传算法改进BP神经网络原理和算法实现怎么弄?

问题描述 /*c语言实现*/遗传算法改进BP神经网络原理和算法实现怎么弄? 我现在在研究遗传算法改进BP神经网络,大概明白原理,但算法程序还有很多问题,求大神们教教我具体怎么把GA和BP结合,算法如何实现,给出代码或伪代码行吗? 解决方案 一般都是matlab去写,然后用C调用,用C语言得写到什么时候. 参考:http://www.docin.com/p-788836632.html

elasticsearch-请教:BP神经网络分词算法怎么整合到Elasticsearch中?急求解

问题描述 请教:BP神经网络分词算法怎么整合到Elasticsearch中?急求解 我想在Elasticsearch中使用BP神经网络分词算法,应该怎么样的步骤把算法嵌入到Elasticsearch的代码中,请大侠们指教

BP神经网络算法与实践概述

神经网络曾经很火,有过一段低迷期,现在因为深度学习的原因继续火起来了.神经网络有很多种:前向传输网络.反向传输网络.递归神经网络.卷积神经网络等.本文介绍基本的反向传输神经网络(Backpropagation 简称BP),主要讲述算法的基本流程和自己在训练BP神经网络的一些经验. BP神经网络的结构p>神经网络就是模拟人的大脑的神经单元的工作方式,但进行了很大的简化,神经网络由很多神经网络层构成,而每一层又由许多单元组成,第一层叫输入层,最后一层叫输出层,中间的各层叫隐藏层,在BP神经网络中,只

BP神经网络算法

今天来讲BP神经网络,神经网络在机器学习中应用比较广泛,比如函数逼近,模式识别,分类,数据压缩,数据挖掘等领域.接下来介绍BP神经网络的原理及实现. Contents 1. BP神经网络的认识 2. 隐含层的选取 3. 正向传递子过程 4. 反向传递子过程 5. BP神经网络的注意点 6. BP神经网络的C++实现 1. BP神经网络的认识 BP(Back Propagation)神经网络分为两个过程 (1)工作信号正向传递子过程 (2)误差信号反向传递子过程 在BP神经网络中,单个样本有m个输

matlab bp 神经网络-matlab实现BP神经网络,训练结果不好,附源代码

问题描述 matlab实现BP神经网络,训练结果不好,附源代码 希望大家看看,谢谢了!自己看了一整天都不知道哪里出现了问题,编程思想按照经典的机器学习的书 lr=0.05; %lr为学习速率:err_goal=0.1; %err_goal为期望误差最小值max_epoch=15000; %max_epoch为训练的最大次数:a=0.9; %a为惯性系数Oi=0;Ok=0; %置隐含层和输出层各神经元输出初值为0%提供两组训练集和目标值(3输入神经元,2输出)%X=[1 1;-1 -1;1 1];

编程-如何不使用Matlab已有命令编写BP神经网络基本原理,来实现手写数字识别?

问题描述 如何不使用Matlab已有命令编写BP神经网络基本原理,来实现手写数字识别? 如何不使用Matlab已有命令编写BP神经网络基本原理,来实现手写数字识别? 解决方案 http://download.csdn.net/detail/aoxiangyuntian123/8472775

BP神经网络拟合效果不好,怎么解决?附源程序

问题描述 BP神经网络拟合效果不好,怎么解决?附源程序 主函数,需调用fx2函数 %fun为进行拟合的非线性函数 %node为隐含层的节点数 %k为最大迭代次数,缺省时,默认为100 %eps为目标值,缺省时,默认为0.0001 %随机产生2000组输入数据x.输出数据y input=10*rand(1,2000)-5; output=zeros(1,2000); for i=1:2000 output(i)=fsin(input(i)); end %随机选择1000组训练数据和1000组预测数