当前位置:文档之家› 神经网络实学习 例子

神经网络实学习 例子

神经网络实学习例子1通过神经网络滤波和信号处理,传统的sigmoid函数具有全局逼近能力,而径向基rbf函数则具有更好的局部逼近能力,采用完全正交的rbf径向基函数作为激励函数,具有更大的优越性,这就是小波神经网络,对细节逼近能力更强。

BP网络的特点①网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。

这使得它特别适合于求解内部机制复杂的问题。

我们无需建立模型,或了解其内部过程,只需输入,获得输出。

只要BPNN结构优秀,一般20个输入函数以下的问题都能在50000次的学习以内收敛到最低误差附近。

而且理论上,一个三层的神经网络,能够以任意精度逼近给定的函数,这是非常诱人的期望;②网络能通过学习带正确答案的实例集自动提取"合理的"求解规则,即具有自学习能力;③网络具有一定的推广、概括能力。

bp主要应用回归预测(可以进行拟合,数据处理分析,事物预测,控制等)、分类识别(进行类型划分,模式识别等),在后面的学习中,都将给出实例程序。

但无论那种网络,什么方法,解决问题的精确度都无法打到100%的,但并不影响其使用,因为现实中很多复杂的问题,精确的解释是毫无意义的,有意义的解析必定会损失精度。

BP注意问题1、BP算法的学习速度很慢,其原因主要有:a由于BP算法本质上为梯度下降法,而它所要优化的目标函数又非常复杂,因此,必然会出现"锯齿形现象",这使得BP算法低效;结论4:由上表可以看出,后者的初始权值比较合适些,因此训练的时间变短,误差收敛速度明显快些。

因此初始权值的选取对于一个网络的训练是很重要的。

1.4,用最基本的BP算法来训练BP神经网络时,学习率、均方误差、权值、阈值的设置都对网络的训练均有影响。

综合选取合理的值,将有利于网络的训练。

在最基本的BP算法中,学习率在整个训练过程是保持不变的,学习率过大,算法可能振荡而不稳定;学习率过小,则收敛速度慢,训练时间长。

而要在训练之前选择最佳的学习率是不现实的。

因此学习率可变的BP算法(variable learning rate backpropagation,VLBP)应运而生。

下一结介绍用VLBP来训练该网络的情况。

b存在麻痹现象,由于优化的目标函数很复杂,它必然会在神经元输出接近0或1的情况下,出现一些平坦区,在这些区域内,权值误差改变很小,使训练过程几乎停顿;c为了使网络执行BP算法,不能用传统的一维搜索法求每次迭代的步长,而必须把步长的更新规则预先赋予网络,这种方法将引起算法低效。

2、网络训练失败的可能性较大,其原因有:a从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求解复杂非线性函数的全局极值,因此,算法很有可能陷入局部极值,使训练失败;b网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取典型样本实例组成训练集是一个很困难的问题。

3、网络结构的选择:尚无一种统一而完整的理论指导,一般只能由经验选定。

为此,有人称神经网络的结构选择为一种艺术。

而网络的结构直接影响网络的逼近能力及推广性质。

因此,应用中如何选择合适的网络结构是一个重要的问题。

4、新加入的样本要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同。

5、采用s型激活函数,由于输出层各神经元的理想输出值只能接近于1或0,而不能打到1或0,因此设置各训练样本的期望输出分量Tkp时,不能设置为1或0,设置0.9或0.1较为适宜。

一认识bp:第二节内容:主要是阐述BP中几个容易混绕的概念和问题,包括什么是网络的泛化能力?过拟合是什么,怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用BP逼近非线性函数,如何提高训练精度?本节主要学习BP中几个容易混绕的概念和问题:什么是网络的泛化能力?过拟合是什么,怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用BP逼近非线性函数,如何提高训练精度?什么是网络的泛化能力?一个神经网路是否优良,与传统最小二乘之类的拟合评价不同(主要依据残差,拟合优度等),不是体现在其对已有的数据拟合能力上,而是对后来的预测能力,既泛化能力。

网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛盾。

一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力地提高,预测能力也提高。

但这种趋势有一个极限,当达到此极限时,随训练能力的提高,预测能力反而下降,即出现所谓"过拟合"现象。

此时,网络学习了过多的样本细节,而不能反映样本内含的规律。

过拟合是什么,怎么处理?神经网络计算不能一味地追求训练误差最小,这样很容易出现"过拟合"现象,只要能够实时检测误差率的变化就可以确定最佳的训练次数,比如15000次左右的学习次数,如果你不观察,设成500000次学习,不仅需要很长时间来跑,而且最后结果肯定令人大失所望。

避免过拟合的一种方法是:在数据输入中,给训练的数据分类,分为正常训练用、变量数据、测试数据,在后面节将讲到如何进行这种分类。

其中变量数据,在网络训练中,起到的作用就是防止过拟合状态。

学习速率有什么作用?学习速率这个参数可以控制能量函数的步幅,并且如果设为自动调整的话,可以在误差率经过快速下降后,将学习速率变慢,从而增加BPNN的稳定性。

此时训练方法采用采用贝叶斯正则化算法提高BP网络的推广能力。

二主要函数1 prepca函数对归一化后的样本数据进行主元分析,从而消除样本数据中的冗余成份,起到数据降维的目的。

[ptrans,transMat]=prepca(pn,0.001);1、数据归一化mapminmax(x,minx,maxx)minx为要取得的最小值,maxx为最大值一般归一化到0.1-0.9比较和2或者使用mapstd 3反归一化y1=mapminmax('reverse',y,ps)2、数据分类,主要包括打乱数据顺序,抽取正常训练用数据、变量数据、测试数据4dividevec()函数输入训练数据的乱序排法,以及分类[trainV,valV,testV]=dividevec(p,t,valPercent,testPercent)p=rands(3,1000);t=[p(1,:).*p(2,:);p(2,:).*p(3,:)];[trainV,valV,testV]=dividevec(p,t,0.20,0.20);net=newff(minmax(p),[10 size(t,1)]);正常数据,是用来正常训练用变量数据,主要目的是防止训练中出现过拟合状态测试数据,是用来看训练效果的net=train(net,trainV.P,trainV.T,,,valV,testV);sim(net,validateSamples.P,,,validateSamples.T)5 traingdx函数[net,TR]=traingdx(net,TR,trainV,valV,testV)traingdx is anetwork training function that updates weight and bias values according to gradient descent momentum and an adaptive learning rate.info=traingdx('info')net:Neural network TR:Initial training record created by train trainV:Training data created by train valV:Validation data created by train testV:Test data created by train and returns net:Trained network TR:Training record of various values over each epoch 4常用bp训练函数Traingdm%动量梯度下降算法Traingda变学习率梯度下降算法Traingdx%变学习率动量梯度下降算法TrainrpRPROP(弹性BP)算法,内存需求最小大型网络训练方法%(共轭梯度算法)traincgf';%Fletcher-Reeves修正算法traincgp';%Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大traincgb';%Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大%(大型网络的首选算法)trainscg';%Scaled Conjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多trainbfg';%Quasi-Newton Algorithms-BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快trainoss';%One Step Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大%(中型网络的首选算法)'trainlm';%Levenberg-Marquardt算法,内存需求最大,收敛速度最快'trainbr';%贝叶斯正则化算法[trainV,valV,testV,trainInd,valInd,testInd]=divideblock(allV,trai nRatio,valRatio,testRatio)[训练数据,变量数据,测试数据,训练数据矩阵的标号,变量数据标号,测试数据标号]=divideblock(所有数据,训练数据百分比,变量数据百分比,测试数据百分比)其实dividevec和后面四个分类函数的区别在于,dividevec一般直接在Matlab代码中调用。

而后面四个函数是通过设置网络的divideFcn函数来实现,比如,net.divideFcn='divideblock',但不是说不可以在代码中像dividevec直接调用阀值和权值训练好的权值、阈值的输出方法是:输入到隐层权值:代码:w1=net.iw{1,1}隐层阈值:代码:theta1=net.b{1}隐层到输出层权值代码:w2=net.lw{2,1};输出层阈值:代码:theta2=net.b{2}net.IW是输入权值,net.LW是层权值,net.b是阈值。

相关主题