当前位置:文档之家› 完整的神经网络讲解

完整的神经网络讲解

1.2.1神经网络的学习机理和机构
在神经网络中,对外部环境提供的模式样本进行学习训练,并能存储这种模式,则称为感知器;对外部环境有适应能力,能自动提取外部环境变化特征,则称为认知器。
神经网络在学习中,一般分为有教师和无教师学习两种。感知器采用有教师信号进行学习,而认知器则采用无教师信号学习的。在主要神经网络如BP网络,Hopfield网络,ART网络和Kohonen网络中;BP网络和Hopfield网络是需要教师信号才能进行学习的;而ART网络和Kohonen网络则无需教师信号就可以学习。所谓教师信号,就是在神经网络学习中由外部提供的模式样本信号。
学习是神经网络一种最重要也最令人注目的特点。在神经网络的发展进程中,学习算法的研究有着十分重要的地位。目前,人们所提出的神经网络模型都是和学习算法相应的。所以,有时人们并不去祈求对模型和算法进行严格的定义或区分。有的模型可以有多种算法.而有的算法可能可用于多种模型。不过,有时人们也称算法为模型。
自从40年代Hebb提出的学习规则以来,人们相继提出了各种各样的学习算法。其中以在1986年Rumelhart等提出的误差反向传播法,即BP(error BackPropagation)法影响最为广泛。直到今天,BP算法仍然是自动控制上最重要、应用最多的有效算法。
Wn+1=-θ,Xn+1=1 (1-19)
则感知器的输出可表示为:
(1-20)
感知器学习算法步骤如下:
1.ቤተ መጻሕፍቲ ባይዱ权系数w置初值
对权系数w=(W1.W2,…,Wn,Wn+1)的各个分量置一个较小的零随机值,但Wn+1=
—g。并记为Wl(0),W2(0),…,Wn(0),同时有Wn+1(0)=-θ。这里Wi(t)为t时刻从第i个
设误差e采用下式表示:
(1-25)
其中,Yi=f〔W*·Xi]是对应第i个样本Xi的实时输出
Yi是对应第i个样本Xi的期望输出。
要使误差e最小,可先求取e的梯度:
(1-26)
其中:
(1-27)
令Uk=W.Xk,则有:
(1-28)
即有:
(1-29)
最后有按负梯度方向修改权系数W的修改规则:
(1-30)
(1-42)
其中:η为学习速率,即步长,一般取0-1间的数。
从上面可知,dik实际仍末给出明显的算法公式,下面求dik的计算公式。
(1-43)
从式(1-32)可知在式(1-43)中,有
(1-44)
为了方便进行求导,取f为连续函数。一般取非线性连续函数,例如Sigmoid函数。当取f为非对称Sigmoid函数时,有:
设有一个m层的神经网络,并在输入层加有样本X;设第k层的i神经元的输入总和表示为Uik,输出Xik;从第k—1层的第j个神经元到第k层的第i个神经元的权系数为Wij各个神经元的激发函数为f,则各个变量的关系可用下面有关数学式表示:
Xik=f(Uik)
(1-32)
(1-33)
反向传播算法分二步进行,即正向传播和反向传播。这两个过程的工作简述如下。
一、BP算法的原理
BP算法是用于前馈多层网络的学习算法,前馈多层网络的结构一般如图1—12所示
图1-12网络学习结构
它含有输人层、输出层以及处于输入输出层之间的中间层。中间层有单层或多层,由于它们和外界没有直接的联系,故也称为隐层。在隐层中的神经元也称隐单元。隐层虽然和外界不连接.但是,它们的状态则影响输入输出之间的关系。这也是说,改变隐层的权系数,可以改变整个多层神经网络的性能。
二、感知器的学习算法
感知器是有单层计算单元的神经网络,由线性元件及阀值元件组成。感知器如图1-9所示。
图1-9感知器结构
感知器的数学模型:
(1-12)
其中:f[.]是阶跃函数,并且有
(1-13)
θ是阀值。
感知器的最大作用就是可以对输入的样本分类,故它可作分类器,感知器对输入信号的分类如下:
(1-14)
神经网络的学习一般需要多次重复训练,使误差值逐渐向零趋近,最后到达零。则这时才会使输出与期望一致。故而神经网络的学习是消耗一定时期的,有的学习过程要重复很多次,甚至达万次级。原因在于神经网络的权系数W有很多分量W1,W2,----Wn;也即是一个多参数修改系统。系统的参数的调整就必定耗时耗量。目前,提高神经网络的学习速度,减少学习重复次数是十分重要的研究课题,也是实时控制中的关键问题。
前面的感知器的传递函数是阶跃函数,所以,它可以用作分类器。前面一节所讲的感知器学习算法因其传递函数的简单而存在局限性。
感知器学习算法相当简单,并且当函数线性可分时保证收敛。但它也存在问题:即函数不是线性可分时,则求不出结果;另外,不能推广到一般前馈网络中。
为了克服存在的问题,所以人们提出另一种算法——梯度算法(也即是LMS法)。
二、BP算法的数学表达
BP算法实质是求取误差函数的最小值问题。这种算法采用非线性规划中的最速下降方法,按误差函数的负梯度方向修改权系数。
为了说明BP算法,首先定义误差函数e。取期望输出和实际输出之差的平方和为误差函数,则有:
(1-34)
其中:Yi是输出单元的期望值;它也在这里用作教师信号;
Xim是实际输出;因为第m层是输出层。
一、感知器的学习结构
感知器的学习是神经网络最典型的学习。
目前,在控制上应用的是多层前馈网络,这是一种感知器模型,学习算法是BP法,故是有教师学习算法。
一个有教师的学习系统可以用图1—7表示。这种学习系统分成三个部分:输入部,训练部和输出部。
图1-7神经网络学习系统框图
输入部接收外来的输入样本X,由训练部进行网络的权系数W调整,然后由输出部输出结果。在这个过程中,期望的输出信号可以作为教师信号输入,由该教师信号与实际输出进行比较,产生的误差去控制修改权系数W。
输入上的权系数,i=1,2,…,n。Wn+1(t)为t时刻时的阀值。
图1-10感知器的分类例子
2.输入一样本X=(X1,X2,…,Xn+1)以及它的期望输出d。
期望输出值d在样本的类属不同时取值不同。如果x是A类,则取d=1,如果x是B类,则取-1。期望输出d也即是教师信号。
3.计算实际输出值Y
4.根据实际输出求误差e
但是梯度法对于实际学习来说,仍然是感觉太慢;所以,这种算法仍然是不理想的。
1.2.3反向传播学习的BP算法
反向传播算法也称BP算法。由于这种算法在本质上是一种神经网络学习的数学模型,所以,有时也称为BP模型。
BP算法是为了解决多层前向神经网络的权系数优化而提出来的;所以,BP算法也通常暗示着神经网络的拓扑结构是一种无反馈的多层前向网络。故而.有时也称无反馈多层前向网络为BP模型。
由于BP算法按误差函数e的负梯度方向修改权系数,故权系数Wij的修改量Awij,和e
(1-35)
也可写成
(1-36)
其中:η为学习速率,即步长。
很明显,根据BP算法原则,求ae/aWij最关键的。下面求ae/aWij;有
(1-37)
由于
(1-38)
故而
(1-39)
从而有
(1-40)

(1-41)
则有学习公式:
1.正向传播
输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比较,如果现行输出不等于期望输出,则进入反向传播过程。
2.反向传播
反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个隐层的各个神经元的权系数进行修改,以望误差信号趋向最小。
(1-23)
即有:
(1-24)
从式(1—24)有:
W1≥θ,W2≥θ
令W1=1,W2=2
则有:θ ≤1
取θ=0.5
则有:X1+X2-0.5=0,分类情况如图1—11所示。
图1-11逻辑函数X1VX2的分类
1.2.2神经网络学习的梯度算法
从感如器的学习算法可知,学习的目的是在于修改网络中的权系数,使到网络对于所输入的模式样本能正确分类。当学习结束时,也即神经网络能正确分类时,显然权系数就反映了同类输人模式样本的共同特征。换句话讲,权系数就是存储了的输人模式。由于权系数是分散存在的,故神经网络自然而然就有分布存储的特点。
e=d—Y(t) (1-21)
5.用误差e去修改权系数
i=1,2,…,n,n+1 (1-22)
其中,η称为权重变化率,0<η≤1
在式(1—22)中,η的取值不能太大.如果1取值太大则会影响wi(t)的稳定;的取值也不能太小,太小则会使Wi(t)的求取过程收敛速度太慢。
当实际输出和期望值d相同时有:
Wi(t+1)=Wi(t)
则有:f'(Uik)=f'(Uik)(1-f(Uik))
=Xik(1-Xik) (1-45)
再考虑式(1—43)中的偏微分项ae/aXik,有两种情况需考虑的:
如果k=m,则是输出层,这时有Yi是输出期望值,它是常数。从式(1-34)有
(1-46)
从而有dim=Xim(1-Xim)(Xim-Yi)
(1-47)
在这里,并不要求过于严格去争论和区分算法和模型两者的有关异同。感知机学习算法是一种单层网络的学习算法。在多层网络中.它只能改变最后权系数。因此,感知机学习算法不能用于多层神经网络的学习。1986年,Rumelhart提出了反向传播学习算法,即BP(backpropagation)算法。这种算法可以对网络中各层的权系数进行修正,故适用于多层网络的学习。BP算法是目前最广泛用的神经网络学习算法之一,在自动控制中是最有用的学习算法。
即是,当感知器的输出为1时,输入样本称为A类;输出为-1时,输入样本称为B类。从上可知感知器的分类边界是:
相关主题