当前位置:文档之家› 06 - 第六章 神经网络控制技术2014

06 - 第六章 神经网络控制技术2014


层)的神经元,即
k
m
,y
k i
y
m i

由误差定义式得
J
yik
J yim
yim di

dim yim (1 yim ) yim di
②若 i 为隐单元层 k ,有
J
yik
l
J ulk 1
ulk 1 yikຫໍສະໝຸດ lwli dlk1

d
k i
yik (1
yik )
wli dlk 1
l
逃离局部及小点的常用思路是:
在权值搜索过程中加入随机因素,这就催 生了随机神经网络的思想。
2020/4/30
张秦艳
24
(3)学习步长问题
学习因子太小,收敛很慢;太大,则可 能导致网络瘫痪和不稳定,即在极小点 附近震荡。
有些学者提出自适应步长,使得权值修 改量随着网络的训练而不断变化。基本 原则是在学习开始的时候步长较大,在 极小点附近时步长逐渐变小。
2020/4/30
张秦艳
21
综上所述,BP 学习算法可以归 纳为
wij
dik
y
k j
1
d
m i
yim (1
yim )
yim di
d
k i
yik (1
yik )
l
wli
d
k l
1
2020/4/30
张秦艳
22
3)BP算法在逼近函数方面很成功,但也 存在一些问题:
(1)收敛速度问题
由于使用了梯度下降算法,其收敛速度 很慢,一种改进的方法是在权值调整公 式中加入惯性项,用以平滑权值变化:
ji
其中, xi 、 x j 是各个神经元的输出。
考察第 m 个神经元的输出变化前后,能量函数 E 值的变化。
设 xm 0 的能量函数值为 E1 ,则
E1
1 2
N i 1
N
N
wij xi x j i xi
j 1
i 1
im ji
im
当 xm 1 时的能量函数值为 E2 ,则有
E2
2020/4/30
张秦艳
26
x1 x2 x3 x4
y1
条件:
wij=wji
y2
wii=0
y3
y4
2020/4/30
张秦艳
27
离散型Hopfield神经网络:
xi (t) 表示 t 时刻神经元所处的状态:
xi (t 1) s
gHn
i
(t)
1,
Hi (t) 1, Hi (t)
0
0
n
H i (t) wij x j (t) i ,1 i n
混合型网络联接方式介于前向网络和相互结合型网络之间 ,在同一层内有互联,目的是为了限制同层内神经元同时兴奋 或抑制的神经元数目,以完成特定的功能.

2020/4/30
张秦艳
11
神经网络的学习
1.联想式学习——Hebb规则 2.误差传播式学习——Delta学习规则 3.竞争式学习
2020/4/30
式中, vi (t) 为空间总和后输出信号; wi 为一常数,其作 用是在某些情况下控制神经元保持某一状态。
矩阵形式 V (t) AY(t) BU(t) W
式 中 A aij NN , B bik MM , V v1, ,vN T ,
Y y1, , yN T ,U u1, , uM T ,W w1, , wN T 。
w ji (t 1) w ji (t) d j y j (t) xi
式中 ——学习因子,在(0,1)区间取值; d j ——期望输出(教师信号);
输入状态 xi 1或 0
1,
d
j
1,
y j (t)
0
j d j y j (t) 0, d j y j (t)
1,d j 0, y j (t) 1
1N 2 i1
N
N
N
wij xi x j i xi wmj x j m
j 1
i 1
j 1
im ji
im
jm
当神经元状态由“0”变为“1 时,能量函数 E 值的变化量 E
N
E E2 E1 ( wmj x j m ) j 1 jm
29
2020/4/30
张秦艳
由于此时神经元的输出是由 0 变为 1,因此满足神经元兴 奋条件
2020/4/30
张秦艳
25
6.4 典型反馈网络——Hopfield网 络
美国物理学家Hopfield提出离散型 Hopfield神经网络和连续型Hopfield神 经网络,引入“计算能量函数”的概念, 给出了网络稳定性判据,尤其是给出了 Hopfield神经网络的电子电路实现,开 拓了神经网络用于联想记忆和优化计算 的新途径.
误差修正规则。
规则只适用于线性可分函数,不适用于多层网络
非线性可分函数。
2020/4/30
张秦艳
14
3.竞争式学习 竞争式学习是属于无教师学习方式。 基本竞争学习网络由两层组成。第一层为输入层,第二层
为竞争层。
s j wij x j
j
竞争层中具有最高输入总和的单元被定为胜者,其输出
状态为 1,其它各单元输出状态为 0。
2020/4/30
张秦艳
6
2.线性动态系统的传递函数描述 神经元的输入信号来自其它神经元的各种神经冲动,这
种信号具有典型的脉冲特点。
t
xi (t) h(t t)vi (t)dt
X i (s) H (s)Vi (s)
11
式中 H (s) 通常取为:1, s , 1 Ts , eTs 。
在时域中,相应的线性动态系统的输入 vi (t) 和输出 xi (t) 的
下面介绍四种常见的网络结构:
1.前向网络(前馈网络)
2.反馈网络
3.相互结合型网络
4.混合型网络
2020/4/30
张秦艳
9
1.前向网络(前馈网络) 前向网络通常包含许多层,含有输入层、隐层和输出层的三层网络。
2.反馈网络 反馈网络从输出层到输入层有反馈,既可接收来自其它节点的反馈输
入,又可包含输出引回到本身输入构成的自环反馈 。
wij (t 1) j xij wij (t), 惯性系数0 1 惯性系数可以是定值,也可以随着学习 过程自适应改变。
这样,可以提高算法的收敛速度和
改善动态性能(抑制寄生振荡)。
2020/4/30
张秦艳
23
(2)局部极小点问题
BP网络含有大量连接权值,每个权值对 应一个维度,则整个网络就对应着一个 非常高维空间中的误差曲面。这个曲面 不仅有全局最小点,还有局部极小点。
关系分别为:
xi (t) vi (t)
xi (t) vi (t)
Txi (t) xi (t) vi (t)
2020/4/30
xi (t) vi (t T )
7
张秦艳
3.常用的非线性函数
经过加权加法器和线性动态系统进行时空整合的信 号 xi,再经非线性函数后即为神经元的输出,即 yi g(xi )
的活性度 ai (t) ,神经元 u j 的活性度 a j (t) 。
2020/4/30
张秦艳
13
2.误差传播式学习——Delta学习规则
wij (di ai (t))y j (t) (di yi ) y j (t) y j (t)
其中 di yi ,为期望输出与实际输出的差值,又称
设第 k
层第 i
个神经元输入的总和为
u
k i
,输出为
y
k i
,则各
变量之间的关系为
y
k i
f
(u
k i
)
u
k i
wij
y
k 1 j
j
k 1,2, , m
BP 学习算法是通过反向学习过程使误差最小,因此选 择目标函数为
J
1 2
n
(d j
j 1
y j )2
即选择神经网络权值使期望输出 d j 与实际输出 y j 之差的
非线性函数具有两个显著的特征,一是它的突变性, 二是它的饱和性。
2020/4/30
张秦艳
8
6.2 神经网络的结构和学习规则
神经网络结构分为两大类:层状结构和网状结构。
层状结构的神经网络是由若干层组成,每层中有 一定数量的神经元,相邻层中神经元单向联接,一般 同层内的神经元不能联接;
网状结构的神经网络中,任何两个神经元之间都 可能双向联接。
前向网络(前馈网络)
2020/4/30
张秦艳
反馈网络
10
3.相互结合型网络 属于网状结构,构成网络中的各个神经元都可能相互双向
联接。若某一时刻从神经网络外部施加一个输入,各个神经元 一边相互作用,一边进行信息处理,直到使网络所有神经元的 活性度或输出值,收敛于某个平均值作为信息处理的结束。
4.混合型网络
2020/4/30
张秦艳
17
2. BP网络 1)BP网络模型
通常所说的BP模型,即误差后向传播神经网络,分为 输入层、隐层和输出层。
BP 网络的基本处理单元(输入层单元除外)为非线 性输入输出关系, 一般选用 S 型作用 函数,即
f (x) 1 1 ex
2020/4/30
张秦艳
18
2).学习算法
j 1
其中 wij 表示神经元 i 与 j 的连接强度, i 表示神经 元 i 的阈值。
当 Hopfield 网络处于稳定点时,每个神经元的 输出满足
相关主题