当前位置:
文档之家› 2篇基础知识(续)人工神经网络常用学习规则
2篇基础知识(续)人工神经网络常用学习规则
5) Correlation(相关)学习规则
相关学习规则学习信号为
r dj
易得出分别为
Wj dj X
ijd jx i i 0 ,1 , ,n
该规则表明,当dj是xi的期望输出时,相应 的权值增量Δωij与两者的乘积djxi成正比。
如果Hebbian学习规则中的转移函数为二进 制函数,且有oj=dj,则相Δ关学习规则可看 作Hebbian规则的一种特殊情况。应当注意 的是,Hebbian学习规则是无导师学习,而 相关学习规则是有导师学习。这种学习规 则要求将权值初始化为零。
下面介绍外星学习规则。外星学习规则属 于有导师学习,其目的是为了生成一个期 望的维输出向量,设对应的外星权向量用 Wj表示,学习规则如下
Wj (dWj)
式中,η的规定与作用与式(5-23)中的α相同, 给出的外星学习规则使节点j对应的外星权 向量向期望输出向量d靠近。
j
W1j
Wij
Wnj
j
W1j
式中,当实际输出与期望值相同时,权值不需要 调整;在有误差存在情况下,由
于 、d j , sg W n j T X 1 , 1
权值调整公式简化为
Wj 2X
感器学习规则只适用于二进制神经元,初始权值 可取任意值。
感知器学习规则代表一种有导师学习。由于感知 器理论是研究其他神经网络的基础,该规则对于 神经网络的有导师学习具有极为重要的意义。
只有获胜神经元才有权调整其权向量,调
整量为
W m X W m
式中,,是学习常数,一般其值随着学习的进展 而减小。由于两个向量的点积越大,表明两者越 近似,所以调整获胜神经元权值的结果是使Wm 进一步接近当前输入X。显然,当下次出现与X相 像的输入模式时,上次获胜的神经元更容易获胜。
在反复的竞争学习过程中,竞争层的各神经元所
式中,误差E是权向量Wj的函数。欲使误差 E最小,Wj应与误差的负梯度成正比,即
Wj E
式中,比例系数η是一个正常数。由式(512),误差梯度为
E d j o jfej正是式 (5-11)中定义的学习信号δ。ΔWj中每个分 量的调整由下式计算
i j d j o jf n jx ie i 0 , 1 , t, n
器采用了与阈值转移函数类似的符号转移 函数,其表达为
fW jTXsgW njTX 11 ,W ,W jTjT X X 00 因此,权值调整公式应为 W j[ d j sg W j T X n ] X
i j[ d j sW g j T X ] x i n i 0 , 1 , , n
对应的权向量被逐渐调整为输入样本空间的聚类
中心。在有些应用中,以获胜神经元为中心定义
一个获胜领域,除获胜神经元调整权值外,领域
内的其他神经元也不同程度地调整权值。权值一 般被初始化为任意值并进行归一化处理。
7)Outstar(外星)学习规则 神经网络中有两类常见节点,分别称为内星节点
和外星节点,其特点见图5-8和5-9。图5-8中的内 星节点总是接受来自四面八方的输入加权信号, 因此是信号的汇聚点,对应的权值向量称为内星 权向量;图5-9中的外星节点总是向四面八方发出 输出加权信号,因此是信号的发散点,对应的权 值向量称为外星权向量。内星学习规则定内星节 点的输出响应是输入向量X和内星权向量Wj的点 积。该点积反映了X与Wj的相似程度,其权值按 式(5-23)调整。因此Winner-Take-All学习规则与 内星规则一致。
Wm (xi wim) wkj (dk wkj)
随机、归 一化
无导师
0
有导师
连续 连续
人工神经网络是由人工神经元(简称神经元)互 联组成的网络,它是从微观结构和功能上对人脑 的抽象、简化,是模拟人类智能的一条重要途径, 反映了人脑功能的若干基本特征,如并行信息处 理、学习、联想、模式分类、记忆等。目前,已 发展了几十种神经网络,例如Hopfield模型, Feldmann等的连接型网络模型,Hinton等的玻尔 茨曼机模型,以及Rumelhart等的多层感知机模型 和Kohonen的自组织网络模型等等。
在这众多神经网络模型中,应用最广泛的 是多层感知机神经网络。多层感知机神经 网络的研究始于20世纪50年代,但一直进 展不大。直到1985年,Rumelhart等人提出 了误差反向传递学习算法(即BP算法), 实现了Minsky的多层网络设想。
神经网络对控制领域和反问题研究有吸引 力的特征表现在:(1)能逼近任意L2上的非 线性函数;(2)信息的并行分布式处理与存 储;(3)可以多输入、多输出;(4)便于用超 大规模集成电路(VLSI)或光学集成电路系统 实现,或用现有的计算机技术实现;(5)能 进行学习,以适应环境的变化。
年代 1958
Adaline(自适应 线形单元) 和
Madaline( 多个 Adaline的 组合网络)
Avalanche(雪崩 网)
Bernard Widrow(斯 坦福大学)
S.Drossberg(波士顿 大学)
权值 初始化
学习方式
转移函数
0
无导师 任意
任意 有导师 二进制
任意 有导师 连续
Widrow-Hoff Wj (dj-WjT X)X
相关
Wj dj X
wij (dj-WjT X)xi wij djxi
任意 0
有导师 有导师
任意 任意
Winner-takeall
Outstar
Wm (X Wm) Wj (d Wj)
W jd W jTXX
的各分量为
i j d j W j T X x i i 0 ,1 , ,n
实际上,如果在学习规则中假定社会元转
移函数为 fW jTXW jTX ,则有, fWjTX1 此时
式(5-11)与式(5-17)相同。
因此,Widrow-Hoff学习规则可以看成是学 习规则的一个特殊情况。该学习规则与神 经元采用的转移函数无关,因而不需要对 转移函数求导数,不仅学习速度较快,而 且具有较高的精度。权值可初始化为任意 值。
神经网络结构和功能不同,学习方法也各 不相同。在人工神经网络的结构和转移函 数决定以后,如何设计权使网络达到一定 的要求,就成为决定神经网络信息处理性 能的第三大要素。学习问题归根结底就是 网络连接权的调整问题,其方法有以下几 种:
名称
Perceptron(感 知器)
提出者
Frank Rosenblatt(康 奈尔大学)
W j(t)r [W j(t)X ,(t)d ,j(t)X ] (t)
式中 为学习速率。权值调整的迭代格式为
W j( t 1 ) W j( t ) r ( W j( t )X ( ,t )d j, ( t )X ( ] t )
权值调整的一般情况
w
Oj
X
j
wj X
r(w,x,d) dj
人工神经网络常用的学习规则
MP模型是于1943年由美国心理学家 McCulloch和数学家Pitts建立的第一个神经 元模型,也可以称为处理单元(Processing Element),它是一个多输入-多输出的非 线性信息处理单元。如图5-6所示,图5-7为 MP模型的作用函数。MP神经元是人工神 经元模型的基础,也是人工神经网络模型 的基础。
学习规则可推广到多层前馈网络中,权值 可初始化为任意值。
4)Widrow-Hoff学习规则
1962年,Bernard Widrow和Marcian Hoff 提出了Widrow-Hoff学习规则,又称为最小 均方规则(LMS)。Widrow-Hoff学习规则的 学习信号为
r dWjTX
权向量调整量为..
信号生成器
1)Hebbian学习规则
1949年,心理学家D.O.Hebb最早提出了关于神 经网络学习机理的“突触修正”的假设。该假设 指出,当神经元的突触前膜电位与后膜电位同时 为正时,突触传导增强,当前膜电位与后膜电位 正负相反时,突触传导减弱,也就是说,当神经 元i与神经元j同时处于兴奋状态时,两者之间的连 接强度应增强。根据该假设定义的权值调整方法, 称为Hebbian学习规则。在Hebbian学习规则中, 学习信号简单地等于神经元的输出
3)δ(Delta)学习规则 1986年,认知心理学家McClelland和
Rumelhart在神经网络训练中引入了δ规则, 该规则亦可称为连续感知器学习规则,与 上述离散感知器学习规则并行。δ规则的学 习信号规定为
r d j fW j T W fW j T W d j o jfn j e
2)Perceptron(感知器)学习规则
1958年,美国学者Frank Rosenblatt首次定 义了一个具有单层计算单元的神经网络结 构,称为感知器(Perceptron)。感知器的学 习规则规定,学习信号等于神经元期望输 出(教师信号)与实际输出之差
r dj oj
式中d j 为期望的输出 oj fWjTW ,。 感知
rf W jTX
式中 W为权向量,X为输入向量。权向量的 调整公式为
W j fW jTXX
权向量中,每个分量的调整由下式确定
ij fW j T X x i o j x i
上式表明,权值调整量与输入输出的乘积成正比。 显然,经常出现的输入模式将对权向量有最大的 影响。在这种情况下,Hebbian学习规则需预先 设置权饱和值,以防止输入和输出正负始终一致 时出现权值无约束增长。此外,要求权值初始化, 即在学习开始前 (t=0),先对Wj(0)赋予零附近的 小随机数。Hebbian学习规则代表一种纯前馈、 无导师学习。该规则至今仍在各种神经网络模型 中起着重要作用。
Wij
Wnj
2.4神经网络学习
表2.1 常用学习规则一览表
学习规则 Hebbian Perceptron Delta