当前位置:文档之家› 智能控制系统 -神经网络

智能控制系统 -神经网络


神经元输出特性函数常选用的类型有:
3 人工神经网络的基本结构类型
⑴前向网络 ;⑵有反馈的前向网络 ;⑶层内有互联的前向 网络 ;⑷互联网络
1)前向网络:典型的网络有:感知器网络、BP网络等。
特点:
前向网络具有较强的学习能力,结构 简单,易于编程。
前馈网络是静态非线性映射,通过简 单非线性处理单元的复合映射,可获 得复杂的非线性处理能力。
图中结点为神经元(PE):多输入单输出,输 出馈送多个其他结点。
前馈网络通常分为不同的层(layer),第i层的输入 只与第i-1层的输出联结。
可见层:输入层(input layer)和输出层(output layer)
隐层(hidden layer) :中间层
1
感知器网络
感知器是1957年美国学者Rosenblatt提出的 一种用于模式分类的神经网络模型。
输入
环境 神经网络
输出 输入
环境
神经网络
评价信息
神经网络的学习方法
学习规则(learning rule):
Hebb学习算法 误差纠正学习算法 概率式学习 竞争学习算法
Hebb学习
Hebb学习规则:无教师学习方法 Hebb学习规则的物理解释:两个神经元同时
处于激发状态时,相应的权值得到加强。
误差纠正学习(δ学习规则)
对于输出层第k个神经元的 实际输出: ak(n) 目标输出: tk(n) 误差信号: ek(n) = tk(n) - ak(n) 目标函数为基于误差信号ek(n)的函数,如误差平方和判 据(sum squared error, SSE),或均方误差判据(mean
squared error, MSE)
wiNh
h (k ) xi
(k)
BP网络的标准学习算法
第八步,计算全局误差
E
1 2m
m k 1
q o1
(do (k )
yo (k ))2
第九步,判断网络误差是否满足要求。当误差达 到预设精度或学习次数大于设定的最大次数, 则结束算法。否则,选取下一个学习样本及对 应的期望输出,返回到第三步,进入下一轮学 习。
三种改进算法 :⑴引入动量项 ⑵变尺度法
⑶变步长法
5.3
反馈网络
1
Hopfield网络
是一种全连结加权无向图,可分为离散型和连续 性两种
离散Hopfield网络
离散型网络:单层网络,有n各神经元节点,每个神 经元输出连接到其他神经元输入,各节点没有自反馈 每个节点有一个阈值,ωij是神经元间的连接权值,每 个神经元处于状态1(刺激值超过阈值)或-1。 工作方式有两种: 异步方式:每次只有一个神经元节点进行状态调整,其
概率式学习 学习规则:
竞争学习
输出神经元之间有侧向抑制性连接,较强单元 获胜并抑制其他单元,独处激活状态。 (Winner takes all, WTA)
wkj ( p j wkj ) 若神经元k获胜
wkj 0
若神经元k失败
wkj
k
pj
5.2
前向网络及其算法
前馈神经网络(feed forward NN):各神经元接受 前级输入,并输出到下一级,无反馈,可用一 有向无环图表示。
网络输出的误差减少到可接受的程度 进行到预先设定的学习次数为止
2.4.2 BP网络的标准学习算法
网络结构
输入层有n个神经元,隐含层有p个神经元,
输出层有q个神经元
变量定义
输入向量; 隐含层输入向量; 隐含层输出向量;
x x1, x2,L , xn
hi hi1, hi2,L , hip
ho ho1, ho2,L , hop
who
hoh (k)
e
yio
(1 2
q o1
(do(k) yio
yoo (k)))2
(do (k )
yoo (k)) yoo
(k)
(do(k) yoo (k))f ( yio(k)) @o(k)
BP网络的标准学习算法
第六步,利用输出层各神经元的o (k)和隐含 层各神经元的输出来修正连接权值 who(k) 。
反向传播(Backpropagation)算法:从后向前(反 向)逐层“传播”输出层的误差,以间接算 出隐层误差。分两个阶段:
正向过程:从输入层经隐层逐层正向计算各单元 的输出。
反向过程:由输出层误差逐层反向计算隐层各单 元的误差,并用此误差修正当前层的权值。
图 BP网络结构
2.4.2 BP网络的标准学习算法
BM网络运行分为两个阶段:
1)学习和训练阶段,根据学习样本对网络进 行训练,将知识分布地存储于网络的连接 权中;
2)工作阶段,根据输入运行网络得到合适的 输出,这实质是按照某种机制将知识提取 出来。
5.3
反馈网络
3
自组织特征映射网络
神经网络在接受外界输入时,将会分成不同的区 域,不同区域对不同模式具有不同的响应特征。 各神经元放入连接权值具有一定的分布特性,最 邻近的神经元互相激励,而较远的神经元则互相 抑制,再远的又具有较弱的激励作用。在受外界 刺激时,最强的地方形成一个气泡,称其为墨西
输出层输入向量; 输出层输出向量; 期望输出向量;
yi yi1, yi2,L , yiq
yo yo1, yo2,L , yoq
do d1, d2,L , dq
BP网络的标准学习算法
输入层与中间层的连接权值:
wih
隐含层与输出层的连接权值:
who
隐含层各神经元的阈值: bh
输出层各神经元的阈值: bo 样本数据个数: k 1,2,L m
学习的过程:
神经网络在外界输入样本的刺激下不断改变网络的连接 权值,以使网络的输出不断地接近期望的输出。
学习的本质:
对各连接权值的动态调整
学习规则:
权值调整规则,即在学习过程中网络中各神经元的连接 权变化所依据的一定的调整规则。
BP网络的标准学习算法-算法思想
学习的类型:有导师学习 核心思想:
将输出误差以某种形式通过隐层向输入层逐层反传
哥帽。
自组织特征映射网络具有侧 向联想力,如图右。输出 节点呈二维阵列分布。输 出节点与其邻域或其他节 点广泛连接,互相激励。 每个输入节点与输出节点 之间由可变权值连接。通 过某种规则,不断调整权 值,使得在稳定是每个领 域的所有节点对某种输入 具有类似的输出,并且聚 类的概率分布与输入模式 的概率分布相接近。
3
BP算法的改进算法
BP算法尚存在以下一些缺点
①由于采用非线性梯度优化算法,易形成局部极小而得 不到整体最优;
②优化算法次数甚多使得学习效率低,收敛速度很慢;
③BP网络是前向网络,无反馈连接,影响信息交换速度 和效率;
④网络输入节点、输出节点由问题而定,但隐节点的选 取根据经验,缺乏理论指导;
⑤在训练中学习新样本有遗忘旧样本的趋势,且要求每 个样本的特征数目要相同。
h1
o 1, 2,L q
yoo (k) f( yio (k)) o 1, 2,L q
BP网络的标准学习算法
第四步,利用网络期望输出和实际输出,
计算误差函数对输出层的各神经元的偏
导数 o (。k )
e e yio who yio who
p
(
yio (k) who
h
whohoh (k) bo )
who (k )
e who
o (k)hoo
o (k)hoh (k)
BP网络的标准学习算法
第七步,利用隐含层各神经元的h (k)和输入 层各神经元的输入修正连接权。
wih (k )
e wih
e hih (k )
hih (k ) wih
h (k ) xi (k )
wN 1 ih
人工神经网络的基本结构类型
神经网络的学习方法
从环境中获取知识并改进自身性能,主要指 调节网络参数使网络达到某种度量,又称 为网络的训练 学习方式:
监督学习 非监督学习 再励学习(强化学习)
监督学习
对训练样本集中的每一组输入能提供一组目标输 出。 网络根据目标输出与实际输出的误差信号来调节 网络参数。
教师
t(n) 期望输出
输入
环境
p(n)
神经网络
实际输出
比较
a(n)
误差信号
e(n)
非监督学习与再励学习
非监督学习:不存在教 师,网络根据外部数据 的统计规律来调节系统 参数,以使网络输出能 反映数据的某种特性
再励学习:外部环境对 网络输出只给出评价信 息而非正确答案,网络 通过强化受奖励的动作 来改善自身的性能
J (n) 1
2
k
ek2 (n)
1 2
eT
(n)e(n)
J
E
1 2
k
ek2 (n)
E
1 2
eT
(n)e(n)
14
误差纠正学习
用梯度下降法求解
wk J
对于感知器和线性网络:
Pj
wkj ek p j
wkj
nk
ak
W epT
delta学 习规则
对于多层感知器网络:扩展的delta学习规 则,bp算法
5.4
神经网络控制
神经网络在控制中的作用
⑴在传统的控制系统中用以动态系统建模,充当 对象模型;
⑵在反馈控制系统中直接充当控制器的作用; ⑶在传统控制系统中起优化计算作用;
第五章 神经网络控制
5.1 神经网络的基本原理及结构 5.2 前向网络及其算法 5.3 反馈网络 5.4 神经网络控制
5.1 神经网络的基本原理和结构 1 神经细胞的结构与功能
神经元是由细胞体、树突和轴突组成
相关主题