3有监督和BP神经网络1
1)有监督的学习网络: 感知器 误差反传网络(BP) 小脑模型连接控制器(CMAC) 模块(组合)网络 增强学习网络
2)无监督学习网络 竞争学习和Kohonen网络 Hopfield网络 双向联想存贮器(BAM) Boltzman机
● 有监督的神经网络
1)感知器网络
感知器是前馈(正向传输)网络,所有节点都是线性的.
▲ 线性动态系统
传递函数形xi式 (s): H(s)vi(s)
l
按时域 xi形 h式 (tt'): vi(t')d't
典型的有: H(s) 1 , h(t)1et/T
1sT
T
▲静态非线性系统 典型的有:
g(x)
g(x)
g(x)
x
阈值函数
x
阈值函数
x
Sigmoid函数
▲不同的部件可以组成不同的网络
● 反传(BP)网络 误差反传(学习算法)
(BP)网络与感知器的主要差别在于:(BP)网络的节点 是非线性的。
采用广义 学习规则。
● 反传(BP)网络的结构图 一个输入层,一个输出层,多个隐层。
xp1
· · ·
x pn
隐层
S
h jp
O
h pj
j
输入层
Op1 wj1 p1
p
Op2
wjn pm
O pn
x1
●
●
●
b1
x2
●
●
●
●
●
b2
●
xn
●
●
●
bm
权向量W
输入与输出的关系: XWb
权矩阵可以按下式求解: W(XTX)1XTb
学习规则: Wk1Wk(bkWkTXk)Xk 或WkkXk
k(bkWkTXk) 代表输入与输出的差别。
是学习因子
这学习规则即是著名的 学习规则。
随着学习迭代次数k的增加,k 保0 证网络的收敛。
wkoj(t1)wkoj(t)pokOpk j wkhj(t 1) whji(t)pojxp j
改变训练样板
No 训练样终止? y 迭代次数加1
No
迭代终止?
y BP算法的基本流程
重要结论
具有至少一个隐层的多层前馈网络,如果隐层 单元足够多,那么,利用扁平激励函数和线性多 项式集成函数,可以对任意感兴趣的函数逼成到 任意精度。
m
Ep12 p2k12 (tpkOopk)2
k1
k
因此,要求E 以下p 的偏导,So p k
wkoj
wkoj
最后得到二个权值改变的重要公式:
wkoj(t1)wkoj(t)pokOpk j
wkhj(t 1) whji(t)pojxp j
初始化
加输入和期望输出
计算隐层和输出层的输出
调节输出层和隐层的连接权值
的相互耦合和梯度下降法本身的缺点)
再见
输出层
隐层
信息流
t pk
· · ·
t pm
隐层节点j输出和输入节点p的关系:
Shpj whjixpi
Ohpj fjh(Shpj)
i
输出节点k和隐层输出节点p的关系:
Sopk wkojOhpj j
Oopk fko(Sopk)
学习程: 定义输出误差 pk
pk(tpkOopk)
学习的目的是要使以下定义的误差平方和最小:
u1
ui
︰∑
i
(双极型)
Adline(自适 应线性网)
yi
u1
ui ︰ ∑
i
Sigmoid yi
单层感知器 (Perceptron)
yj
K
yi
ui
u1
y1
u2
y2
u3
y3
u4
y4
离散Hopfield网
ui
a 2i
xi
Ts a 1i
yj yi
连续的Hopfield网 ●按学习的方法神经元网络可分成二类:
扁平激励函数定义:f : R [0,1] 或[-1,1]是非减函
数, lim f() 1 ,lim f() 1 或 - 1 。 是
扁平激励函数的参数.
理论证明:多层前馈网络是一种通用逼近器
讨论
1) 隐层的数目和节点的数目,何谓合适? 2) 是否收敛到全局最优?(涉及多维误差曲
面的不确定性) 3) 3)收敛的速度问题。(涉及隐层节点输出