当前位置:
文档之家› MATLAB神经网络工具箱及实验要求
MATLAB神经网络工具箱及实验要求
BTF: 训练函数, 默认为trainlm BLF: 学习函数, 默认为learngdm PF: 性能函数, 默认为mse net=newff([0,10;-1,2],[5,1],{‘tansig’,’purelin’},’trainlm’);
%生成一个两层BP网络,隐层和输出层神经的个数为5和1, 传递函数分别为 tansig和purelin, 训练函数为trainlm, 其他默认
b=net.b{1} %显示网络的阈值 0 0 0
改变默认初始化函数为随机函数rands
net.inputweights{1,1}.initFcn = ‘rands’;
net.biases{1}.InitFcn = ‘rands’;
net =init(net);
%重新初始化
直接初始化定义权值和阈值 net.IW{1,1}=[1 2];
dW:权值或阈值的增量矩阵 W:权值矩阵或阈值向量 P:输入向量 T:目标向量 E:误差向量 其他可以忽略,设为[ ]
learnpn 归一化学习函数
网络仿真函数
sim
a = sim(net, P)
网络输出
输入向量
➢分类结果显示绘图函数
plotpv
plotpv(P,T)
画输入向量的图像
plotpc
plotpc(W,b)
画分类线
例: 创建一个感知器
根据给定的样本输入向量P和目标向量T, 以及需分类 的向量组Q, 创建一个感知器, 对其进行分类.
P=[-0.5 -0.6 0.7;0.8 0 0.1]; T=[1 1 0]; net=newp([-1 1;-1 1],1); handle=plotpc(net.iw{1},net.b{1}); net.trainParam.epochs=10; net=train(net,P,T); Q=[0.6 0.9 -0.1;-0.1 -0.5 0.5]; Y=sim(net,Q); figure; plotpv(Q,Y); handle=plotpc(net.iw{1},net.b{1},handle)
1.正向传播
输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层 之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对 下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比 较,如果现行输出不等于期望输出,则进入反向传播过程。
2.反向传播
反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个 隐层的各个神经元的权系数进行修改,以望误差信号趋向最小。
这个感知器正确的区分了我们的新点(用红色表示)作为”zero”类(用圆圈表示), 而不是”one”类(用+号表示),尽管需要比较长的训练时间,这个感知器仍然适当的进 行了学习。最后放大感兴趣的区域
BP网络
多层前馈网络 传递函数:隐层采用S形函数,输出层S形函数或线性函数
主要功能: 函数逼近, 模式识别, 信息分类,数据压缩
BP网络的生成
newff
函数newff用来生成一个BP网络
net=newff(PR,[S1 S2...SN],{TF1 TF2... TFN},BTF,BLF,PF)
PR: 一个R×2矩阵, 由R维输入向量的每维最小值和最大值组成 Si: 第i层的神经元个数 TFi: 第i层的传递函数, 默认为tansig
前馈网络通常分为不同的层(layer),第i层的 输入只与第i-1层的输出联结。
可见层:输入层(input layer)和输出层(output layer)
隐藏层(hidden layer) :中间层
感知器(perceptron):
单层前馈网络 传递函数为阈值函数
主要功能是模式分类
感知器的生成
两个长度为5的向量构成输入样本矩阵P,行向量T为目标向量。利用PLOTPV画 出这个向量的图像。例如: P = [-0.5 -0.5 +0.3 -0.1 -4; -0.5 +0.5 -0.5 +1.0 5]; T = [1 1 0 0 1]; plotpv(P,T); % plotpv函数利用感知器的输入向量和目标向量来画输入向量的图像
Step 2 建立神经网络
MATLAB提供函数newp来创建一个指定的感知器。第一个参数指定了期望 的两个输入向量的取值范围,第二个参数指定了只有一个神经元。 net = newp([-40 1;-1 50],1); 注意:这个神经元的传递函数是hardlim函数,也就是阶跃函数。取0,1两个值。 Hardlims函数,取-1,1两个值。
常用传递函数
阈值函数
1 a f (n) hardlim(n) 0
(n 0) (n 0)
MATLAB函数: hardlim
a 1 -1 -b Wp
a
f
(n) hard lim s(n)
1 1
(n 0)
(n 0) MATLAB函数:
hardlims
线性函数
Purelin Transfer Function : a f (n) n
net = train(net, P, T)
训练参数
net.trainParam.epochs net.trainParam.show net.trainParam.goal net.trainParam.time
net.trainParam.lr
参数含义
默认值
训练步数
net = newp([-2,+2;-2,+2],2) %生成一个二维输入,两个神经元的感知器
感知器的权值和阈值初始化
newp默认权值和阈值为零(零初始化函数initzero).
net = newp([-2,+2;-2,+2],2);
W= b=
W=net.IW{1,1} %显示网络的权值 0 0 0
Step4 训练神经网络
Matlab提供了adapt函数来训练感知器,adapt函数返回一个新的能更好的执 行分类、网络的输出、和误差的神经网络,这个划线函数允许网络从3个角度去调 整,画分类线一直到误差为0为止。 E = 1; //E为误差 net.adaptParam.passes = 3; //决定在训练过程中重复次数 while (sse(E)) //sse函数是用来判定误差E的函数 [net,Y,E] = adapt(net,P,T); //利用输入样本调节神经网net linehandle = plotpc(net.IW{1},net.b{1},linehandle);/ /画出调整以后的分类线 drawnow; //延迟一段时间
a n
MATLAB函数: purelin
Sigmoid函数
Sigmoid Function : 特性:
➢值域a∈(0,1) ➢非线性,单调性 ➢无限次可微 ➢|n|较小时可近似线性
函数
➢|n|较大时可近似阈值 函数
对数Sigmoid函数
a
f
(n)
1
1 en
正切Sigmoid函数
en en a tanh(n) en en
net.b{1}=1
感知器学习
感知器学习算法
权值增量: W (t a) pT epT
阈值增量: b t a e
权值更新: 阈值更新:
W new W old W bnew bold b
算法改进
W (t a) pT epT
p
p
输入样本归一化
权值和阈值训练与学习函数
设计好的感知器并不能马上投入使用. 通过样本训练, 确定感知器的权值和阈值.
train
net=train(net, P, T)
被训练网络 输入向量 目标向量
net.trainParam.epochs=10 ; %预定的最大训 练次数为10, 感知器经过最多训练10次后停止,
adapt
net=adapt(net, P, T) 自适应训练函数
权值和阈值学习函数
learnp
dW=learnp(W,P,Z,N,A,T,E,D,gW,gA,LP,LS)
函数拟合
模式分类 函数拟合 模式分类 函数拟合
收敛快,误差小
收敛最快 收敛较快 性能稳定 收敛较快
模式分类
收敛较慢
大 较小 中等 较大 较小
性能随网络规模 增大而变差
性能随网络训练 误差减小而变差
尤其适用于网络 规模较大的情况
计算量岁网络规 模的增大呈几何
增长
适用于提前停止 的方法
BP网络的训练
利用已知的”输入—目标”样本向量数据对网络进行训练, 采用train 函数来完成. 训练之前, 对训练参数进行设置
MATLAB函数: logsig(对数), tansig(正切)
单层神经网络模型
R维输入, S个神经元的单层神经网络模型
w11 w12 L
W
w21
w21
L
L L L
wS1
wS1
L
w1R
w2
R
L
wSR
b1
b
b2
M
bS
a f (Wp + b)
多层神经网络模型
前馈神经网络
前馈神经网络(feed forward NN):各神经元 接受前级输入,并输出到下一级,无反馈, 可用一有向无环图表示。
MATLAB神经网络工具箱 介绍及实验要求
神经元模型
Neuron Model: 多输入,单输出,带偏置
➢输入:R维列向量 p [ p1,L pR ]T
➢权值:R维行向量 w [w11,L w1R ]
➢求和单元
R
n piw1i b
i 1
➢传递函数 f
阈值:标量 b
➢输出
a f (wp b)