当前位置:文档之家› 自学 第6章 人工神经网络初步

自学 第6章 人工神经网络初步

• 人工神经网络模型对于语音信号处理这类问题特别有意义。传统的语 音信号处理系统都只是一种符号化系统,是对语音信号进行符号(序 列)串行处理,与人的感知过程有很大的差别。与此不同的是,人工 神经网络是由大量简单处理单元(称之为神经元或节点)广泛地相互 连接而组成的一个并行处理网络系统。虽然每个神经元的结构和功能 十分简单,但大量神经元构成的网络系统对知识的存储方式是分布式 的,这种分布式并行处理的特性,使得神经网络具有很强的自组织和 自学习能力以及很高的容错力和顽健性。
(权为 ,附有阀值 ),其输出经一个性能函数为 的硬限幅
非线性装置,然后输出到判决器。按当其输入为+1时判属A
类;当其输入为-1时判属B类的准则来判类。
• 两类分类处理
双层感知器
• 实际上实用的最简单的M类分类的感知器(Pereceptron) 也应该是一种双层神经网络模型。它是一个两层前馈神经网 络,一层为输入层,另一层具有计算单元,可以通过监督学 习建立模式判别的能力,如图6-4所示。

6.4几种用于模式识别的神经网络模型及其主要算 法
• 由于人在识别速度及判别能力方面常超过一般典型的计算 机所作的识别,故人们有兴趣研讨与神经网络有关的识别 机理,希望能有所借鉴或启发。诸如利用简单网络的高度 并行处理,多层处理法等。从模式识别学的角度来看,现 在所讨论的方法属于借鉴于神经网络识别机理所拟定的模 式识别方法,它与统计识别法联系密切,但在方法、思路、 识别灵活性及识别能力、速度等方面均有其特点。
单层感知器
• 单层感知器(Single Layer Pereceptron,简称为SLP)
可作为分类器。单输出的SLP,其结构就是如图6-1所示的
N人wi (工t)xi神(t) 经 元 0。输入的N个元可为连续的或二进制的标量信号。
i1
表示一个维空间的超平面。图6-3表示可由这个超平面
对A、B类进wi行分类。SLP结 构的前部分为一线性加权装置 f
(3)网络的训练(学习)算法。训练算法是指一些决定联接 各神经元的初始权值和阈值以及如何随着训练模式的加入而 调整这些权值和阈值的方法。
6.3 人工神经网络的构成
• 人工神经网络由神经元、网络拓扑、学习算法(即权重迭 代更新方式)三者构成。它在结构上与目前广泛使用的 Von Neumann机不同,组成网络的大量神经元集体的、 并行的活动可得到预期的处理结果,且运算速度快。同时, 人工神经网络具有非常强的学习功能,神经元之间的联接 权及网络的结构可通过学习获得。
x1
y1 x2
y2
yM
xN
• 学习的目标是通过改变权值使神经网络由给定的输入得到给定的输出。 作为分类器,可以用已知类别的模式向量(向量维数等于输入节点数) 作为训练集,当输入为属于第j类的特征向量 X时,应使对应于该类的输 出神经元的输出为1,而其它输出神经元的输出则为0(或-1)。应使 对应于该类的输出神经元的输出为1,而其它输出神经元的输出则为0 (或-1)。设理D想的(d输1, d出2 ,为 :, dm )T
• 人工神经网络可采用物理可实现的器件或利用现有的计算机 来模拟生物神经网络的某些结构与功能。构成人工神经网络 的三个基本要素是:
(1)神经元,即人工神经网络的基本处理单元,在网络中称 为节点或网点。
(2)网络拓朴,即网络的结构以及神经元彼此联接的方式。 根据联接方式的不同,网络可以分为反馈(Recurrent)型 网(又称循环网)以及非反馈型网。
6.1 概述 6.2 人工神经网络简介 6.3 人工神经网络的构成 6.4几种用于模式识别的神经网络模型及
其主要算法 6.5 用神经网络进行模式识别的主要做
法 6.6 人工神经网络模型的应用举例
6.1概述
• 所谓人工神经网络(Artificial Neural Network,简称为ANN),是 在模拟人脑神经组织的基础上发展起来的全新的计算系统,它是由大 量计算单元通过丰富联结构成的复杂的网络。在一定程度上反映了人 脑功能的若干基本特性,是一种更接近于人的认知过程的计算模型。
6.2 人工神经网络简介
• 长期以来,人们一直企盼着通过对人类神经系统的研究, 能够发明一种仿效人脑信息处理模式的智能型计算机。构 造人工神经网络就是希望通过类似于人类神经元的模型, 在信号处理上使计算机具有近似人类的智能。
• 人工神经网络是由大量简单处理单元,即神经元互相联接 而构成的独具特色的信息处理系统。这种系统是可以训练 的,它可以积累经验而不断改善自身的性能。同时,由于 高度的并行性,所以它们可以进行快速判别并具有容错性。 这些特点使它特别适用于用来进行语音信号处理。
该网络称为前馈型人工神经网络。
网络的学习算法
• 网络的学习算法是以满足网络所需的性能为目标,决定联接 各神经元的初始权值及在训练中调整权值的方法。学习方法 可分为监督学习与非监督学习。前者为有导师学习,训练时, 同时向网络提供输入模式及输出的样板模式(导师),在不 断输入不同训练模式的同时调整权值,从而使输出模式尽量 接近样板模式;后者是无导师学习,它是一种自动聚类过程, 通过输入训练模式的加入,不断调整权值以使输出能够反映 输入训练模式的分布特点。
如元果同神时经兴元奋时接ui ,收从来自到另u j一的神u权i 经值元就的u得w输jij到出加,强则。当这两个神经
具体到前述的神经元模型,可以将Hebb规则表现为如下的算
法形式: wi yxi
wi
公式中 是对第i个权值的修正值, 是控制学习速度的系数。
网络拓扑
• 网络拓扑是指网络的结构以及神经元之间的联接方式。根据 联接方式的不同,可分为反馈型人工神经网络和非反馈型人 工神经网络。前者神经元之间存在着反馈环路,后者神经元 之间则不存在着反馈环路。对于非反馈型人工神经网络,若 结构是分层的,且每一层神经元只与上一层神经元相联,则
神经元
• 人工神经网络模型是模仿人脑构成的,其构成的基本单元为 人造神经元,又称节点或网点。其作用是把若干个输入加权 求和,并将这个加权和非线性处理后输出。
x1
w1
x2
w2
. .
u
f
y
.
wN
xN
神经元的学习算法
• 几乎所有神经网络学习算法都可以看作是Hebb学习规则的
变形。Hebb学习规则的基本思想是:
相关主题