当前位置:文档之家› 现代智能算法在信号处理中的应用

现代智能算法在信号处理中的应用


所以隐层数值的改变正 比于上式的负值:
h h o o o p pj f jh ' ( S pj ) x pi (t pk O pk ) f ko ' ( S pk )kj k o 利用 pk 的定义 h h o o p pj =f jh ' ( S pj ) x pi pk kj k
改变训练样板
No
训练样终止?
y
迭代次数加1
No
迭代终止?
y
BP算法的基本流程
人工神经网络在信号方面的应用
一、神经网络应用于雷达信号的分选和识别


1.自组织PNN应用于信号分选和识别
2.BSB应用于信号的分选和识别
二、神经网络在自适应信号处理中的应用 1.自适应滤波 2.自适应噪声和干扰对消 3.自适应波束形成
现代智能算法在信号处 理中的应用
田攀博~2012113130 王晓超~2012113133
随着计算机技术的飞速发展,智能计算方法 的应用领域也越来越广泛,人工智能计算也 有人称之为“软计算”,是人们受自然(生 物界)规律的启迪,根据其原理,模仿求解 什么是人工智 问题的算法。从自然界得到启迪,模仿其结 能算法 构进行发明创造,这就是仿生学。这是我们 向自然界学习的一个方面。另一方面,我们 还可以利用仿生原理进行设计(包括设计算法 ),这就是智能计算的思想。
但是刺激在神经系统里并非毫无规律地广播式地传播。通常某条通 道对某类刺激传播的速度比较快,而且神经细胞每传播一次这类刺激,似
胞体3
乎这类刺激就在这个神经细胞里留下了痕迹,就好像很多动物会在走过的 路上留下分泌物。渐渐地这类刺激在大多数情况下多会从这条通道经过, 通过这条通道相同的处理后输出。
定义
美国神经网络学家Hecht Nielsen对人工神经网络的定义: 人工神经网络是由多个非常简单的处理单元彼此按某种方式 相互连接而形成的计算机系统,该系统靠其状态对外部输入 信息的动态响应来处理信息。
3.自适应波束形成
神经网络自适应波束形成技术除具有自适应波束形成的优点外, 还具有降低天线制造及维护成本的潜力。神经网络自适应波束形成 器主要包括预处理,人工神经网络及后处理。 神经网络自适应波束形成器的关键是神经网络结构的选择。由于径 向基函数可在理论上构造任何连续函数,所以选择其作为网络的结构 。对于连续函数的建模来说,径向基函数及经典的后向传播结构均可 作为导入神经网络结构。但由于径向基函数网络较后向传播结构小而 且训练速度快,所以选择径向基函数作波束形成器的神经网络结构较 好。 后处理部分用于处理输出节点能量以产生所需的网络信息。对于 信号检测及测向来说,需要所探测目标的角位置且具有某种可信度。 在噪声情况下,还需避免虚警。在后处理期间,应检验输出节点的能 量以确定目标的存在、准确位置及相关的可信度。
x2

y
wn
人工神经网络是一种多层向前神经网络, 一般分三层:输入层,隐层,输出层,也可以两层 或更多隐层。 层与层之间采用全互联方式,同一层单元之间不存 在相互连接。
人工神经网络算法实质是求取误差函数的最小值问 题。这种算法采用非线性规划中的最速下降方法,按 误差函数的负梯度方向修改权系数
分析说明
2.自适应噪声和干扰对消
自适应噪声和干扰对消是自适应处理领域的一个重要内容,利用 改进的BP神经网络,效果甚为明显。BP网络由于引入了隐层单元 ,网络能够实现各种内部判决;在输出层可以实现波形识别,BP 网络这种结构与波形识别特征表明,对于各种各样噪声和干扰的 需要波形特征,从而可以实现噪声和干扰的对消。根据自适应线 性神经元,构适一种新的自适应噪声和干扰的对消系统,它是一 个二层感知器。这种二层感知器网络能够实现单频干扰和窄带噪 声的良好对消,且性能优于自适应线性神经元网络。

当前存在的一些智能算法有:人工神经网络 、 遗传算法、模拟退火算法、 群集智能、蚁群 算法 、粒子群算等等。
重点讲解: 人工神经网络算法
一、背景
人工神经网络的研究,可以追溯到 1957年Rosenblatt提出的 感知器(Perceptron)模型 。它几乎与人工智能——AI (Artificial Intelligence)同时起步,但30余年来却并未取得人 工智能那样巨大的成功,中间经历了一段长时间的萧条。直到 80年代,获得了关于 人工神经网络切实可行的算法,以及以 Von Neumann体系为依托的传统算法在知识处理方面日益显露 出其力不从心后,人们才重新对人工神经网络发生了兴趣,导 致神经网络的复兴。
o pk
(t pk O ) f ' ( S )= pk f ' ( S )
o pk o k o pk o k o pk o kj o kj o pk h pj
是一个与j无关的量 则: (t 1) (t ) O
对隐层权值的更新
隐层的权值更新采用与输出层相仿的方法
o f o k 其中f ko ' ( S pk ) o S pk
所以输出权值的更新:
(t 1) (t ) p (t )
o kj o kj o kj
其中 p (t )= (t pk O ) f ' ( S )O
o kj o pk o k o pk
h pj
0 1 令
人工神经网络
生物学角度:每个神经细胞可以简单地看做由三部分组成:树突,轴突,细胞体。对每个神经细胞,树突可以由多个,它们是接受来 自其他神经细胞的刺激的通道;细胞体只有一个,它接受刺激并进行相应的处理;轴突也只有一个,它负责输出刺激,通过神经连接 传递给其他神经元。当某个来自大脑或者感受器的刺激发生,神经细胞就通过树突->胞体->轴突->神经连接->其他细胞这样的迅速将 刺激通过处理传到其他神经细胞。这样一条通路就是一个信息处理的通路。整个神经系统由无数的神经细胞及神经连接组成,构成一 个神奇的巨大的信号处理系统。
E p
o kj o S pk o kj
(t pk (
o kj
o o S f pk o k O pk ) o o S pk kj o h h O ) O kj pj pj J 1 L
L为隐层节点数 E p o o o h 所以- = ( t O ) f ' ( S ) O pk pk k pk pj o kj
神经元网络的特点:
1)非线性 2)分布处理 3)学习并行和自适应 4)数据融合 5)适用于多变量系统 6)便于硬件实现
仿生物神经系统建立的信号处理模型:
x1 w1 w2 · · · xn
每个信息处理单元接受n个输入X1,X2…Xn,对每个输入的灵敏度为W1,W2…Wn,处理单元 的处理功能用一个函数 y = f(X1*W1+X2*W2+…Xi*Wi+…Xn*Wn- Θ )表示, 而处理单元处理的结 果就是输出Y。由多个这样的信息处理单元构成的一个网络就是人工神经网络。
1.自适应滤波
Hopfield网络虽然可以在电路常数量级内求解复杂的优化问题 ,但存在编程复杂的问题,而且只能给出局部最优解,不能给出全 局最优解。 若采用线性规划神经网络就可输出连续变化的模拟量,但这 种网络可能会产生不稳定。通过对其不稳定性的分析,找出了使 该网络保持稳定(即适当地选择约束放大器和信号放大器的形式和 具体参数)的方法,这种网络可以在几百微微秒数量级内求解自适 应滤波器的最佳权系数和自适应谱估计的模型参数,所得结果与 准确解可以任意接近,而不存在任何编程复杂性问题,又能给出 所需的真正全局最优解,因此在自适应信号处理中有很好的应用 前景。
o kj h kj o kj o pk o pj h ji
h pj
w (t 1) w (t ) x pj
初始化
加输入和期望输出 计算隐层和输出层的输出
调节输出层和隐层的连接权值
o o o k wkj (t 1) wkj (t ) pk O pj h o wkj (t 1) wh ji (t ) pj x pj
自组织PNN应用于信号分选和识别
概率神经网络PNN的功能函数采用的不是Sigmoid型函数,而是指 数函数。采用这种函数形成的分类神经网络,可以得到非线性判决边界 ,且在一定条件下就可实现贝叶斯最优判决。 自组织神经网络是根据人脑具有的下列特点开发出来的。自组织 PNN利用人脑组织的一些特点,无须事先存储训练样本,而是通过边工 作边学习(记忆),其内容即其隐含层各单元的权重,是利用其自身内部 的竞争学习获得的,竞争的获胜者是具有最大概率的模式,随着更多模 式的获得系统能自已调整记忆,并自动遗忘过旧的模式以适应新的复杂 环境 利用PNN可以对具有单维或多维特征参数的信号进行分类。
· · ·
t pm
输入层
隐层
隐层节点j输出和输入节点的关系: h h h h h S pj w ji x pi O pj f j ( S pj ) i 输出节点k和隐层输出节点的关系:

j
S
o pk
w O
o kj
h pj
o o o O pk f k (S pk )
学习过程: 定义输出误差 pk o pk (t pk O pk )
为说明算法,假定BP网络中只有一个隐层,也就是三层BP网络。
上标h表示隐层,
上标o表示输出层, 下标p表示p次训练向量
● 反传(BP)网络的结构图 一个输入层,一个输出层,多个隐层。
隐层
Op1 xp1
wj1 p1
t pk
p
x pn
· · ·பைடு நூலகம்
Sh jp
Oh pj
j Op2 wjn pm O pn 输出层 信息流
而:
Sh pj
相关主题