当前位置:文档之家› 第10章 模板匹配与模式识别技术

第10章 模板匹配与模式识别技术


i m j n
[ f ( x i, y j) F ]
m
m
n
i m j n
[ f ( x i, y j) F ]
n

2
i m j n
[t (i j ) T ]
i m j n
m
n

m
2 [ t ( i , j ) T ]
图像的傅立叶描述子: ( a0, a1, a2, a3, a 4, a5, b1, b2, b3, b4, b5 )
…… 样板图像的特征参数称为样本。不同的样板图像有不同的样本值。 通过提取特征参数,使表示图像的数据大大减少。
10. 2. 3 特征参数优化 (1) 特征参数选择 从 m 个特征参数中,选出 n ( n < m ) 个区分性、独立性、可靠 性好的特征。
n
对目标图像灰度规范化
简写为:
对样板图像灰度规范化
R( x, y) f ( x i, y j) t (i, j)
滑动模板匹配算法: 将各个模板规范化; Rm=0; for( x = m; x< M - m; x++ ) { //遍历图像上有效区域的所有像素 for( y = n; y< N - n; y++ ) { 对模板下面的图像规范化; 计算各个模板在 ( x, y ) 点的相关度 R; if( Rm < R ) { Rm = R; //总是保存较大的相关度 xc = x; yc = y; Temp=取得最大相关度的模板编号; } } } 结果:Rm为最大相关度; (xc,yc) 为最大相关度发生的位置; Temp为取得最大相关度的模板编号。
第10章 模板匹配与模式识别技术 10.1 模板匹配
10.2
10.3
统计模式识别
结构模式识别法
10.4
人工神经网络识别法
10.1
10.1.1 模板匹配的原理
模板匹配
模板: 待识别目标的标准图像,也称为样板。 例如:汽车牌照识别中使用的部分模板图像:
模板匹配: 将模板放在图像上滑动; 每滑动一个像素点,求重合区域的相关度(相似程度) ; 当相关度达到最大时,模板下面的图像就是待识别的目标。
利用现有的样本矢量,对各种判别函数进行试验,当某判别函数能将 各样本在特征空间划分开来,且各类样本之间的距离最大时,该函数就是 希望的判别函数,可作为实际识别中采用的判别函数。 上述试验过程称为“学习”,学习的目的是选择一个最佳的判别函数。 x1 g1 a(x) 类别1 a(x)
x2 …… xn 输入样本X
10.3
结构模式识别法
当我们提取到目标的特征矢量后: 按上面讨论的分类方法,是让特征矢量的各个分量一齐参加分类。 结构模式分类法,研究组成特征矢量的各个分量的构造机制,按结 构层次逐步推理,最后实现将目标归到某一类。 结构模式分类法内容丰富,本节介绍文法(句法)和树分类法。
10.3.1 文法(句法) 用 形式语言(数理语言)来描述目标。 引例:用形式语言描述字符 “A” 和 “4” 定义符号集 { a, b, c, d } c d c b
10.2
(1) 生成样本库 输入样 板图像 特征 参数 提取
统计模式识别
10.2.1 统计模式识别的基本思想
特征 参数 优化
得到样本库,备用。 每个样板图像都有一 组特征参数。
(2) 对待识别的目标图像,按同样的算法,得到优化后的特征参数 输入待 识别图 像 特征 参数 提取
特征 参数 优化
得到一组特征参数
例:以直线穿越字符笔画的次数作为特征参数,如下表。
l4
l1 l2 l3
l5 是孔数
l1
l2 l3 l4 l5
2
2 2 2 1
1
1 1 1 0
2
1 2 3 0
1
1 1 3 0
1
2 1 2 1
1
2 2 3 0
1
1 2 3 1
1
1 1 2 0
2
1 2 3 2
2
2 1 3 1
在5个特征中选择 4 个,有 5 种选法。究竟选哪种好? 从独立性看 —— 去掉 l2 或 l3 均可; 从区分性看 —— 去掉 l2 较好。因 l3中的数据有较大的熵。
类别3
最小距离
类别3
最近邻距离
(2)线性判别函数
g(X)=a· X+b 是多维空间的平面。 只能将各样本划分为两类,用于 2 类识别问题。 类别1
类别2 线性判别
a· X+b
3
统计决策理论 ——贝叶斯( Bayes)决策
引例: 设在模板匹配的汽车牌照识别中,因字符模糊,求得第1字符为 “湘”的相关度为0.79;为“浙”的相关度为0.80。 因相关度接近,不能判定是二者中的哪一个。但是,如果在湖南, 判定为“湘”的正确度要远远高于“浙”;反之,如果在浙江,判定为 “浙”的正确度要远远高于“湘”;
分类结果 : X 属于“湘”
要使用似然法,必须先求出 P (i ) 和 p( X | i )
P (i )
可由大量统计数据获得,称为先验概率; 计算概率的函数。算出待识别目标 X 属于第 i 类的概率。
p( X | i )
问题: p( X | i ) 函数是什么函数? 假定: p( X | i ) 为正态分布函数:
| x
i 1
n
i
yi |
相关度:
X Y X Y
距离越大(或相关度 越小),表示两矢量的差别越大。
用距离函数可计算样本类之间的距离。有两种计算方法。
最小距离 最近邻距离 类别1 各类之间的距离 各类中最靠近的样本之间的距离 类别1 d12
d12 d13 d23 类别2
d13
d23 类别2
p( X | i ) (2 )
n / 2
1 1 exp[ ( X U i )T ( i ) 1 ( X U i )] 2 | i |
其中: Ui 是第 i 类样本矢量的平均矢量。 i 是第 i 类样本的协方差矩阵, (i )1 是 i 的逆矩阵, | i | 是 的行列式值。 i
(...)T 是矢量或矩阵的转置运算。
Bayes分类操作步骤: ① 由大量实际数据统计出各类目标出现的概率 P (i ) ; ② 采集一批样本,提取各样本的特征,由特征求出计算实际目标属于
样本中的哪一类的概率函数 p( X | i ) ;
③ 对实际目标进行分类: 计算似然度: p( X | i ) P (i ) 分类判别式: 取似然度最大者。 似然法的特点: 要求各类样本的特征矢量形成正态分布。否则将产生分类错误。
g2
max
gn 判别函数集 选择
……
类别3
类别2
特征空间
常用判别函数
(1)距离函数 设两矢量分别为:
X ( x1, x2 ,..., xn ),
则 X 和 Y 之间的距离为:
欧几里德距离:
n
Y ( y1, y2 ,..., yn )
1/ 2
2 ( x y ) i i i 1
L 距离:
模板匹配识别目标的特点: (1)与目标的大小、旋转、错切有关。 解决办法: 方法1: 匹配前,先矫正目标的大小、旋转、错切; 目标的定位、大小、旋转、错切检测必须准确。 方法2: 准备各种大小、旋转角、错切角的模板,一一进行匹配; 模板的数量极大,实际中难以应用。
(2) 具有较强的抗干扰能力。 若匹配前目标的大小、旋转、错切矫正良好,则对模糊、污损字符 也能较好地识别。
为消除平均灰度的影响,应先作如下处理:
从 f (x, y) 中减去平均灰度: 从 t (i, j ) 中减去平均灰度:
f ( x, y ) F
t ( x, y ) T
其中,F 为模板下面图像的平均灰度; T 为模板图像的平均灰度。
于是,相关度公式变为:
R( x , y )
i m j n
模板
相关度: 设: 原图像为 f (x, y),尺寸为 M×N。 模板图像为 t (i, j ) , -m ≤ i ≤ m, -n ≤ j ≤ n。
定义: t (i, j )与 f (x, y) 在 (x, y) 处的相关度 R (x, y) 为:
-n -m m
i
R( x , y )
i m j n
10. 2. 4 统计分类 1 统计分类的基本概念 找到一个判别函数 a ( X ) ,能有效地将待识别目标的特征矢量 X划分为几类。 即:当输入特征矢量 X 时,a ( X )的输出为 X 所属的类。
x1 x2 xn
a(X)
输出类号
……
样本输入
判别函数
统计分类分为监督分类和非监督分类。
2
监督分类法
[ f ( x i , y j ) F ] [t (i j ) T ] [ f ( x i, y j) F ]
n 2 i m j n
m
n
i m j n

m

m
2 [ t ( i , j ) T ]
n
或写为:
R( x , y )
(2) 特征参数变换 特征参量实际上是一个多维空间的矢量。记为
X ( x1 , x2 ,..., xn )
例:上例中,剩下的 4 个特征参量记为:
X (l1 , l3 , l4 , l5 )
这是 4 维空间的矢量。每个样本对应此 4 维空间的一个矢量。 对于字符 “0” , X=(2, 2, 2, 2, 1) 由线性代数可知,可以通过线性空间的线性变换,使这10个样本矢 量之间的相关性减少。
相关主题