第一章 绪论1.什么是模式具体事物所具有的信息。
模式所指的不是事物本身,而是我们从事物中获得的___信息__。
2.模式识别的定义让计算机来判断事物。
3.模式识别系统主要由哪些部分组成数据获取—预处理—特征提取与选择—分类器设计/ 分类决策。
第二章 贝叶斯决策理论~1.最小错误率贝叶斯决策过程 答:已知先验概率,类条件概率。
利用贝叶斯公式得到后验概率。
根据后验概率大小进行决策分析。
2.最小错误率贝叶斯分类器设计过程 答:根据训练数据求出先验概率 类条件概率分布利用贝叶斯公式得到后验概率 、如果输入待测样本X ,计算X 的后验概率根据后验概率大小进行分类决策分析。
3.最小错误率贝叶斯决策规则有哪几种常用的表示形式 答:4.贝叶斯决策为什么称为最小错误率贝叶斯决策答:最小错误率Bayes 决策使得每个观测值下的条件错误率最小因而保证了(平均)错误率 最小。
Bayes 决策是最优决策:即,能使决策错误率最小。
5.贝叶斯决策是由先验概率和(类条件概率)概率,推导(后验概率)概率,然后利用这个概率进行决策。
6.利用乘法法则和全概率公式证明贝叶斯公式答:∑====mj Aj p Aj B p B p A p A B p B p B A p AB p 1)()|()()()|()()|()(所以推出贝叶斯公式⎩⎨⎧∈>=<211221_,)(/)(_)|()|()(w w x w p w p w x p w x p x l 则如果∑==21)()|()()|()|(j j j i i i w P w x P w P w x P x w P 2,1),(=i w P i 2,1),|(=i w x p i ∑==21)()|()()|()|(j j j i i i w P w x P w P w x P x w P ∑===M j j j i i i i i A P A B P A P A B P B P A P A B P B A P 1)()|()()|()()()|()|(7.朴素贝叶斯方法的条件独立假设是(P(x| ωi) =P(x1, x2, …, xn | ωi) = P(x1| ωi) P(x2| ωi)… P(xn| ωi))8.怎样利用朴素贝叶斯方法获得各个属性的类条件概率分布答:假设各属性独立,P(x| ωi) =P(x1, x2, …, xn | ωi) = P(x1| ωi) P(x2| ωi)… P(xn| ωi)后验概率:P(ωi|x) = P(ωi) P(x1| ωi) P(x2| ωi)… P(xn| ωi)类别清晰的直接分类算,如果是数据连续的,假设属性服从正态分布,算出每个类的均值方差,最后得到类条件概率分布。
均值:∑==mi xi m x mean 11)( 方差:2)^(11)var(1∑=--=m i x xi m x 9.@10.计算属性Marital Status 的类条件概率分布给表格计算,婚姻状况几个类别和分类几个就求出多少个类条件概率。
10,朴素贝叶斯分类器的优缺点 答:分类器容易实现。
面对孤立的噪声点,朴素贝叶斯分类器是健壮的。
因为在从数据中估计条件概率时。
这些点被平均。
面对无关属性,该分类器是健壮的。
相关属性可能降低分类器的性能。
因为对这些属性,条件独立的假设已不成立。
11.我们将划分决策域的边界称为(决策面),在数学上用可以表示成(决策面方程)12.用于表达决策规则的函数称为(判别函数) 13.判别函数与决策面方程是密切相关的,且它们都由相应的决策规则所确定. 14.—15.写出多元正态概率下的最小错误率贝叶斯决策的判别函数,即16.多元正态概率下的最小错误率贝叶斯决策的决策面方程为()()0i j g g -=x x17.多元正态概率下的最小错误率贝叶斯决策,当类条件概率分布的协方差矩阵为I ∧=∑2σi时,每类的协方差矩阵相等,且类内各特征间(相互独立),并具有相等的方差。
18.多元正态概率下的最小错误率贝叶斯决策,如果先验概率相等,并I ∧=∑2σi且i=1,2,...c ,那么分类问题转化为只要计算待测样本x 到各类均值的(欧式距离),然后把x归于具有(最小距离平方)的类。
这种分类器称为(最小距离分类器)。
19. 20.:()ln((|)())i i i g p P ωω==x x 11212()()ln 2ln ln ()2T i i i i i d P πω-=--∑---∑+x μx μ21.多元正态概率下的最小错误率贝叶斯决策,类条件概率密度各类的协方差矩阵不相等时,决策面是(超二次曲面),判别函数是(二次型),第三章 概率密度函数的估计1.类条件概率密度估计的两种主要方法(参数估计)和(非参数估计)。
2.类条件概率密度估计的非参数估计有两种主要的方法(Parzen 窗法)和(KN 近邻法)。
它们的基本原理都是基于样本对分布的(未知)原则。
3.如果有N 个样本,可以计算样本邻域的体积V ,然后获得V 中的样本数k ,那么P(x)=VN K4.假设正常细胞和癌细胞的样本的类条件概率服从多元正态分布 ,使用最大似然估计方法,对概率密度的参数估计的结果为。
。
证明:使用最大似然估计方法,对一元正态概率密度的参数估计的结果如下:5.已知5个样本和2个属性构成的数据集中,w1类有3个样本,w2类有两个样本。
如果使用贝叶斯方法设计分类器,需要获得各类样本的条件概率分布,现假设样本服从多元正态分 布则只需获得分布的参数均值向量和协方差矩阵即可,那么采用最大似然估计获得的w1类的类条件概率密度均值向量为(()3,2转置),以及协方差矩阵为(⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡----422220202)。
第四章 线性判别函数!1.已知两类问题的样本集中,有两个样本。
属于类, 属于类,对它们进行增广后,这两个样本的增广样本分别为 [ y1 =(1,1,-3,2)T,y2 =(-1,-1,-2,3)T ]2.广义线性判别函数主要是利用(映射)原理解决(普通函数不能解决的高次判别函数)问题,利用广义线性判别函数设计分类器可能导致(维数灾难)。
3.线性分类器设计步骤 主要步骤:1.收集训练数据集D={x1,x2,…,xN}111ˆN k k x N μθ∧===∑22211ˆ()Nk k x N σθμ∧∧===-∑(|)(,)1,2i i i p N i ω=∑=x μ1(1,3,2)T x =-2(1,2,3)T x =-2.按需要确定一个准则函数J(D,w,w0)或J(D,a),其值反映分类器的性能,其极值解对应于“最好”决策。
3.用最优化技术求准则函数J 的极值解w*,w*或a*。
—4.最终,得到线性判别函数,完成分类器设计5.线性判别函数g(x)的几何表示是:点x 到决策面H 的(距离的一种代数度量)。
6.增广样本向量使特征空间增加了(一)维,但样本在新的空间中保持了样本间的(欧氏距离)不变,对于分类效果也与原决策面相同。
在新的空间中决策面H 通过坐标(原点) 准则的基本原理为:找到一个最合适的投影轴,使_(类间)在该轴上投影之间的距离尽可能远,而(类内)的投影尽可能紧凑,从而使分类效果为最佳。
8.Fisher 准则函数的定义为 9Fisher 方法中,样本类内离散度矩阵Si 与总类内离散度矩阵Sw 分别为|10.利用Lagrange 乘子法使Fisher 线性判别的准则函数极大化,最终可以得到的判别函数权向量11.叙述Fisher 算法的基本原理。
Fisher 准则的基本原理:找到一个最合适的投影轴,使两类样本在该轴上投影之间的距离尽可能远,而每一类样本的投影尽可能紧凑,从而使分类效果为最佳。
1213.已知两类问题的样本集中,有两个样本。
属于w1类, 属于w2类,对它们进行增广规范化后,这两个样本的规范化增广样本分别为y1=(1,1,-3,2)转置和y2=(1,-1,-2,3)转置。
14.《15.叙述感知准则的梯度下降算法的基本过程。
答:1. 初值: 任意给定一向量初始值a(1) 2. 迭代: 第k+1次迭代时的权向量a(k+1)等于第k 次的权向量a(k)加上被错分类的所0()(*),()(*)T T g x x w g x a y=+=w 12()b F S J w S S =+T b Tw S S =w w w w ()(), 1,2iT i i i D i ∈=--=∑x S x m x m 12w =+S S S *112()w S -=-w m m 1(1,3,2)Tx =-2(1,2,3)Tx =-有 样本之和与pk 的乘积3. 终止: 对所有样本正确分类15感知准则函数16线性判别函数g(x)的几何表示是:点x 到决策面H 的(距离的代数度量) 17.感知机方法主要有两种,批量样本修正法与单样本修正法。
它们之间的区别是什么《答 单样本修正法:样本集视为不断重复出现的序列,逐个样本检查,修正权向量批量样本修正法:样本成批或全部检查后,修正权向量 18.感知准则特点是随意确定权向量(初始值),在对样本分类训练过程中(逐步修正)权向量直至最终确定。
19.对于感知准则函数,满足( )的权向量称为解向量,解向量不止一个,而是由无穷多个解向量组成的解,称这样的区域为(解区域) 。
20.感知准则函数为 极小值时的a 为最优解证明使用梯度下降算法的迭代过程公式~证明:[21.下列哪种分类方法最不适用于样本集线性不可分情况:BA .Fisher 线性判别的Lagrange 乘子法B .感知准则的梯度下降算法C .最小错分样本数准则的共轭梯度法 D .最小平方误差准则的梯度下降法()()kTPY J ∈=-∑y a ay 0T >a y ()()kT P Y J ∈=-∑y a a y (1),(1)()k k y Y a k k y ρ∈⎧⎪⎨+=+⎪⎩∑a a 任意()()pp J J ∂∇=∂a a a()kY ∈=-∑y y (1)()()k p k k J ρ+=-∇a a a ()kk Y k ρ∈=+∑y a y22.多类问题可以利用求两类问题的方法来求解。
这样做的缺点是会造成(无法确定类别的区域增大),需要训练的(子分类器及参数增多)。
23.利用最小平方误差准则函数进行分类器设计,主要是求极小化时的权向量。
当 时,最小平方误差准则函数的解等价于(Bayes)线性判别的解。
24.叙述分类器错误率估计中的留一法的运算过程。
答:个样本,取N-1个样本作为训练集,设计分类器。
2.剩下的一个样本作为测试集,输入到分类器中,检验是否错分。
3.然后放回样本,重复上述过程,直到N 次,即每个样本都做了一次测试。