当前位置:文档之家› 线性空间中范数的选取及其基本定理的应用举隅

线性空间中范数的选取及其基本定理的应用举隅

线性空间中范数的选取及其基本定理的应用举隅摘要:本文首先从线性赋范空间中范数的定义出发对范数的选取及构建条件做出讨论,举了一个特征量不能成为范数的例子。

继而基于范数的性质和推论,研究了范数应用的两个实例,即具有普遍意义的方程组迭代法敛速收敛问题,和分类数学模型中的准范数——马氏距离。

关键词:范数;向量;算子引言随着人们认识世界的不断升华,数量的概念从一维的数、二维的平面向量、三维的空间向量已经发展到n维乃至无穷维线性空间中的向量,后者虽然是抽象,但在其理论指导下的实际应用却十分广泛,例如由向量刻画的线性方程组的解在规划问题、有限元设计问题中的价值就是十分基本的。

为了对线性空间及其向量实施拓扑结构与代数结构的研究,赋予它一个“距离”概念(或是准“距离”概念十分重要),这就是范数(及拟范数、准范数)的由来,由此导出的线性赋范空间或线性准赋范空间为近现代科学的发展提供了坚实的基础。

范数是满足一定条件的可以用于度量向量和向量间关系的特征量,对于不同的问题,对于研究向量的不同方面,可以再满足条件的基础上选择或构造范数。

其中有些范数是基本的,有些则可充分发掘问题内涵加以构造,结合范数的相关性质定理得到需要的结论,甚至为新理论的产生做出推动。

比较范数这样的线性空间中有着丰富内涵和特点的数量关系和我们对基本的低维空间的认识,我们会看到在诸多科学问题中,前者更阐明了问题的核心,指向了问题的本质。

在一些普遍问题或特有的建模问题中,提供了更好的解决方案。

1范数定义和范数选取条件的讨论范数(标记为‖·‖)是线性赋范空间中基本与重要的概念,对于向量范数,基于以下的定义,人们一般认为它是欧氏空间中距离概念的推广:(1)正定性:对任意向量x,‖x‖≥0,当且仅当x=0时‖x‖=0;(2)正齐性:对任意向量x,α∈R,有‖αx‖=|α|‖x‖;(3)三角不等式:对任意向量x,y,‖x+y‖≤‖x‖+‖y‖。

而对于线性赋范空间上的映射——算子(标记为T),可以构造如下的算子范数:(对于向量范数‖·‖*,如此定义的算子范数‖·‖*称为由向量范数导出的算子范数)。

由此推出,算子范数的以下几点性质是基本的:(1)正定性:当T≠θ时,‖T‖>0,当T=θ时,‖T‖=0;(定义θ(x)=0)(2)正齐性:设c为实数,则‖cT‖=|c|‖T‖;(3)三角不等式:‖T1+T2‖≤‖T1‖+‖T2‖;(4)‖Tx‖≤‖T‖‖x‖;(5)‖T1T2‖≤‖T1‖‖T2‖。

出于上述要求,可以在满足定义条件的基础上,按照需要构造范数,结合范数的连续性和等价性定理,得到一些美妙的结论。

尤其在向量序列收敛的情况下,适当选取的范数比传统的欧氏距离理论具有更大的适定性,也有更好的应用价值。

要使向量或算子的某个特征能成为范数,必须经过以上定义中几点的检验,例如对于任意的向量x=(x1,x2,…,xn) ,最基本的向量范数‖x‖∞=max(|x1|,|x2|,…|xn|) ,‖x‖1=|x1|+|x2|+…|xn|,‖x‖2=(x12+x22+…+xn2)1/ 2 就是满足向量范数定义三条件的。

但并非任意构造范数都是满足定义的,下面就算子的一个特征量不能成为范数给出例子:例设Tx=Ax,其中x是任意n维向量,A是n阶矩阵,设λi是矩阵A的特征值,定义ρ(T)=max|λi|是算子T的谱半径,证明ρ(T) 不能成为T的范数。

证明:显然,对任意n维向量x, Ax是n维向量,Tx=Ax是n维赋范线性空间的算子,举反例说明ρ(T)不能成为T的范数,设则ρ(T1)=ρ(T2)=0,而ρ(T1+T2)=1,不满足三角不等式ρ(T1+T2)≤ρ(T1)+ρ(T2) ,由此例可以看出ρ(T)不能成为T的范数。

2范数的几个基本重要性质及其推论定理1(范数连续性):范数‖x‖是x的连续函数,即当xn→x时‖xn‖→‖x‖。

推论:当且仅当xn→0时,‖x‖→0,进而对于任何有界算子,‖Tx‖→0(T≠)。

定理2(范数等价性):向量(或算子)的一切范数都是等价的,即对任意两种范数‖·‖α,‖·‖β,存在和K(表示向量或算子)无关的常数m,M,使得对一切非零向量(或算子)K,恒有0<m‖K‖α≤‖K‖β≤M‖K‖β<∞。

推论:对任何的算子范数‖T‖α, ‖T‖β,有。

定理3(压缩映像原理):设由迭代格式x(k+1)=Tx(k)+g,设算子T的某种范数‖T‖<1 ,则此迭代格式收敛。

进而对于由此格式求解的任何方程或方程组,有惟一解α,并有误差估计式‖x(k)-α‖≤‖T‖k‖x(0)- α‖。

3范数基本定理应用举隅3.1线性方程组迭代解法收敛速度的检验对于较复杂线性方程组的求解,尤其当它的系数矩阵是大型稀疏矩阵时,各类基本迭代法的应用是极其广泛的。

它的思想是“步步为营”,对于任意给定的n 维初始向量x(0)(基于压缩映像原理,初始向量选择的好坏并不重要),构造迭代格式x(k+1)=Gx(k)+g(G∈Cn×n,称为迭代矩阵),使序列{x(k)} 收敛,即对于预定的精度ε,有|x(k+1)-x(k)|<ε,根据压缩映像原理,易证此时x(k)→x (解向量)。

对于方程组Ax=b,我们可以看到算子作用的迭代矩阵应有怎样的构成,我们将A进行A=M-N的分裂,则有Mx+Nx+b,从而由迭代格式两边取极限,得到x=Gx+g可知G=M-1N,从而压缩映像原理揭示出,迭代格式的收敛和对A进行不同的分裂有关。

在确认了各种迭代法的敛散性后,人们想比较的是对于那些收敛的迭代法,谁的收敛速度快、效率高。

这里让我们考察一下在迭代法收敛速度的比较中范数所起的作用,并进一步研究范数的相关性质定理会带给我们怎样的更好的审敛手段。

3.1.1矩阵范数与迭代格式的审敛法左乘矩阵作为线性赋范空间向量间的一种映射,其范数具有算子范数的一般特征,另外矩阵有几个基本的特殊范数‖·‖∞(行和范数)、‖·‖1(列和范数)、‖·‖2(谱范数)。

‖A‖2是ATA的最大特征值的平方根。

设迭代格式x(k+1)Gx(k)+g收敛,定义绝对误差向量ε(k)=x(k)-x,则递推得到ε(k)=Gε(k-1)=…=Gkε(0),所以。

对于向量,‖x‖∞=max(|x1|,|x2|,…|xn|),‖x‖1=|x1|+|x2|+…|xn|,‖x‖2=(x12+x22+…x32)1/2 , 比较定义可知,为了比较收敛性,考察误差向量ε(k),取‖·‖2是最合理的。

由得。

我们的结论是:(1)迭代法收敛即‖ε(k)‖2≤‖ε(0)‖2的充分条件是‖G‖2<1;(2)当‖Gk‖2≤η 时,必有‖ε(k)‖2≤η‖ε(0)‖2。

关于得到精度使绝对误差的模不大于原来的η倍时所需的迭代步,我们有估计式如下: ,分母即我们由范数等价性导出的式子的自然对数值。

3.1.2矩阵谱半径和收敛速度的更好的度量定义:设A为任一n阶复方阵,λi是矩阵A的特征值,把实数ρ(A)=max|λi| 称为矩阵A的谱半径。

(——上文已证,谱半径不可能是一个矩阵的范数。

)引理1对于任何由向量范数导出的矩阵范数‖·‖,有ρ(A)≤‖A‖。

引理2给定任一正数ε,必定存在一种向量范数‖·‖*,使得由此而导出的矩阵范数‖·‖* ,满足条件:‖B‖*≤ρ(B)+ ε。

将G用其若当标准型替换,可得到结论: ,结合范数等价性定理的推论,得到推论:对于任意矩阵范数‖·‖,。

这个推论是重要的,在前文提及的迭代步的预估中,结论受到k 本身的影响,不具有一致性,而在这里,我们却可以用ρ(G) 把,用-lnρ(G) 把替换掉,从而定义:设迭代格式x(k+1)=Gx(k)+g收敛,则称R(G)=-lnρ(G)为迭代格式的收敛率。

在此基础上,得到新的迭代步的估计式k≈-lnη/R(G) 。

应该指出,上述的用ρ(G)代换是有条件的,此时迭代步k 较大,精度要求较高,但我们仍然可以肯定地说,ρ(G) 越小,收敛率将越大,收敛也将越快。

3.2多参数对象分类与马哈拉诺比斯(Mahalanobis)距离法在上述用迭代法求解线性方程组收敛速度的讨论中,我们充分运用了向量范数、矩阵范数的重要定理,看到了适当选取范数不仅可以较好地讨论问题,也可以为进一步更好地讨论问题,引入新的工具提供理论基础。

在线性赋范空间中,范数及其选取、范数性质的重要性可见一斑。

下面我们还将引入一个更加生动的例子,从而理解范数并不是死板的而是可以在满足定义三条件的基础上科学地构造的,这个例子中我们将比较传统的欧式距离与马哈拉诺比斯(Mahalanobis)距离,看到在应用层面上,适当选取范数的有效性、适定性。

3.2.1问题的给出:考古学家试图根据骨骼架的身高和腿长的差异,对两种远古人群的种族进行分类(分别称作A族和B族),已测得如图所示的9副A族与6副B族的有关数据,具体要求是:(1)根据如上资料,制定一种方法,正确地区分两个种族;(2)另有三副类别未知的骨骼标本,已知其身高和腿长,用所得的方法加以识别。

3.2.2欧式距离法对问题的分析:以腿长为横轴、身高为纵轴建立平面直角坐标系,则每一副骨骼样本对应了平面直角坐标系中的一个点。

设μ(1)=(μ1(1),μ2(1),),μ(2)=(μ1(2),μ2(2),)分别是两个种族对应样本总体分布的几何重心,当能正确地划分出两个种族的差异时,μ(1),μ(2)显然是平面直角坐标系中两个不同的点。

我们可以引入这样的思考,对于任意给定的一个样本x=(x1,x2),只需要检验它到底离哪个分布的几何重心的距离更近,即分别计算它与μ(1),μ(2)的欧式距离:,把x归入‖x-μ(k)‖2,k=1,2小的一类。

在实际计算中,μ(1),μ(2)用样本估计值代替,即分别计算两类已知样本身高与腿长的平均值,对于μ(k),k=1,2中的分量,取已知样本身高和腿长的平均值。

当特征量的个数不只两个,乃至可以推广到n个时,这里每个样本点就成为n 维空间上的一个向量,向量范数‖x‖2=(x12+x22+…+xn2)1/2就提供了这样一种指标,度量每个随机向量对样本平均水平的迫近情况,从而将样本归为欧式距离‖x-μ(k)‖2较小的种群。

但这样的划分是有问题的,它首先忽略了样本中的每项特征参数作为随机变量的分布情况,因为在不同的分布中概率随欧氏距离的变化情况是不一样的,其次它也没有考虑各项参数间分布水平的差异,在不同参数方向上定义了相同的尺度。

从而这种欧氏距离的分类显得粗糙,有时甚至存在这样的可能,因为某些种群本身是向善的,另一些种群则是向恶的,粗糙的分类可能带来很不好的结果,例如在判断患者的肿瘤是良性还是恶性的问题上。

相关主题