浅谈矩阵的特征向量特征值的意义
描述了矩阵的特征向量和特征值的定义,简述了矩阵的特征向量特征值在数学、物理、信息和哲学上的一些意义,对于从多角度深入理解矩阵的特征向量特征值有积极意义。
标签:线性代数;矩阵;特征向量;特征值
1 线性变换与矩阵的特征向量特征值[1]
线性变换是指一个n维列向量被左乘一个n阶矩阵后得到另一个n维列向量,它是同维向量空间中的把一个向量线性映射成了另一个向量。
即
Y=AX (Y,X∈Rn A=(aij)A=(aij)n×n)
如果对于数λ,存在一个n维零列向量X(即X∈Rn且X≠0),使得
AX=?姿X
则称数λ为矩阵A的一个特征值,X为矩阵A对应于λ的特征向量。
在线性代数中研究线性变换就是研究相应的矩阵A,矩阵A的特征向量和特征值是线性变换研究的重要内容。
2 在数学上的意义
矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。
在这个变换的过程中,原向量主要发生旋转、伸缩的变化。
如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值。
这里可以将特征值为负,特征向量旋转180度,也可看成方向不变,伸缩比为负值。
所以特征向量也叫线性不变量。
特征向量的不变性是他们变成了与其自身共线的向量,他们所在的直线在线性变换下保持不变;特征向量和他的变换后的向量们在同一根直线上,变换后的向量们或伸长或缩短,或反向伸长或反向缩短,甚至变成零向量(特征值为零时)[2]。
对对称矩阵而言,可以求得的特征向量是正交的,就是把矩阵A所代表的空间,进行正交分解,使得A的向量集合可以表示为每个向量a在各个特征向量上面的投影长度。
例如,对于x,y平面上的一个点(x,y),我对它作线性变换A,
这个线性变换相当于关于横轴x做镜像。
我们可以求出矩阵A的特征向量
有两个[1,0]和[0,1],也就是x轴和y 轴。
什么意思呢?在x轴上的投影,经过这个线性变换,没有改变。
在y轴上的投影,乘以了幅度系数-1,并没有发生旋转。
两个特征向量说明了这个线性变换矩阵对于x轴和y轴这两个正交基是线性不变的。
对于其他的线性变换矩阵,我们也可以找到类似的,N个对称轴,变换后的结果,关于这N个对称轴线性不变。
这N个对称轴就是线性变换A的N个特征向量。
谱定律告诉我们一个线性变换可表示为它的所有的特征向量的一个线性组合,其中的线性系数就是每一个向量对应的特征值。
矩阵的特征向量特征值可以研究傅立叶变换对应的频率谱、求概率分布的功率谱密度、统计上的主成分分析,微分方程的特征函数等。
3 在物理上的意义
一个物理系统,其特性可以被一个矩阵所描述,那么这个系统的物理特性就可以被这个矩阵的特征值所决定,这个矩阵能形成“频率的谱”,就是因为矩阵在特征向量所指的方向上具有对向量产生恒定的变换作用:增强(或减弱)特征向量的作用。
进一步的,如果矩阵持续地叠代作用于向量,那么特征向量的就会凸现出来。
各种不同的信号(向量)进入这个系统中后,系统输出的信号(向量)就会发生相位滞后、放大、缩小等各种纷乱的变化。
但只有特征信号(特征向量)被稳定的发生放大(或缩小)的变化。
如果把系统的输出端口接入输入端口,那么只有特征信号(特征向量)第二次被放大(或缩小)了,其他的信号如滞后的可能滞后也可能超前。
例如一个驻波通过一条绳子,绳子上面的每个点组成一个无穷维的向量,这个向量的特征向量就是特征函数sin(t),因为是时变的,就成了特征函数。
每个点特征值就是每个点在特定时刻的sin(x+t)取值。
再如,从太空中某个角度看地球自转,虽然每个景物的坐标在不断的变换,但是这种变换关于地球的自传轴有对称性,也就是关于此轴的平移和拉伸的坐标变换不敏感。
所以地球自转轴,是地球自转这种空间变换的一个特征向量。
矩阵的特征向量特征值在材料、力学、电学等方面也有重要的应用。
4 信息处理上的意义
由于这些投影的大小代表了A在特征空间各个分量的投影,那么我们可以使用最小2乘法,求出投影能量最大的那些分量,而把剩下的分量去掉,这样最大限度地保存了矩阵代表的信息,同时可以大大降低矩阵需要存储的维度,简称PCA方法。
[3]
线性变换PCA可以用来处理图像。
如2维的人像识别:我们把图像A看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。
用A乘以这个n个特征向量,得到一个n维矢量a,也就是A在特征空间的投影。
今后在识别的时候同一类的图像(例如,来自同一个人的面部照片),认为是A的线性相关图像,它乘以这个特征向量,得到n
个数字组成的一个矢量b,也就是B在特征空间的投影。
那么a和b之间的距离就是我们判断B是不是A的准则。
又如Google公司的PageRank,也是通过计算一个用矩阵表示的图。
这个图代表了整个Web各个网页“节点”之间的关联。
用特征向量来对每一个节点打“特征值”分
5 哲学上的意义
矩阵的特征向量特征值是把向量和矩阵作为一个整体,从部分的性质出发,推到出整体的性质,再由整体的性质得到各种应用和物理上的概念。
如何知道一个矩阵的局部其实对应于另一个矩阵上不同位置的局部呢?这仍然只是一个主观的先验的直觉主义的判定!计算机不过是纸和笔的变形,它不能理解意义——即使1+1=2这样的运算结果,它本身也不能判定对錯。
如果它咨询别的计算机来判断对错呢——别的计算机又如何能自我证明对错?根本不能,必须等到一个主体的“人”来观察这个结果,这个结果才会变得有意义。
形而上学的理论,也没有超出经验主义的牢笼。
[4]
参考文献
[1]王萼芳,石生明.高等代数(第3版). 北京:高等教育出版社,2003.
[2]尤承业.解析几何[M].北京:北京大学出版社,2004.
[3]闫常浩,丁先锋,韦鑫余.人脸识别算法[J].四川兵工学报,2011,04.
[4]Stewart Shapiro.数学哲学[M].上海:复旦大学出版社,2009.。