如果你把A*x=lambda*x中的A看做一种变换,一种作用,那么那些在这种作用下,只改变长短不改变方向的那些向量x就是特征向量,而特征值就是lambda,是伸缩系数,起能量增幅或者削减作用。
特征值特征向量在各学术领域均有很高级的作用,首先介绍PCA,主成分分析。如果你面前有大维数组,处理起来非常棘手,直接带入问题处理速度又慢,第一想法就是能不能从中取出最有用,最有代表性的内容,俗话说:捞干的。回想tr迹这个性质,trA=A所有特征向量的和,主对角线元的意义非凡,暂且认为主对角线和就是这个矩阵所蕴含的能量。而特征向量就是这些能量集中爆发的方向,如果你很清楚特征分解的几何意义,就知道特征向量就是数据在空间中的对称轴,特征分解就是把其他方面的能量都投影在对称轴上,所以特征分解完或者说投影完,中间就只剩一个对角阵了,非对角元全是0. 此时你把最大的那几个特征向量摘出来,其余的抛掉,如此能很大程度降低你数据的维度,但信息损失仍在可控的范围。假设你求出100个特征值,头五个最大的和能达到这100个和的95%,那么其余95个丢掉,相对应的特征向量也丢掉。此时你的100*100的方阵只剩下5*5了,但信息量保存了95%。 金融业,银行业,保险业大量使用。
互联网,Google的PageRank,就是 对www链接关系的修正邻接矩阵的,主要特征向量的投影分量,给出了页面平分。也就是搜索排名,凭什么我靠前你靠后。
人像识别,我们把图像A看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。用A乘以这个n个特征向量,得到一个n维矢量a,也就是A在特征空间的投影。
还有聚类分析,信号处理等等。所以这块你一定要学透。
温馨提示:答案为网友推荐,仅供参考