首页 > 编程知识 正文

特征值和特征向量的关系,特征值和特征向量的意义

时间:2023-05-03 09:30:10 阅读:186854 作者:4934

介绍特征向量和特征值在计算机视觉和机器学习中有许多重要的应用。 众所周知的例子是基于PCA (主成分分析)的降维和脸部识别为特征的脸部。 特征向量和特征值的一个有趣应用在我另一篇关于误差椭圆的博文中被提到。 另外,模态分解形成协方差矩阵几何解释的基础。 本文简要介绍了这一数学概念,并给出了如何手动获取二维方阵的模态分解。

特征向量是一个向量,应用线性变换时方向不会改变。 请考虑一下下面的图片。 给出了其中的三个向量。 绿色正方形仅显示应用于这三个向量的线性变换。

这种情况下变换只在水平方向上乘以系数2,在垂直方向上乘以系数0.5,变换矩阵a定义如下。

通过应用此变换向量,缩放到。 上图显示了某些向量(红色)的方向不受此线性变换的影响。 这些向量被称为变换前的特征向量,其唯一地定义方形矩阵a。 这种独特的、确定的关系是这些向量是“特征向量”(Eigen在德语中是“明确的”的意思)。

一般而言,特征向量矩阵a的特征向量满足以下公式:

这里是所谓的“特征值”的标量值。 这意味着向量上的线性变换a完全由定义。

可以改写公式(1)。

这里,I是与矩阵a具有相同维数的单位矩阵。

然而,假设不是空向量,方程式(2)仅在(A-I )是不可逆的情况下才能定义。 如果方阵是不可逆的,这意味着行列式必须为零。 因此,为了找到a的特征向量,解决下面的式子就可以了。

在下一章中,通过求解等式(3)来确定矩阵a的特征向量和特征值。 此示例中的矩阵a定义如下:

为了计算特征值并确定该示例中特征值,将等式4代入等式3的矩阵a,获得:

计算行列式:

为了解决的二次方程,找到了判别式:

判别式严格为正,意味着有两个不同的值:

这样就确定了两个特征值1和2。 请注意,大小为NxN的方阵始终具有n个特征值,每个特征值对应一个特征向量。 模态指定特征向量的大小。

计算最初的特征向量后,现在可以将式(7)的特征量代入式(1)来决定特征向量。 然后通过求解方程组得到特征向量。

首先,关于特征值1,求出对应特征值向量:

因为这只是方程式的矩阵符号,所以可以写出其等价形式:

用x12的函数解决了第一个等式:

由于特征向量只表示一个方向,特征向量的所有标量倍数都是平行于该特征向量的向量,因此是等价的。 如果将向量归一化,则等于。 因此,进一步求解上述方程式,可以自由选择x11或x12的真值,使用式(9)决定另一方。

在本例中,随意选择x12=1,使x11=-1。 因此,与特征值对应特征向量

计算计算第二特征向量的第二特征向量类似于第一特征向量。 这里,将2=4代入方程式(1)时,如下。

用方程式的形式写着:

用x21的函数式求解第一个等式,如下。

然后,我们擅自选择了x21=2,找到了x22=3。 因此,对应于特征值2=4的特征向量如下。

本文回顾了特征值和特征值的理论概念。 这些概念对计算机视觉和机器学习中使用的多种技术非常重要,如利用主成分分析降维,利用特征人脸进行人脸识别等。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。