作为一个刚进入研究生院的学生,我会在这里记录我的学习过程。 目前正在整理机器学习所需的在线知识。 记录的内联知识大部分是研究生以外的知识点。
分解矩阵的方法可以显示在矩阵的元素排列表示中不明显的信息。 一个最广泛使用的矩阵分解被称为特征分解,其中将矩阵分解为一组特征向量和特征值。 方阵a的特征向量是非零的向量v,乘以a只改变v的比率。
Av=v
在这里,标量是与该特征向量对应的特征值。 我们也可以找到左特征向量并设为A=,但是我们通常对右特征向量感兴趣。 如果v是a的特征向量,则对于sR,任何定标的向量sv都是特征向量并且s 0。 另外,sv仍然具有相同的特征值。 因此,通常只查找单位特征向量。
将V=[,],=[,],a的特征分解如下:
每个实对称矩阵可以仅通过实值特征向量和特征值分解为一个方程:
其中,q是由a的特征向量构成的正交矩阵,是对角矩阵。 特征值与q的第I列的特征向量相关联,标记为。 每个实对称矩阵a都保证了一个特征分解,但特征分解不一定是唯一的。 如果任何两个或更多个特征向量共享相同的特征量,则它们醉心的甜瓜空间中的任何正交向量集都是具有该特征量的特征向量,并且可以等效地利用这些特征向量来选择q。