![深度学习500问:AI工程师面试宝典](https://wfqqreader-1252317822.image.myqcloud.com/cover/753/36511753/b_36511753.jpg)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
1.3 特征值和特征向量
1.3.1 特征值分解
特征值分解可以得到特征值和特征向量。特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么。
如果说一个非零向量v是矩阵A的特征向量,则一定可以表示成下面的形式:
![](https://epubservercos.yuewen.com/738432/19391577501345406/epubprivate/OEBPS/Images/38937-00-034-3.jpg?sign=1739334172-x1jp31qwFPOXp9BDiloczJkKqlJRm0p6-0-87f0364af5f975dc506a73d4b7c0a112)
λ为特征向量v对应的特征值。特征值分解是将一个矩阵分解为如下形式的过程:
![](https://epubservercos.yuewen.com/738432/19391577501345406/epubprivate/OEBPS/Images/38937-00-034-4.jpg?sign=1739334172-nmDvLtS3DlF7tr2UgyXEyvJRUSjCAVSu-0-de68d9076f7491ea9cf0cad212ea36d5)
其中,Q是这个矩阵A的特征向量组成的矩阵,Ψ是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量描述了这个矩阵的变化方向(按照从主要的变化到次要的变化排列)。也就是说,矩阵A的信息可以由其特征值和特征向量表示。
1.3.2 奇异值和特征值的关系
我们将矩阵A的转置矩阵AT乘以A,并求AAT的特征值,则有下面的形式:
![](https://epubservercos.yuewen.com/738432/19391577501345406/epubprivate/OEBPS/Images/38937-00-035-1.jpg?sign=1739334172-oyxuAdurDjkpSnMy4ou2Gw98YB09809U-0-03e3886b5f17833d50fccbd3f7954366)
这里v就是右奇异向量,AAT的特征值为λ1,λ2,…,λm则:
![](https://epubservercos.yuewen.com/738432/19391577501345406/epubprivate/OEBPS/Images/38937-00-035-2.jpg?sign=1739334172-0fOFKdrNmRlfQUstbNLJsIFNnRLKdYoR-0-e3d78a63026a6a23dbe89d6f8faa1bee)
这里的σ就是奇异值,u就是左奇异向量。奇异值σ和特征值类似,在矩阵Ψ中也是从大到小排列的,而且σ的减小特别快。在很多情况下,前10%甚至1%的奇异值之和就占了全部奇异值之和的99%以上。也就是说,我们也可以用前r(r远小于m、n)个奇异值来近似描述矩阵:
![](https://epubservercos.yuewen.com/738432/19391577501345406/epubprivate/OEBPS/Images/38937-00-035-3.jpg?sign=1739334172-7T7R2kIXzm1YXKNhqVIA17zEJkElihZT-0-942145aa8753906fb895ef4f5d6fc4a1)
右边的三个矩阵相乘的结果将会是一个接近于A的矩阵。在这里,r越接近于n,相乘的结果就越接近于A。