矩阵代数分解
按课程顺序,讲矩阵分解之前是将矩阵分解。
分析:确定量的特征值的坐标系
分解:矩阵分解 (decomposition, factorization)是将矩阵拆解为数个矩阵的乘积,可分为三角分解、满秩分解、QR分解、Jordan分解和SVD(奇异值)分解等。
几种分解
初等变换 (任意)
方阵 A 与 B 等价的充要条件是存在 m 阶可逆矩阵 P 及 n 阶可逆矩阵 Q ,使 PAQ = B .(差不多就这定理的意思)
三角分解 (任意)
白话:矩阵A换行以后,可以表示为下三角乘上三角矩阵
matlab: [L,U,P] = lu(A)
Cholesky分解(乔里斯基) (实对称正定方阵)
- L为非奇异下三角矩阵。
- 若限定L的对角元素为正,则这种分解是唯一的.
matlab:chol(A)
C.Schur分解 (方阵)
P为酉矩阵,R为对角线为特征值的上三角矩阵
matlab: [P,R]=schur(X)
因为X的特征值有实数解和复数解,所以有
- schur(X,’real’)
- schur(X,’complex’)
QR分解 (列向量线性无关窄方矩阵)
Q为酉矩阵,R为上三角矩阵
matlab:[Q,P]=qr(A)
[Q,P]=qr(A,0) (貌似用来去0行的?)
对角化 (方阵,特征向量有要求n个无关)
一种相似变换(特征值相同的矩阵)
特征值: $\lambda$
特征向量:非零向量$\vec{x}$
特征值的代数多重度:有几重根
特征值的几何多重度:有几个特征向量
有几何多重度<=代数多重度,n重根可能解出n-1个或者n-2个···特征向量,不恰当的例子)
matlab:[V,D]=eig(A) V为特征向量 D特征值
性质:根据基础解系就知道是线性无关的一些性质了
对角分解的推导:
注意到V是要求逆的,因此规定特征向量要有n个线性无关的,这样的矩阵才能进行对角分解
特征值分解
只适用于hermitian矩阵
Jordan标准型 (方阵)
矩阵的条件数:矩阵或系数对解向量的影响
特征值的条件数:矩阵扰动对特征值对影响
谱:所有特征值的集合
谱半径:$max(\lambda)$
谱分解:
- 特征值分解是其的一种特殊形式
- J块个数等于几何多重度,J块总大小等于代数多重度
- 每块大小服从:(貌似知道3阶4阶就行)
- J块形式
应用
基于特征值分解的图像压缩
保留最大的一部分特征值对应的特征向量
主成分分析PCA
如图,数据有两个特征值,保留最大的那个。
Kenrnel PCA
因为普通PCA只能线性变换,对于一些数据可以用kernel PCA做非线性变换。
角点检测
看图像沿不同维度变化的大小
光流估计
运动跟踪?