特征值与特征向量

特征值与特征向量


定义

在线性代数中,对于给定的方阵 AA ,它的特征向量在该方阵经过线性变换后,所得到的新的向量与原来的向量在同一条直线上,即方向相同或刚好夹角呈 180°180° ,长度呈比例缩放,则这样的向量称为特征向量,这个比例称为特征值。

更标准地,给定一个向量空间 E\mathbb{E} ,从 E\mathbb{E}E\mathbb{E} 自身的线性变换 TT 是一个保持向量加法和标量乘法这两种运算的函数,例如旋转、反射、错切、压缩,或者这些变换的组合等等。一个线性变换可以通过它们在向量上的作用来可视化。一般来说,一个向量在经过映射之后可以变成任何可能的向量,而特征向量具有更好的性质。

一个线性变换 T:EET : \mathbb{E} \rightarrow \mathbb{E} 的特征向量 vv 是一个非零向量且在这个线性变换下的新向量为 vv 简单地乘以一个标量 λ\lambda 。也就是说存在一个标量 λ\lambda 使得 vv 满足下式:

T(v)=λvT(v) = \lambda v

其中的缩放因子 λ\lambda 称为这个特征向量的特征值,或者说是线性变换 TT 的特征值。反过来,一个实数 λ\lambda 是线性变换 TT 的一个特征值,当且仅当有一个非零向量 vv 满足上面的式子。

所有具有相同特征值 λ\lambda 的特征向量与零向量一起,组成了一个向量空间,称为线性变换的一个特征空间,一般记作 Eλ(T)\mathbb{E}_{\lambda}(T) 。这个特征空间如果是有限维的,那么它的维数叫做 λ\lambda 的几何重数。

变换的主特征向量是模最大的特征值对应的特征向量。有限维向量空间上一个变换的是其所有特征值的集合。

特征向量也可以看做是关于系数 λ\lambda 的方程:

T(x)=λxT(x) = \lambda x

的非零解。显然只有在 λ\lambda 是变换 TT 的特征值之时,方程才有非零解。

计算

特征方程

对于一个线性变换 TT ,其可由矩阵 AA 表示,则有特征方程:

Av=λvAv = \lambda v

移项得:

(AλI)v=0(A - \lambda I)v = 0

由于 v0v \not ={0} ,这意味着 AλIA - \lambda I 必须不可逆,即:

det(AλI)=0det(A - \lambda I) = 0

这个关于 λ\lambda 的方程叫做特征方程

多项式 p(λ)=det(AλI)p(\lambda) = det(A - \lambda I) 叫做特征多项式

由特征方程可以求解得到 λ\lambda 的值,从而对每个特征值 λi\lambda_{i} ,求解齐次线性方程组:

(AλiI)v=0(A - \lambda_{i}I)v = 0

得到的基础解系的非零线性组合就是属于 λi\lambda_{i} 的全部特征向量。

重要性质与计算技巧

特征值与矩阵运算

tr(A)=λ1+λ2+λ3++λn\bullet tr(A) = \lambda_{1} + \lambda_{2} + \lambda{3} + \dots + \lambda_{n} (迹 = 特征值之和)

det(A)=λ1λ2λ3λn\bullet det(A) = \lambda_{1}\lambda_{2}\lambda_{3} \dots \lambda_{n}

A\bullet A 可逆 \Leftrightarrow 所有特征值非零

\bullet ,若 AA 可逆,则 A1A^{-1} 的特征值是 1λi\dfrac{1}{\lambda_{i}} ,特征向量相同。

Ak\bullet A^k 的特征值是 λik\lambda_{i}^{k} ,特征向量相同。

\bullet AAAA 的转置 ATA^T 的特征值相同。AA 的特征多项式和 ATA^T 相同。

\bullet 多项式 p(A)p(A) 的特征值是 p(λi)p(\lambda_{i}) ,特征向量相同。

特殊矩阵的特征值

\bullet 对角矩阵:特征值就是对角元

\bullet 三角矩阵:特征值也是对角元

\bullet 实对称矩阵:特征值全是实数,不同特征值对应的特征向量正交

\bullet 正交矩阵:特征值的模长 λ=1∣λ∣=1

\bullet 幂等矩阵(A2=AA^2 = A ):特征值只能是 0 或 1

\bullet 对合矩阵(A2=IA^2 = I):特征值只能是 1 或 -1

特征值与相似

A=PBP1A = PBP^{-1} ,则 AABB 特征值相同,特征向量满足:若 BB 有特征向量 uu ,则 AA 有特征向量 PuPu

注意事项

1.特征向量必须非零

2.一个特征值对应的特征向量有无限多个(构成特征子空间)。

3.重特征值的特征子空间维数可能小于代数重数,此时矩阵不可对角化。

4.不同特征值对应的特征向量线性无关,所以不同特征值对应的特征空间维数加起来 n≤ n

🐙