二八、特征向量和特征值

1. 定义

任意满足等式:

T(\vec{v}) = \lambda \vec{v} \quad and \quad \vec{v} \neq \vec{0}

的向量,称为变换T的特征向量,向量前的比例因子称为特征向量的特征值:

\begin{align*} \vec{v} &: eigenvector \\ \lambda &: eigenvalue \end{align*}

为什么要讨论特征向量和特征值?因为特征向量是一组很好的基向量,变换矩阵在计算上非常简单。零向量无法作为基向量

2. 特征值公式

det(\lambda I_n - A) = 0

证明:

T: R^n \to R^n

T(\vec{v}) = A \vec{v} = \lambda \vec{v}

A \vec{v} = \lambda I_n \vec{v}

(\lambda I_n - A) \vec{v} = \vec{0}

假设

B = \lambda I_n - A

因此

B \vec{v} = \vec{0}

\vec{v} \in N(B)

因为向量v不等于0向量,所以B的零空间包含有非平凡元素,所以B的列向量是线性相关的,所以B不可逆,所以B的行列式等于0:

det(B)=0

det(\lambda I_n - A) = 0

3. 特征向量

特征多项式(characteristic polynomial):由特征值公式生成的多项式称为特征多项式

特征空间(eigenspace):某特征值对应的所有向量构成的集合,称为特征空间

特征向量(eigenvector):特征空间中的向量,称为特征向量

E_{\lambda} = N(\lambda I_n - A)

每一个特征值对应一个特征空间,每一个特征空间包含无限个特征向量。(特征向量和标准正交基好像没什么关系,两个特征空间并不正交)

4. 特征基有利于构造合适的变换矩阵

假设原变换矩阵A有n个线性无关的特征向量(这个不是一定成立,但我们可以计算出来),由特征向量构成Rn的一组基(特征基),则新的变换矩阵为:

B = \left \{ \vec{v}_1, \vec{v}_2, \cdots, \vec{v}_n \right \} \quad L.I \: eigenvectors

D = \begin{bmatrix} \lambda_1 & 0 & \cdots & 0\\ 0 & \lambda_2 & \cdots & 0\\ \cdots & \cdots & \cdots & \cdots \\ 0 & 0 & \cdots & \lambda_n \end{bmatrix}

新的变换矩阵非常好,很好相乘,很好转置,很好算行列式。向量是现实世界的抽象表示,可以用来表示股票收益,或表示天气等。我们可以使用特征向量和特征值,改变基,使得可以用一种更简单的方法来解决问题

证明:

因为

\vec{v}_1 = 1 \vec{v}_1 + 0 \vec{v}_2 + \cdots + 0 \vec{v}_n

\vec{v}_2 = 0 \vec{v}_1 + 1 \vec{v}_2 + \cdots + 0 \vec{v}_n

\cdots

T(\vec{v}_1) = A \vec{v}_1 = \lambda_1 \vec{v}_1 = \lambda_1 \vec{v}_1 + 0 \vec{v}_2 + \cdots + 0 \vec{v}_n

T(\vec{v}_2) = A \vec{v}_2 = \lambda_2 \vec{v}_2 = 0 \vec{v}_1 + \lambda_2 \vec{v}_2 + \cdots + 0 \vec{v}_n

\cdots

T(\vec{v}_n) = A \vec{v}_n = \lambda_n \vec{v}_n = 0 \vec{v}_1 + 0 \vec{v}_2 + \cdots + \lambda_n \vec{v}_n

因此,v1,v2, T(v1), T(v2)等在基B下的坐标为:

\left [ T(\vec{v}_1) \right ] _B = \begin{bmatrix} \lambda_1 \\ 0 \\ \cdots \\ 0 \end{bmatrix} = D \left [ \vec{v}_1 \right ] _B = \begin{bmatrix} \vec{d}_1 & \vec{d}_2 & \cdots & \vec{d}_n \end{bmatrix}\begin{bmatrix} 1\\ 0\\ \cdots \\ 0 \end{bmatrix} = \vec{d}_1

\left [ T(\vec{v}_2) \right ] _B = \begin{bmatrix} 0 \\ \lambda_2 \\ \cdots \\ 0 \end{bmatrix} = D \left [ \vec{v}_2 \right ] _B = \begin{bmatrix} \vec{d}_1 & \vec{d}_2 & \cdots & \vec{d}_n \end{bmatrix}\begin{bmatrix} 0\\ 1\\ \cdots \\ 0 \end{bmatrix} = \vec{d}_2

因此:

\vec{d}_1 = \begin{bmatrix} \lambda_1\\ 0\\ \cdots\\ 0 \end{bmatrix} \quad \vec{d}_2 = \begin{bmatrix} 0\\ \lambda_2\\ \cdots\\ 0 \end{bmatrix} \quad \cdots

D = \begin{bmatrix} \lambda_1 & 0 & \cdots & 0\\ 0 & \lambda_2 & \cdots & 0\\ \cdots & \cdots & \cdots & \cdots\\ 0 & 0 & \cdots & \lambda_n \end{bmatrix}

猜你喜欢

转载自blog.csdn.net/gutsyfarmer/article/details/104456603