Table of Contents
I. 重申矩阵的作用
矩阵就是描述线性变换的,线性变换指的是对空间的操作,有一维空间,二维空间,三维空间到无限维空间,一般我们只用到三维,卷积神经网络用到四维,再高维我没用到过,矩阵的每列代表新空间下的新的基向量。
如下图所示,向量(-1,2) 代表 老空间下的位置,矩阵*向量 代表 新空间下的位置
说明: 较浅的白色线是原空间的网格线,深颜色的蓝线是新空间下的网格线
II. 矩阵和线性方程组
1.矩阵的用途
矩阵最大的用途是方便的求解复杂的线性方程组,注意说的是线性,而不再使用小学或初中时学的代入法一点点求解方程组
2.从线性变换角度解释线性方程组
A描述了线性变换,把原来的网格线变成斜的网格线,扭曲了原空间
是老空间下的向量,而是对应的新空间下的向量
现在是你知道了矩阵A,也知道了新空间下的的向量,求老空间下的向量长啥样?
3.矩阵A扭曲空间的几种效果
(1) 共线
运气差的话,你把二维的老空间一变换,得到的新的基向量居然共线了,这你就丢了一个维度
行列式的几何意义是描述了单位区域面积的缩放比例,行列式=0
(2) 不共线
运气还不错,保留二维空间,并且行列式0
III.矩阵的逆
1.矩阵逆的几何意义
逆就是跟你反着来,你顺时针旋转90度,逆就是逆时针旋转90度;你向左剪切变换,逆向右变换
如图,A矩阵代表逆时针旋转,牢记矩阵描述了变换
A的逆就是顺时针旋转,一正一负等于没动弹,所以(E是单位矩阵,代表什么也不做)
所以通过逆矩阵来求解原空间的向量
2.逆矩阵与行列式与方程组的解
(1)逆矩阵与行列式的取值
A的行列式非0
说明新空间保持了维度,可以通过把俩基向量拨回到原空间下的位置来跟踪v的位置的变化来看出x在哪,逆矩阵A^(-1)就是用于把新空间变换到老空间,存在逆矩阵
A的行列式为0
说明新空间丢失了维度,丢失的信息找不回来了,所以没有办法再拨回到原空间,也就不存在逆变换
拨回的过程: 网格线拨回了一点点
拨回来了
(2) 行列式为0一定不存在解吗?
<1> 二维空间下
俩基向量共线时,det(A)=0。这时v向量如果正好和基向量共线
那么一个v可以映射回好多个x
举个实际点的例子,
化简得x+2y=1; 所以x和y的取值有无数多种
当v向量不能用基描述时,说明无解。
<2> 三维空间下
三个基向量共线或共面或共点,同样丢失维度,det(A)=0,所以也没逆变换
当共线时,与压缩成平面相比,解存在的难度更高,因为现在只有一维信息,我们可以用秩来描述当前空间的维度,来表明到底损失没损失维度
IV. 秩
1.秩的几何意义
描述了变换后的空间的维数,线是一维,平面是二维,也就是线性无关的基向量的个数,也就是矩阵线性无关的列向量的个数
原来的二维空间压缩成一根线,2x2矩阵的rank最大为2(矩阵就是变换后的空间的基向量)
原来的三维空间压缩成一个面,3x3矩阵的rank最大为3
2.矩阵的列空间(好像和秩没关,但还是放这里讲了)
矩阵的列空间是指所有基向量的线性组合。为啥叫列空间呢?因为矩阵的列就是变换后的空间的基向量
换个词描述,就是基向量的张成空间,也是列向量的张成空间,咋感觉这么多文字游戏啊!
矩阵的秩也就是列空间的维数,秩达到列数时称为满秩
3.零空间
其实就是在原点的向量,也就是列空间一定包含0向量
如果矩阵满秩的话,也就是新空间没有维度损失,那么只有老空间的零向量能映射到新空间的零向量
举个例子,
化简得到: 2x=0,2y=0,解得x=0,y=0。
下图新空间还是二维,满秩
非满秩情况下有维度损失,比如把二维空间压缩到一根直线
这时新空间的零向量对应原空间的好多向量,为啥呢?
举个例子,
化简得2x+y=0; 所以y=-2x,解确实在一条直线上
总结
1.矩阵的逆代表相反的线性变换
2.行列式为0,说明维度相比原空间有损失,从新空间拨回不到老空间了,也就没有逆变换。也就是降维容易升维难啊
3.秩描述了现在空间的维度