李哈哈的模式识别笔记【part 3:感知器算法】

李哈哈的模式识别笔记【part 3:感知器算法】

线性分类器训练的一般思路

人类的思维具有整体性和逻辑性,机器的思维擅长重复性
解区域:
线性判别函数解不唯一,而是位于一个区域,称为解区域。
=>权向量w待定,偏移量w0待定。
一般思路:

  • 首先设定一个标量的准则函数,使其值能够代表解的优劣程度,标准函数值越小,说明解越符合要求。
  • 通过寻找标准函数的最小值,就能找到最优的一个解,使准则函数取得极小值的增光权向量,就是最优解。

这里有必要重新认识一下线性判别函数的通式,可参照下图:
在这里插入图片描述

感知器算法的原理

感知器模型:
是一种最简单的神经元模型,具有多个输入和一个输出,各输入加权求和,与阈值相比较,判断是否激活输出1。
由此可见,感知器模型是一种线性分类器,可以做出二分类决策

准则函数:错分样本的判别函数值之和(Important)
寻优方式:梯度下降法,逐次寻优
不同的具体寻优方式可能出现不同的最优解
哪个才是最优解呢?
在感知器模型中,都是最优解,因为准则函数只与能否将所有样本都正确分类有关,所以只要能够正确分类,就为最优解。

感知器算法的学习速率

感知器算法权向量调整递推公式如下:
在这里插入图片描述
这里的调整步长ρ可以体现调整速率。
另外,调整精度和速度之间是存在矛盾的。
学习速率的各种不同的设定方法:

  • 固定值
  • 绝对修正
  • 部分修正
  • 变步长法
  • 最优步长法

感知器算法的深入分析

  • 感知器算法是首个采用误差反馈学习规则来实现的机器学习算法,模拟了人类的试错过程,逐步逼近客观规律。
    损失函数:
    模型得到的输出和样本对应的真实输出之间的差别,成为损失函数。
    代价函数:
    对具有一定分布的整体的损失函数的数学期望,称为代价函数。

梯度下降的优化方法

批量梯度法 BGD:
对所有成员进行梯度运算,找到代价函数值减小的方向,但计算量相当巨大。
随机梯度下降法 SGD:
每次采用随机的方式寻找权向量,大大降低了运算量,提升了学习速率,同时可以随时加入新的成员,可以实现在线学习。
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_41883714/article/details/109606787