人工智能的几种常用学习规则

学习功能是人智能中最重要的特征之一。神经网络主要由三种因素决定:神经元的特性、网络的连接和学习算法规则。其中,学习算法对网络学习速度、收敛特性、泛化能力等有很大的影响。对各种学习算法规则的研究,在人工神经网络理论与实践发展过程中起着相当重要的作用。当前,人工神经网络研究的许多课题仍然是致力于学习算法规则的改进、更新和应用。

对于大脑神经而言不同的功能区域均有各自的学习规则。这些完整和巧妙的学习规则是大脑在进化过程中通过学习得到的。对于人工神经网络而言,学习方法归根到底就是网络连接权值的调整方法。在这里简要介绍人工神经网络中一些最基本的、最通用的学习算法,这些算法主要有:

(1)Hebb规则:Hebb学习过程最终是发生在神经元之间的突触部位,突触的联结强度随着突触前后神经元的活动而变化,变化的量与两个神经元的活性之和成正比。当神经元突触前膜电位与后膜电位同时为正,突触传导增强,反正,突触传导减弱。该规则是一个无监督学习规则,这种学习的结果是使网络能够提取训练集的统计特性,从而把输入信息按照它们的相似性程度划分为若干类。

神经元激活

(2) Delta规则:也称最小均方差规则,这是最为常用的学习算法,其要点是通过改变单元之间的连接权重来减小系统实际输出与期望输出的误差。这个算法也叫Widrow-Hof算法。

(3) 梯度下降法:这是将数学上的优化方法用于使要求的输出与实际输出之差最小。在这个方法中,加权的修正量正比于误差对加权的一阶导数。虽然这一学习算法收敛到稳定点较慢,但还是被普遍应用的,Delta算法是梯度算法的一个特例。

梯度下降法

(4)误差反向传播(Back Propagation,BP)法:BP算法的基本思想是:学习过程由信号的正向传播与误差的反向逐层传播两个过程组成。

(5)随机训练规则:随机训练算法利用了随机过程,概率和能量关系来调节连接权。

(6)再励(Reinforcement)学习规则:它把学习视为试探评价(奖励或惩罚)过程,学习机选择一个动作(输出)作用于环境之后,使得环境的状态发送改变,并产生一个再励(奖励或惩罚)反馈给学习机,学习机根据再励信号及当前环境状态,再选择下一动作作用于环境。选择的原则,是使得受到奖励的可能性最大。

再励(Reinforcement)学习规则

(7)Kohonen训练规则:这是 Teuvo. Kohonen受生物系统的启发而提出的。它也是无指导训练算法。在训练过程中,处理单元均参加彼此竞争活动,具有最大输出的处理单元是获胜者。该获胜者的结点具有抑制其竞争的能力和激活其临的能力,但是只有获胜结点才允许有输出,也只有获胜者和其近邻结点的加权被允许调节。

(8)Dropout学习规则:Dropout也是防止过拟合的一种方法。基本原理很简单,就是训练时,每次更新参数之前,随机去掉网络中p%的神经元,也即更改了网络结构,让整个网络变得更简单。如果与前面的梯度下降结合起来,那就是每次使用训练集的一个新的mini-batch之前,都随机丢掉网络中p%的神经元,用剩下的神经元进行训练,进行参数更新。然后到使用测试集的时候,使用完整的网络,但所有权重统一乘以(1-p)%。

猜你喜欢

转载自blog.csdn.net/bbbeoy/article/details/80861160