阿里云 06:神经网络概览及算法详解 01 -- 人工神经网络基础

本文介绍了人工智能的发展历史,基本概念,应用领域;神经元模型,以及神经网络工作原理。



1. 人工神经网络(ANN)及人工智能(AI)

在这里插入图片描述

1.1 智能(Intelligence)

在这里插入图片描述

1.2 人工智能(Artificial Intelligence)

在这里插入图片描述

1.3 ANN的发展历史

在这里插入图片描述
在这里插入图片描述

  1. ANN与大数据
    在这里插入图片描述
  2. ANN的基本特征
  • 结构特点
    • 信息处理的并行性:单个单元处理简单,可以大规模并行处理,有较快的涑度
    • 信息存储的分布性:信息不是存储在网络中的局部,而是分布在网络所有的连接权中
    • 信息处理单元的互联性:处理单元之间互联,呈现出丰富的功能
    • 结构的可塑性:连接方式多样,结构可塑
  • 性能特点
    • 高度的非线性-多个单元链接,体现出非线性
    • 良好的容错性:分布式存储的结构特点使容错性好
    • 计算的非精确性:当输入模糊信息时,通过处理连续的模拟信号及不精确的信息逼近解而非精确解
  • 能力特征
    • 龙自学习、自组织与自适应性:根据外部环境变化通过训练或感知,能调节参数适应变化(自学习),并可按输入刺激调整构建神经网络(自组织)
  1. ANN的基本功能

在这里插入图片描述


2. 神经元模型

2.1 神经元结构

在这里插入图片描述

2.2 生物神经元模型

在这里插入图片描述

2.3 信息处理机制

在这里插入图片描述

2.4 M-P模型

在这里插入图片描述
神经元特点:

  • 多个输入单个输出
  • 多输入累加整合
  • 不同输入仅重不同
  • 阈值特性

M-P模型:是把神经元视为二值开关元件,按照不同方式组合来完成各种逻辑运算。能够构成逻辑与、非、或,理论上可以进而组成任意复杂的逻辑关系,若将M-P模型按一定方式组织起来,可以构成具有逻辑功能的神经网络。
在这里插入图片描述
在这里插入图片描述

2.5 激活函数

激活函数 (Activation Function):也叫连接函数、传递函数、变换函数或者激励函数。用来模拟神经元输出与具激活状态之间的联系:输入达到某个阈值后达到激活状态,否则为抑制态。不同的激活函数,会使神经元具有不同的信息处理特性。**对于神经网络来讲,激活函数的主要作用就是进行线性变换,增加系统的非线性表达能力。**常见的激活函数有:
在这里插入图片描述


3. 神经网络模型

3.1 神经网络模型分类

3.1.1 按照拓扑结构划分

可分为层次结构互连结构

  1. 层次结构:
    在这里插入图片描述
  2. 互连结构
  • 全互连:每个节点都和其他所有节点连接
  • 局部互连:每个节点只与其临近节点有连接
  • 稀疏连接:节点只与少数相距较远的节点有连接
    在这里插入图片描述

3.1.2 按照信息流向划分

可分为前馈性网络和反馈性网络

  • 前馈型网络:网络信息从输入层到各藏层再到输出层逐层前进。
  • 反馈型网络:反馈网络中所有节点都具有信息处理功能,并且每个节点既可以接收输入同时又可以进行输出。
    在这里插入图片描述

3.2 前馈神经网络

前馈神经网络(Feed Forward NN)是一种最简单的神经网络,采用单向多层结构,各神经元分层排列,每个神经元只与前一层的神经元相连。接收前一层的输出,并输出给下一层,各层间没有反馈。

前馈网络包括三类节点:

  • 输入节点(lnput Nodes):外界信息输入,不进行任何计算,仅向下一层节点传递信息;
  • 隐藏节点(Hidden Nodes):接收上一层节点的输入,进行计算,并将信息传到下一层节点;
  • 输出节点(OutputNodes):接收上一层节点的输入,进行计算,并将结果输出;

输入层和输出层必须有,隐藏层可以没有,即为单层感知器,隐藏层也可以不止一层,有隐藏层的前馈网络即多层感知器。
在这里插入图片描述

3.3 反馈神经网络

反馈神经网络(Feed Back NN):又称递归网络、回归网络,是一种将输出经过一步时移再接入到输入层的神经网络系统。这类网络中,神经元可以互连,有些神经元的输出会被反馈至同层甚至前层的神经元。常见的有HopfieId神经网络、Elman神经网络、Boltzmann机等。

3.4 前馈神经网络和反馈神经网络的主要区别

  • 前馈神经网络各层神经元之间无连接,神经元只接受上层传来的数据,处理后传入下一层,数据正向流动;反馈神经网络层间神经元有连接,数据可以在同层间流动或反馈至前层。
  • 前馈神经网络不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系;反馈神经网络考虑输出与输入之间在时间上的延迟,需要用动态方程来描述系统的模型。
  • 前馈神经网络的学习主要采用误差修正法(如BP算法),计算过程一般比较慢,收敛速度也比较慢;反馈神经网络主要采用Hebb学习规则,一般情况下计算的收敛速度很快。
  • 相比前馈神经网络,反馈神经网络更适合应用在联想记忆和优化计算等领域。

3.5 前馈与反馈

在这里插入图片描述


4. 神经元网络学习规则

4.1 基本概念

学习:通过训练使个体在行为上产生较为持久改变的过程,一般来说效果随着训练了的增加而提高,即通过学习获得进步。

人工神经网络的功能由其连接的拓扑结构和网络的连接仅值决定,其全体的权值 w w 整体反映了神经网络对于所解决问题的知识存储。即一旦拓扑结构和权值确定,该网络可以应用于新的数据得到结果。

人工神经网络的学习:通过对样本的学习训练,不断改变网络的拓扑结构及连接权值,使得输出不断的接近期望输出值。

通过训练改变权值的规则被称为学习算法或者学习规则,有时也称作训练规则或者训练算法,学习规则对人工神经网络非常重要。

4.2 学习规则类型

按照一般的分类标准,通常分为三类:

  • 有监督学习学习模式为纠错
    不断的给网络提供一个输入即其期望的正确输出(称教师信号),将ANN的实际输出和期望输出作比较,不符时,按照一定规则调整权值参数,重新计算、比较,直到网络对于给定的输入均能产生期望的输出。则认为该网络训练完成,即已学会样本数据中的知识和规则。即可用于解决实际问题。

  • 无监督学习学习模式为自组织
    学习时不断给网络提供动态输入信息,网络根据特有的内部结构和学习规则,在输入信息流中发现可能的模式和规律,同时根据网络功能和输入信息调整仅值(自组织)。使网络能对属于同一类的模式进行自动分类。该模式网络权值的调整不取决于教师信号,网络的学习评价标准隐含于网络内部。

4.3 赫布法则

4.3.1 由来

在这里插入图片描述
D o n a l d   O .   H e b b Donald \ O. \ Hebb
赫布法则(Heb’s rule):在《The Organization of Behavior》书中解释了学习过程中大脑中的神经细胞是如何改变和调整的,认为知识和学习发生在大脑主要是通过神经元间突触的形成与变化。当细胞A的轴突足以接近激发细胞B,并反复持续地对细胞B放电,一些生长过程或代谢变化将发生在某一个或这两个细胞内,以致A作为对B放电的细胞中的一个效率增加。通俗来讲就是两个神经细胞交流越多,它们连接的效率就越高,反之就越低。

McCulloch-Pitts模型缺乏一个对人工智能而言至关重要的学习机制,M-P模型很好的简化、模拟了神经元,但是无法通过学习的方式调整、优化权重,形成有效的模型。赫布法则的出现,成为神经模型训练(学习机制)的基础性工作。

在这里插入图片描述
И в а н   П е т р о в и ч   П а в л о в Иван \ Петрович \ Павлов
巴浦洛夫的条件反射实验:每次给狗喂食前都先响铃,时间一长,狗就会将铃声和食物朕系起来。以后如果铃响但是不给食物,狗也会流口水。

受此实验启发,Hebb的理论认为在同一时间被激发的神经元间的朕系会被强化。例如,铃声响时一个神经元被激发,在同一时间食物的出现会激发附近的另一个神经元,那么这两个神经元间的联系会被强化,从而记住这两个事物之间存在着联系。相反,如果两个神经元总是不能同步激发,那么它们之间的朕系将会越来越弱。

赫布规则被作为无监督神经网络的学习规则,广泛应用于自组织神经网络、竞争网络中。

4.3.2 赫布学习规则

在这里插入图片描述
赫布学习规则的步骤:

  • 初始化权值参数 W W ,一般赋于 0 附近的随机数;
  • 初始化学习率 η \eta
  • 对所有输入记录:根据输入记录,更新权重值;

4.3.3 赫布学习规则实例

带入第一个样本更新权重:
在这里插入图片描述
带入第二个样本更新权重:
在这里插入图片描述
带入第三个样本更新权重:
在这里插入图片描述

4.4 离散感知器学习规则

**感知器(Perceptron)**是由Rosenblatt定义的具有单层神经计算单元的神经网络结构。实际上为一种前馈网络,同层内无互连,不同层间无反馈,由下层向上层传递,其输入、输出均为离散值,神经元对输入加权求和后,由阈值函数(激活函数)决定其输出。

离散感知器学习规则代表一种有导师的学习方式,其规定将神经元期望输出(教师信号)与实际输出之差作为学习信号,通过训练调整权值,直到实际输出满足要求(等于或者接近于期望输出)。
在这里插入图片描述
离散感知器学习规则的步骤:

  • 初始化权值参数,学习速率;
  • 对每一个样本,实际输出和期望输出的差满足要求:根据输入记录,更新权重值;

4.4.1 实例

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
验证:
在这里插入图片描述

4.5 连续感知器学习规则

在这里插入图片描述
M c C l e l l a n d McClelland
DeIta习规则( δ \delta LearningRule):1986年,由认知心理学家McCIeIIand和RumeIIhart在神经网络训练中引入了学习规则。一种简单的有导师学习算法,该算法根据神经元的实际输出与期望输出差别来调整连接权。

Delta学习规则的思路如下:系统首先用一个输入向量,输入网络结构,得到一个输出向量;每个输入向量都有一个对应的期望输出向量、或者称作是目标向量;比较实际输出向量与期望输出向量的差别,若没有差别,就不再继续学习;否则,连接的权重修改对应的差值(delta差)。

4.5.1 损失函数

损失函数(Loss Function):用于衡量最优的策略,通常是一个非负实值函数。机器学习试图通过不断的学习,建立一个可以很好预测现实结果的模型,损失函数则是用来衡量预测结果和真实结果之间的差距,其值越小,代表预测结果和真实结果越一致。损失函数越合适,通韋模型的性能越好。通过各种方式缩小损失函数的过程被称作优化·损失函数记做 L ( Y , f ( x ) ) L(Y,f(x))

0-1损失函数(0-1 LF):预测值和实际值精确相等则“没有损失”,为0,否则意味着“完全损失”,为1,预测值和实际值精确相等有些过于严格,可以采用两者的差小于某个阈值的方式:
在这里插入图片描述

绝对值损失函数(AbsoIuteLF):预测结果与真实结果差的绝对值。简单易懂,但是计算不方便。
L ( Y , f ( x ) ) = Y f ( X ) L(Y,f(x)) = |Y - f(X)|
平方损失函数(Quadratic LF):预测结果与真实结果差的平方。
L ( Y , f ( x ) ) = ( Y f ( X ) ) 2 L(Y,f(x)) = (Y - f(X))^2

平方损失函数优势有:

  • 每个样本的误差都是正的,累加不会被抵消;
  • 平方对于大误差的惩罚大于小误差;
  • 数学计算简单、友好,导数为一次函数。
    在这里插入图片描述

对数损失函数(Logarithmic LF) 或对数似然损失函数(log-likehood loss function)对数函数具有单调性,在求最优化问题时,结果与原始目标一致。可将乘法转化为加法,简化计算。
L ( Y , P ( Y X ) ) = l o g P ( Y X ) L(Y,P(Y|X)) = -logP(Y|X)
指数损失函数(ExponentiaI LF) 或对数似然损失函数(likehood loss function):单调性、非负性的优良性质,使得越接近正确结果误差越小。
L ( Y , f ( x ) ) = e Y f ( X ) L(Y,f(x)) = e^{-Y*f(X)}

折叶掼失函数(HingeLF):也称铰链损失,对于判定边界附近的点的惩罚力度较高,常见于SVM。
L ( f ( x ) ) = m a x ( 0 , 1 f ( x ) ) L(f(x)) = max(0,1-f(x))

不同的损失函数有不同的持点,适用于不同的场景:

  • 0-1:理想状况模型
  • Log:逻辑回归、交叉熵
  • Squared:线性回归
  • Exponential:AdaBoosting
  • Hinge:SVM、soft margin

4.5.2 损失函数优化:梯度下降法

在这里插入图片描述

4.5.3 δ \delta 规则

在这里插入图片描述

4.5.4 最小均方学习规则

在这里插入图片描述

4.5.5 相关学习规则

在这里插入图片描述

4.5.6 竞争学习&胜者为王

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.5.7 外形学习规则

内星节点:总是接收其他神经元输入的加权信号,是信号的汇聚点,其对应的权值向量称作内星权向量
外星节点:总是向其他神经元输出加权信号,是信号的发散点,其对应的权值向量称作外星权向量
在这里插入图片描述
两者的更新规则:

  • 内星属于无导师学习,外星属于有导师学习;
  • 内星更新依赖于输入和权重的差异,外星更新依赖于输出和权重的差异。

课程链接:https://edu.aliyun.com/course/1923

发布了122 篇原创文章 · 获赞 94 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/weixin_39653948/article/details/105090584