BP神经网络的详细推导 与 完整代码

BP推导全过程

最近老师布置了一个神经网络的作业,正好练习下LaTeX,顺便写了这个博客
BP的整个过程还是很严谨的、LaTeX写公式也很好用,建议一步步跟着公式走
另外还配上了代码供食用,代码配公式、效果更好

一些变量的含义

这里的的网络采用三层感知机结构
在这里插入图片描述

以简单的sigmod函数如为例:
f ( x ) = 1 1 + e − x f ( x ) ′ = f ( x ) ( 1 − f ( x ) ) f (x)=\frac {1}{1+e^{-x}}\\ f(x)'=f(x)(1-f(x)) f(x)=1+ex1f(x)=f(x)(1f(x))
下面定义一些变量
输 入 向 量 X = ( x 1 , x 2 , ⋯ x n ) T 隐 层 输 出 向 量 Y = ( y 1 , y 2 , ⋯ y m ) T 输 入 层 到 隐 层 的 权 重 V V = ( V 1 , V 2 , ⋯   , V m ) 这 里 的 V j , j ∈ ( 1 , ⋯   , m ) 是 下 面 矩 阵 的 列 向 量 表 达 式 为 : f ( V j ⋅ X ) = Y j V = [ v 11 v 12 ⋯ v 1 m v 21 v 22 ⋯ v 2 m v 31 v 32 ⋯ v 3 m ⋯ ⋯ ⋯ ⋯ v n 1 v n 2 ⋯ v n m ] 输 出 层 向 量 O = ( o 1 , o 2 , ⋯   , o l ) T 真 实 标 签 D = ( d 1 , d 2 , ⋯   , d l ) T 隐 含 层 到 输 出 层 的 权 重 W W = ( W 1 , W 2 , ⋯   , W l ) W k , k ∈ ( 1 , ⋯   , l ) 为 下 面 矩 阵 的 第 k 个 列 向 量 W = [ w 11 w 12 ⋯ w 1 l w 21 w 22 ⋯ w 2 l w 31 w 32 ⋯ w 3 l ⋯ ⋯ ⋯ ⋯ w m 1 w n 2 ⋯ w m l ] 下 面 公 式 表 示 的 是 隐 藏 层 到 输 出 层 的 过 程 f ( W k ⋅ Y ) = O k 输入向量X=(x_1,x_2,\cdots x_n)^T \\ 隐层输出向量Y=(y_1,y_2,\cdots y_m)^T\\ 输入层到隐层的权重V\\ V=(V_1,V_2,\cdots,V_m)\\ 这里的V_j,j\in (1,\cdots,m)是下面矩阵的列向量\\ 表达式为:f(V_j \cdot X)=Y_j\\ V=\left[ \begin{array}{ccc} v_{11} & v_{12} & \cdots & v_{1m}\\ v_{21} & v_{22} & \cdots & v_{2m}\\ v_{31} & v_{32} & \cdots & v_{3m}\\ \cdots & \cdots&\cdots & \cdots \\ v_{n1} & v_{n2} & \cdots & v_{nm}\\ \end{array} \right]\\ \\ 输出层向量O=(o_1,o_2,\cdots,o_l)^{T}\\ 真实标签D=(d_1,d_2,\cdots,d_l)^T\\ 隐含层到输出层的权重W\\ W=(W_1,W_2,\cdots,W_l)\\ W_k,k\in(1,\cdots,l)为下面矩阵的第k个列向量\\ W=\left[ \begin{array}{ccc} w_{11} & w_{12} & \cdots & w_{1l}\\ w_{21} & w_{22} & \cdots & w_{2l}\\ w_{31} & w_{32} & \cdots & w_{3l}\\ \cdots & \cdots&\cdots & \cdots \\ w_{m1} & w_{n2} & \cdots & w_{ml}\\ \end{array} \right]\\ 下面公式表示的是隐藏层到输出层的过程 f(W_k\cdot Y)=O_k X=(x1,x2,xn)TY=(y1,y2,ym)TVV=(V1,V2,,Vm)Vj,j(1,,m)f(VjX)=YjV=v11v21v31vn1v12v22v32vn2v1mv2mv3mvnmO=(o1,o2,,ol)TD=(d1,d2,,dl)TWW=(W1,W2,,Wl)Wk,k(1,,l)kW=w11w21w31wm1w12w22w32wn2w1lw2lw3lwmlf(WkY)=Ok

一些公式

对于输出层有(后面两个式子不过是展开了内积而已,本质一样):
o k = f ( n e t k ) = f ( ∑ j = 0 m w j k y j ) = f ( W k Y ) ( 1 ) o_k=f(net_k)=f(\sum_{j=0}^mw_{jk}y_j)=f(W_kY) \quad \quad \quad (1) ok=f(netk)=f(j=0mwjkyj)=f(WkY)(1)
对于隐含层
y j = f ( n e t j ) = f ( ∑ i = 0 n v i j x i ) = f ( V j X ) ( 2 ) y_j=f(net_j)=f(\sum_{i=0}^nv_{ij}x_i)=f(V_jX) \quad \quad \quad (2) yj=f(netj)=f(i=0nvijxi)=f(VjX)(2)
对于输出层的梯度更新公式:
输 出 层 梯 度 更 新 量 Δ w j k = − η ∂ E ∂ w j k w j k = w j k + Δ w j k = w j k − η ∂ E ∂ w j k ( 3 ) 输出层梯度更新量\quad\quad\Delta w_{jk}=-\eta \frac{\partial E}{\partial w_{jk}} \\ w_{jk}=w_{jk}+\Delta w_{jk}=w_{jk}-\eta\frac{\partial E}{\partial w_{jk}} \quad \quad(3) Δwjk=ηwjkEwjk=wjk+Δwjk=wjkηwjkE(3)
对于隐藏层的更新公式
隐 藏 层 梯 度 更 新 量 Δ v i j = − η ∂ E ∂ v i j v i j = v i j + Δ v i j = v i j − η ∂ E ∂ v i j ( 4 ) 隐藏层梯度更新量\quad\quad\Delta v_{ij}=-\eta \frac{\partial E}{\partial v_{ij}} \\ v_{ij}=v_{ij}+\Delta v_{ij}=v_{ij}-\eta\frac{\partial E}{\partial v_{ij}} \quad\quad\quad(4) Δvij=ηvijEvij=vij+Δvij=vijηvijE(4)
最后的误差公式的展开如下
E = 1 2 ∑ k = 1 l ( d k − o k ) 2 把 公 式 ( 1 ) ( 2 ) 带 入 = 1 2 ∑ k = 1 l ( d k − f [ ∑ j = 0 m w j k f ( n e t j ) ] ) 2 = 1 2 ∑ k = 1 l ( d k − f [ ∑ j = 0 m w j k f ( ∑ i = 0 n v i j x i ) ] ) 2 ( 5 ) E=\frac{1}{2}\sum_{k=1}^l(d_k-o_k)^2 \quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\\ 把公式(1)(2)带入\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\\ =\frac{1}{2}\sum_{k=1}^l(d_k-f[\sum_{j=0}^m w_{jk}f(net_j)])^2 \quad\quad\quad\quad\quad\quad\\ =\frac{1}{2} \sum_{k=1}^l (d_k-f[\sum_{j=0}^m w_{jk}f(\sum_{i=0}^nv_{ij}x_i)])^2\quad\quad\quad(5) E=21k=1l(dkok)212=21k=1l(dkf[j=0mwjkf(netj)])2=21k=1l(dkf[j=0mwjkf(i=0nvijxi)])2(5)

开始推导

由上面的公式(3)(4)可知我们只要求出那两个梯度更新量就行了

  • 对于输出层的梯度更新量,我们利用链式求导可以得到下面的公式
    Δ w j k = − η ∂ E ∂ w j k = − η ∂ E ∂ n e t k ∂ n e t k ∂ w j k 由 公 式 ( 1 ) 可 知 ∂ n e t k ∂ w j k = y j 即 Δ w j k = − η ∂ E ∂ n e t k y j ( 6 ) \Delta w_{jk}=-\eta \frac{\partial E}{\partial w_{jk}}=-\eta\frac{\partial E}{\partial net_k}\frac{\partial net_k}{\partial w_{jk}}\\ 由公式(1)可知 \frac{\partial net_k}{\partial w_{jk}}=y_j\\ 即\Delta w_{jk}=-\eta\frac{\partial E}{\partial net_k}y_j \quad\quad\quad(6)\\ Δwjk=ηwjkE=ηnetkEwjknetk1wjknetk=yjΔwjk=ηnetkEyj(6)
  • 对于隐藏层的梯度更新量,也是如此
  • Δ v i j = − η ∂ E ∂ v i j = − η ∂ E ∂ n e t j ∂ n e t j ∂ v i j 由 公 式 ( 2 ) 可 知 ∂ n e t j ∂ v i j = x i 即 Δ v i j = − η ∂ E ∂ n e t j x i ( 7 ) 实 际 代 码 中 我 们 求 x i 和 y j 轻 轻 松 松 , 只 要 保 存 网 络 每 层 的 输 出 即 可 而 且 我 们 都 是 批 量 更 新 , 批 量 更 新 效 率 更 高 \Delta v_{ij}=-\eta \frac{\partial E}{\partial v_{ij}}=-\eta\frac{\partial E}{\partial net_j}\frac{\partial net_j}{\partial v_{ij}}\\ 由公式(2)可知 \frac{\partial net_j}{\partial v_{ij}}=x_i\\ 即\Delta v_{ij}=-\eta\frac{\partial E}{\partial net_j}x_i\quad\quad\quad(7)\\ 实际代码中我们求x_i 和y_j轻轻松松,只要保存网络每层的输出即可\\ 而且我们都是批量更新,批量更新效率更高 Δvij=ηvijE=ηnetjEvijnetj2vijnetj=xiΔvij=ηnetjExi(7)xiyj
  • 所以我们只要求出下面两个公式即可求出对于每一层的梯度更新量
    我 们 把 − ∂ E ∂ n e t k 设 为 e r r o 意 思 为 输 出 层 的 误 差 信 号 再 把 − ∂ E ∂ n e t j 设 为 e r r y 意 思 为 隐 含 层 层 的 误 差 信 号 e r r o 和 e r r y 展 开 可 得 : e r r o = − ∂ E ∂ n e t k = − ∂ E ∂ o k ∂ o k ∂ n e t k 把 公 式 ( 1 ) ( 5 ) 代 入 上 公 式 可 得 e r r o = − ∂ E ∂ o k f ( n e t k ) ′ = ∑ k = 1 l ( d k − o k ) o k ( 1 − o k ) ( 8 ) 可 以 看 出 来 输 出 层 的 误 差 信 号 还 是 非 常 好 求 的 e r r y 稍 微 复 杂 点 , 我 们 还 是 先 把 他 展 开 e r r y = − ∂ E ∂ n e t j = − ∂ E ∂ y j ∂ y j ∂ n e t j = − ∂ E ∂ o k ∂ o k ∂ y j ∂ y j ∂ n e t j = − ∂ E ∂ o k ∂ o k ∂ n e t k ∂ n e t k ∂ y j ∂ y j ∂ n e t j 上 面 这 几 个 求 偏 导 的 公 式 都 有 我 们 只 需 要 带 入 公 式 ( 1 ) ( 2 ) ( 5 ) 可 得 e r r y = ∑ k = 0 l ( d k − o k ) ⋅ o k ( 1 − o k ) ⋅ w j k ⋅ y j ( 1 − y j ) ( 9 ) 我 们 观 察 可 以 发 现 e r r y 的 一 部 分 和 e r r o 一 模 一 样 , 所 以 把 公 式 ( 8 ) 带 入 ( 9 ) 得 e r r y = e r r o w j k y j ( 1 − y j ) ( 10 ) 对 于 写 代 码 来 说 , 我 们 只 要 求 出 e r r o 后 , 后 面 一 系 列 的 隐 藏 层 都 非 常 好 求 只 要 用 从 后 向 前 计 算 每 一 层 的 误 差 信 号 即 可 我们把-\frac{\partial E}{\partial net_k}设为err_o\quad意思为输出层的误差信号\\ 再把-\frac{\partial E}{\partial net_j}设为err_y\quad意思为隐含层层的误差信号\\ err_o和err_y展开可得:\\ err_o=-\frac{\partial E}{\partial net_k}=-\frac{\partial E}{\partial o_k}\frac{\partial o_k}{\partial net_k}\\把公式(1)(5)代入上公式可得 \\ err_o=-\frac{\partial E}{\partial o_k}f(net_k)'=\sum_{k=1}^l(d_k-o_k)o_k(1-o_k)\quad\quad(8)\\ 可以看出来输出层的误差信号还是非常好求的\\ err_y稍微复杂点,我们还是先把他展开\\ err_y=-\frac{\partial E}{\partial net_j}\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\\ =-\frac{\partial E}{\partial y_j}\frac{\partial y_j}{\partial net_j}\quad\quad\quad\quad\quad\quad\\ =-\frac{\partial E}{\partial o_k}\frac{\partial o_k}{\partial y_j}\frac{\partial y_j}{\partial net_j}\quad\quad\quad\quad\\ =-\frac{\partial E}{\partial o_k}\frac{\partial o_k}{\partial net_k}\frac{\partial net_k}{\partial y_j}\frac{\partial y_j}{\partial net_j}\quad\\ 上面这几个求偏导的公式都有我们只需要带入公式(1)(2)(5)可得\\ err_y=\sum_{k=0}^l(d_k-o_k)\cdot o_k(1-o_k)\cdot w_{jk} \cdot y_j(1-y_j)\quad(9)\\ 我们观察可以发现err_y的一部分和err_o一模一样,所以把公式(8)带入(9)\\ 得err_y=err_ow_{jk}y_j(1-y_j)\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad(10)\\ 对于写代码来说,我们只要求出err_o后,后面一系列的隐藏层都非常好求\\ 只要用从后向前计算每一层的误差信号即可\\ netkEerronetjEerryerroerry:erro=netkE=okEnetkok(1)(5)erro=okEf(netk)=k=1l(dkok)ok(1ok)(8)erryerry=netjE=yjEnetjyj=okEyjoknetjyj=okEnetkokyjnetknetjyj(1)(2)(5)erry=k=0l(dkok)ok(1ok)wjkyj(1yj)(9)erryerro(8)(9)erry=errowjkyj(1yj)(10),erro
  • 那么我们最终的结果就是如下公式
    Δ w j k = η ⋅ e r r o ⋅ y j Δ v i j = η ⋅ e r r o w j k y j ( 1 − y j ) ⋅ x i 写 成 代 码 用 向 量 批 量 计 算 的 话 就 是 如 下 所 示 Δ w = η ⋅ ( s u m ( D − O ) ⋅ O ( 1 − O ) ) ⋅ Y Δ v = η ⋅ ( s u m ( D − O ) ⋅ O ( 1 − O ) ) W ⋅ Y ⋅ X \Delta w_{jk}=\eta\cdot err_o \cdot y_j\\ \Delta v_{ij}=\eta\cdot err_o w_{jk} y_j (1-y_j)\cdot x_i \\ 写成代码用向量批量计算的话就是如下所示\\ \Delta w=\eta\cdot (sum(D-O)\cdot O(1-O)) \cdot Y\\ \Delta v=\eta\cdot (sum(D-O)\cdot O(1-O)) W\cdot Y\cdot X \\ Δwjk=ηerroyjΔvij=ηerrowjkyj(1yj)xiΔw=η(sum(DO)O(1O))YΔv=η(sum(DO)O(1O))WYX

任意层BP网络代码实现

参考这位老哥的代码: https://www.k2zone.cn/?p=1047

import numpy as np
def logistic(x):
    return 1/(1+np.exp(-x))
def logistic_derivative(x):
    return logistic(x) * (1 - logistic(x))

def tanh(x):
    return np.tanh(x)

def tanh_deriv(x):
    return 1.0 - np.tanh(x) * np.tanh(x)

class NeuralNetwork:
   #构造函数
   def __init__(self, layers, activation='tanh'):
       '''
       :param layers: list类型,比如[2,2.1]代表输入层有两个神经元,隐藏层有两个,输出层有一个
       :param activation: 激活函数
       '''
       self.layers = layers
       #选择后面用到的激活函数
       if activation == 'logistic':
           self.activation = logistic
           self.activation_deriv = logistic_derivative
       elif activation == 'tanh':
           self.activation = tanh
           self.activation_deriv = tanh_deriv
       #定义网络的层数
       self.num_layers = len(layers)
       '''
       生成除输入层外的每层中神经元的biase值,在(-1,1)之间,每一层都是一行一维数组数据
       randn函数执行一次生成x行y列的数据
       '''
       self.biases = [np.random.randn(x) for x in layers[1:]]
       print("初始偏向:",self.biases)
       '''
       随机生成每条连接线的权重,在(-1,1)之间
       weights[i-1]代表第i层和第i-1层之间的权重,元素个数等于i层神经元个数
       weights[i-1][0]表示第i层中第一个神经单元和第i-1层每个神经元的权重,元素个数等于i-1层神经元个数
       '''
       self.weights = [np.random.randn(y, x)
                       for x, y in zip(layers[:-1], layers[1:])]
       print("初始权重:",self.weights)

   #训练模型,进行建模
   def fit(self, X, y, learning_rate=0.2, epochs=1):
       '''
       :param self: 当前对象指针
       :param X: 训练集
       :param y: 训练标记
       :param learning_rate: 学习率
       :param epochs: 训练次数
       :return: void
       '''
       for k in range(epochs):
           #每次迭代都循环一次训练集
           for i in range(len(X)):
               #存储本次的输入和后几层的输出
               activations = [X[i]]
               #向前一层一层的走
               for b, w in zip(self.biases, self.weights):
                   # print "w:",w
                   # print "activations[-1]:",activations[-1]
                   # print "b:", b
                   #计算激活函数的参数,计算公式:权重.dot(输入)+偏向
                   z = np.dot(w, activations[-1])+b

                   #计算输出值
                   output = self.activation(z)
                   #将本次输出放进输入列表,后面更新权重的时候备用
                   activations.append(output)
               # print "计算结果",activations
               #计算误差值
               """
               下面这行代码参考公式8
               """
               error = y[i]-activations[-1]
               """
               计算输出层误差率
               参考公式9
			   """
               deltas = [error * self.activation_deriv(activations[-1])]

               #循环计算隐藏层的误差率,从倒数第2层开始
               for l in range(self.num_layers-2, 0, -1):
                   # print "第l层的权重",self.weights[l]
                   # print "l+1层的误差率",deltas[-1]
                   deltas.append(self.activation_deriv(activations[l]) * np.dot( deltas[-1],self.weights[l]))
               #将各层误差率顺序颠倒,准备逐层更新权重和偏向
               deltas.reverse()
               """
               更新权重和偏向
               参考公式3、4
               """
               for j in range(self.num_layers-1):
                   #本层结点的输出值
                   layers = np.array(activations[j])
                   # print "本层输出:",layers
                   # print "错误率:",deltas[j]
                   # 权重的增长量,计算公式,增长量 = 学习率 * (错误率.dot(输出值))
                   delta = learning_rate * ((np.atleast_2d(deltas[j]).T).dot(np.atleast_2d(layers)))
                   #更新权重
                   self.weights[j] += delta
                   #print "本层偏向:",self.biases[j]
                   #偏向增加量,计算公式:学习率 * 错误率
                   delta = learning_rate * deltas[j]
                   #print np.atleast_2d(delta).T
                   #更新偏向
                   self.biases[j] += delta
               #print self.weights

   def predict(self, x):
       '''
       :param x: 测试集
       :return: 各类型的预测值
       '''
       for b, w in zip(self.biases, self.weights):
           # 计算权重相加再加上偏向的结果
           z = np.dot(w, x) + b
           # 计算输出值
           x = self.activation(z)
       return x

nn = NeuralNetwork([2,4,3,1], 'tanh')
#训练集
X = np.array([[0, 0], [0, 1], [1, 0],[1, 1]])
#lanbel标记
y = np.array([0, 1, 1, 0])
#建模
nn.fit(X, y, epochs=2000)
#预测
for i in [[0, 0], [0, 1], [1, 0], [1,1]]:
   print(i, nn.predict(i))

运行结果如

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_37633207/article/details/108894508
今日推荐