李宏毅深度学习笔记(九)BP(Back propagation)神经网络计算详解(手算)

这里我用一个实例来实现以下BP神经网络计算的过程:
这个实例中输入 x 1 = 1 x_1=1 x 2 = 1 x_2=-1 ,输出 y = 0.5 y=0.5 w 1 w_1 w 6 w_6 为参数。
在这里插入图片描述
先通过上述模型计算出各个神经元的输入与输出:
在这里插入图片描述构造损失函数,这里我们使用交叉熵损失函数 C = y l n y ^ C=-yln\hat y y y 为标签值, y ^ \hat y 为计算出来的值。
接下来用反向传播来求解偏导数:
在这里插入图片描述
到这一步我们已经求出了各个参数的偏导数了,下一步就是更新参数了,我们设学习率 η \eta 为0.6
在这里插入图片描述
可以看到更新参数之后算得的 y ^ \hat y' 比原来的 y ^ \hat y 更接近0.5了,接下来只要按照上述的步骤一遍一遍进行操作就可以了。结束更新的操作可以是循环了k次或者 y ^ \hat y y y 之间的距离足够小。

发布了26 篇原创文章 · 获赞 11 · 访问量 1528

猜你喜欢

转载自blog.csdn.net/comli_cn/article/details/103056981