小白的机器学习学习笔记(十)----神经网络模型及相关术语(1)

前面我们学习了线性回归算法,Logistic算法,这些算法都是处理特征量较少的情况。当特征量达到上万,神经网络算法就具有明显的优势。

下面简单了解一下模型及相关术语

接受输入x0,x1,x2,x3,通过h(x)计算输出结果。其中x0是偏置神经元或偏置单元,恒为1。

若h(x)是sigmoid函数,我们称该神经元为带有sigmoid激活函数的人工神经元。

K称为权重或参数。

神经网络其实就是一组神经元。

L1为输入层,L2为隐藏层,L3为输出层,隐藏层可以有多层!事实上,除了输入层和输出层就被称为隐藏层。

我们将ai^j称为第j层的第i个激活项。

激活项:由一个具体神经元计算并输出的值。

a1^2=g(k10^1x0+k11^1x1+k12^1x2+k13^1x3)

a2^2=g(k20^1x0+k21^1x1+k22^1x2+k23^1x3)

a3^2=g(k30^1x0+k31^1x1+k32^1x2+k33^1x3)

h(x)=a1^3=g(k10^2a0^2+k11^2a1^2+k12^2a2^2+k13^2a3^2)

g(x)=1/(1+e^-^x)

如果一个网络在第j层有sj个单元,在第j+1层有s(j+1)个单元,则控制第j层到第j+1层映射的矩阵K^j的维度为s(j+1) 行,(sj  +1)列。

                                                                                                                                               BY   ZJQ

猜你喜欢

转载自blog.csdn.net/qq_41641805/article/details/81636286
今日推荐