感性认识多层前馈神经网络

摘录自张玉宏的《深度学习之美》,这本书真的特别不错哦!

更一般的,常见的多层神经网络如图 8-2 所示。 在这种结构中,将若干个单层神经网络级联在一起,前一层的输出作为后一层的输入,这样构成了多层前馈神经网络( Multi-layer Feedforward Neural Networks )。 更确切地说,每一层神经元仅与下一层的神经元全连接。 但在同一层之内,神经元彼此不连接,而且跨层之间的神经元,彼此也不相连。

之所以加上 “前馈”这个定语,是想、特别强调,这样的网络是没有反馈的。 也就是说,位置靠后的层次不会把输出反向连接到之前的层次上作为输入,输入信号“一马平川”地单向向前传播。 很明显,相比于纵横交错的人类大脑神经元的连接结构,这种结构做了极大简化, 但即使如此,它也具有很强的表达力。

这种表达力强大到什么程度?奥地利学者库尔特 · 霍尼克( Kurt Hornik )等人的论文可以 旁证解释这个问题。 1989 年,霍尼克等人发表论文证明, 对于任意复杂度的连续波莱尔可测函数( Borel Measurable Function ) f,,仅仅需要一个隐含层,只要这个隐含层包括足够多的神经元, 前馈神经网络使用挤压函数( Squashing Function )作为激活函数,就可以以任意精度来近似模拟 f f .
f : R N R M f:R^N\rightarrow R^M

如果想增加f的近似精度,单纯依靠增加神经元的数目即可实现。 换句话说,多层前馈神经网络可视为一个通用函数的模拟器( Universal Approximators )。 对于这个定理证明的可视化描述,读者可参阅迈克尔·尼尔森( Michael Nielsen )撰写的系列博客[5](httP://neuralnetworksanddeeplearning.com/chap4.html)。 在他博客的第 4 章中, 尼尔森给出了神经网络可计算任何函数的可视化证明,值得一读。

然而, 如何确定隐含层的个数是一个超参数问题,即不能通过网络学习自行得到,而是需要人们通过试错法外加经验甚至直觉来调整。

猜你喜欢

转载自blog.csdn.net/YPP0229/article/details/94547612