全连接层详解

概念

全连接层Fully Connected Layer一般位于整个神经网络的最后,负责将卷积输出的二维特征图(矩阵)转换成一维向量,由此实现了端到端的学习过程。(例如:输入一张图像或者一段语音,输出一个向量或者信息)。全连接层的每一个结点都与上一层的所有结点相连因而称之为全连接层。

卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。

全连接层的工作原理

如下图:当我们输入一个28X28的灰度图像,经过卷积层和池化层,输出20个12X12的图像,然后再经过一个全连接层编程了1X100的向量。那么问题来了,是怎么变成为1X100的向量呢?其实,可以理解为在中间做了一次卷积,用一个12X12X20的过滤器去卷积激活函数的输出,得到的结果就是一个全连接层一个神经元的输出,这个输出就是一个值。因为我们有100个神经元,所以输出就是一个1X100的向量。实际上就是用了一个12X12X20X100的卷积层去卷积激活函数的输出,最终得到1X100的向量

 全连接层的作用:

全连接在整个网络卷积神经网络中起到“分类器”的作用,如果说卷积层、池化层和激活函数等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的特征表示映射到样本的标记空间的作用。其实,就是把特征整合到一起,方便交给最后的分类器或者回归。

猜你喜欢

转载自blog.csdn.net/m0_74890428/article/details/127731483