卷积神经网络中的 “全连接层”

原文链接: https://zhuanlan.zhihu.com/p/33841176

一、什么是“全连接层”

对 n-1 层和 n 层而言,n-1 层的任意一个节点,都和第 n 层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。像下面的中间层就是全连接方式
在这里插入图片描述

二、详解

在这里插入图片描述
以上图为例,我们仔细看上图全连接层的结构,全连接层中的每一层是由许多神经元组成的(1x 4096)的平铺结构,上图不明显,我们看下图
在这里插入图片描述
当我第一次看到这个全连接层,我的第一个问题是:
它是怎么样把3x3x5的输出,转换成1x4096的形式
在这里插入图片描述
很简单,可以理解为在中间做了一个卷积
在这里插入图片描述
从上图我们可以看出,我们用一个 3x3x5 的 filter 去卷积激活函数的输出,得到的结果就是一个fully connected layer 的一个神经元的输出,这个输出就是一个值
因为我们有4096个神经元
我们实际就是用一个3x3x5x4096的卷积层去卷积激活函数的输出

以VGG-16再举个例子
再VGG-16全连接层中
对224x224x3的输入,最后一层卷积可得输出为7x7x512,如后层是一层含4096个神经元的FC,则可用卷积核为7x7x512x4096的全局卷积来实现这一全连接运算过程。

卷积一个非常重要的作用:就是把分布式特征representation映射到样本标记空间

就是它把特征representation整合到一起,输出为一个值

这样做,有一个什么好处?
就是大大减少特征位置对分类带来的影响
来,让我来举个简单的例子
在这里插入图片描述
从上图我们可以看出,猫在不同的位置,输出的feature值相同,但是位置不同

对于电脑来说,特征值相同,但是特征值位置不同,那分类结果也可能不一样

而这时全连接层filter的作用就相当于

喵在哪我不管,我只要喵,于是我让filter去把这个喵找到

扫描二维码关注公众号,回复: 7218847 查看本文章

实际就是把 feature map 整合成一个值

这个值大,哦,有喵,这个值小,那就可能没喵,和这个喵在哪关系不大了有没有
因为空间结构特性被忽略了,所以全连接层不适合用于在方位上找Pattern的任务,比如segmentation
ok, 我们突然发现全连接层有两层1x4096fully connected layer平铺结构(有些网络结构有一层的,或者二层以上的)

好吧也不是突然发现,我只是想增加一点戏剧效果
在这里插入图片描述
但是大部分是两层以上呢

这是为啥子呢

泰勒公式都知道吧:意思就是用多项式函数去拟合光滑函数

我们这里的全连接层中一层的一个神经元就可以看成一个多项式

我们用许多神经元去拟合数据分布

但是只用一层fully connected layer 有时候没法解决非线性问题

而如果有两层或以上fully connected layer就可以很好地解决非线性问题了

说了这么多,我猜你应该懂的

听不懂?

那我换个方式给你讲

我们都知道,全连接层之前的作用是提取特征

全理解层的作用是分类

我们现在的任务是去区别一图片是不是猫
在这里插入图片描述
在这里插入图片描述
因为全连接层的作用主要就是实现分类(Classification)
在这里插入图片描述
红色的神经元表示这个特征被找到了(激活了)

同一层的其他神经元,要么猫的特征不明显,要么没找到

当我们把这些找到的特征组合在一起,发现最符合要求的是猫

ok,我认为这是猫了

那我们现在往前走一层

那们现在要对子特征分类,也就是对猫头,猫尾巴,猫腿等进行分类

比如我们现在要把猫头找出来
在这里插入图片描述
猫头有这么些个特征

于是我们下一步的任务

就是把猫头的这么些子特征找到,比如眼睛啊,耳朵啊
在这里插入图片描述
道理和区别猫一样

当我们找到这些特征,神经元就被激活了(上图红色圆圈)

这细节特征又是怎么来的?

就是从前面的卷积层,下采样层来的

猜你喜欢

转载自blog.csdn.net/nanhuaibeian/article/details/100532038