全连接层fully connected layer

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/weixin_38145317/article/details/89676735

参考:

https://blog.csdn.net/qq_39521554/article/details/81385159

全连接层(FC,fully connected layer)在整个卷积神经网络中起到分类器的作用,如果说卷积层,池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则其到将学到的"分布式特征表示"映射到样本标记空间的作用,在实际使用中,全连接层可由卷积操作实现,对前层是全连接的全连接层可以转化为卷积核为1x1的卷积,而前层是卷积层的全连接层可以转化为卷积核为hxw的全局卷积,h,w分别为前层卷积结果的高和宽.(啥意思,不懂啊)

全连接的核心操作就是矩阵向量乘积

y=Wx

全连接层中的每个神经元与其前一层的所有神经元进行全连接, 可以整合卷积层或者池化层中具有类别区分行的局部信息,本质就是由一个特征空间线性变换到另一个特征空间,目标空间的任一维--也就是隐层的一个cell--都认为会受到源空间的每一维的影响,不考虑严谨,可以说,目标向量是源向量的加权和.

在cnn中,全连接通常出现在最后几层,用于对前面设计的特征做加权和,比如mnist, 前面的卷积和池化相当于做特征工程,后面的全连接相当于做特征加权.(卷积相当于全连接的有https://blog.csdn.net/qq_39521554/article/details/81385159意弱化,按照局部视野的启发,把局部之外的弱影响直接抹杀为零,还做了一点强制,不同的局部所使用的参数居然一致,弱化使参数变少,节省计算量,又专攻局部不贪多求全,强制进一步减少参数,少即是多).为了提升cnn网络性能,全连接层每个神经元的激励函数一般参用relu函数,最后一层全连接层的输出值被传递给一个输出,可以采用softmax逻辑回归(softmax regression)进行分类, 该层也可以称为softmax层. 对于一个具体的分类任务, 选择一个合适的损失函数是十分重要的,

在rnn中,全连接用来把embedding空间拉到隐层空间,把隐层空间转回label空间等.

什么是Flatten

Flatten 是指将多维的矩阵拉开,变成一维向量来表示。

程序实现?

猜你喜欢

转载自blog.csdn.net/weixin_38145317/article/details/89676735