深度学习中的deconvolution networks一点粗浅理解

本博客为作者的首秀,嘿嘿,以后会通过写博客的方式记录总结自己的所学知识!

逆卷积(Deconvolution)比较容易引起误会,转置卷积(Transposed Convolution)是一个更为合适的称呼

一、举个例子

4x4的输入,卷积Kernel为3x3, 没有Padding / Stride, 则输出为2x2。

输入矩阵可展开为16维向量,记作x
输出矩阵可展开为4维向量,记作y

卷积运算可表示为y = Cx

所谓逆卷积其实就是正向时左乘C^T,而反向时左乘(C^T)^T,即C的运算。

逆卷积的一个很有趣的应用是GAN(Generative Adversarial Network)里用来生成图片

以上为知乎上的一个回答https://www.zhihu.com/question/43609045?sort=created)

二、卷积是一个下采样的过程,反卷积是一个上采样的过程;

回顾一下卷积运算的计算公式w1=(w0+2*pad-kernel_size)/stride+1;

这是github上关于卷积和反卷积的动图https://github.com/vdumoulin/conv_arithmetic


猜你喜欢

转载自blog.csdn.net/qq_23304241/article/details/80181026