【CVPR2021】AdderSR 论文学习笔记

文章来源 | 恒源云(专注人工智能/深度学习GPU云服务器免费租用平台,官方体验网址:https://gpushare.com

原文地址 | [CVPR2021]AdderSR: Towards Energy Efficient Image Super-Resolution学习笔记(学霸季奖励计划)

一 研究问题

单图像超分辨率(SISR)是一项典型的计算机视觉任务,其目的是从低分辨率(LR)图像中重建高分辨率图像。SISR是智能手机和移动相机在现实应用中非常流行的图像信号处理任务。由于这些便携式设备的硬件限制,有必要开发具有低计算成本和高视觉质量的SISR模型。
第一个超分辨率的卷积神经网络(SRCNN)[5]只包含三个具有大约57K参数的卷积层。然后,随着深度和宽度的增加,DCNN的容量被放大,导致超分辨率的显著提高。最近DCNN的参数和计算成本也相应增加。例如,剩余密集网络(RDN)[30]包含22M参数,并且仅处理一个图像需要大约10,192GFLOP(浮数操作)。与视觉识别的神经网络(如50清晰度网)相比,由于较大的特征地图大小,SISR模型具有更高的计算复杂度。这些大量的计算将减少移动设备的持续时间。
本文利用加法神经网络(AdderNet)研究了单幅图像超分辨率问题。 与卷积神经网络相比,加法网利用加法计算输出特征,避免了传统乘法的大量能量消耗。 然而,由于计算范式的不同,很难将AdderNet在大规模图像分类上的现有成功直接继承到图像超分辨率任务中。 具体来说,加法器操作不容易学习一致性映射,这对于图像处理任务是必不可少的。 此外,AdderNet无法保证高通滤波器的功能。 为此,我们深入分析了加法器操作与身份映射之间的关系,并插入快捷方式,以提高使用加法器网络的SR模型的性能。


二 背景介绍

AdderNet
加法网络,“计算机视觉研究院”平台之前就详细分析了,并且移植到目标检测,具体链接如下:
CVPR2020 AdderNet(加法网络)https://arxiv.org/pdf/1912.13200.pdf
代码实践 | CVPR2020——AdderNet(加法网络(代码分享)https://github.com/huawei-noah/AdderNet
现有的有效超分辨率方法旨在减少模型的参数或计算量。最近,[Hanting Chen, Yunhe Wang, Chunjing Xu, Boxin Shi, Chao Xu, Qi Tian, and Chang Xu. Addernet: Do we really need multiplications in deep learning? In CVPR, 2020]开创了一种新的方法,通过用加法运算代替乘法来减少网络的功耗。它在卷积层中没有任何乘法,在分类任务上实现了边际精度损失。本此研究旨在提高加法网络在超分辨率任务中的性能。


三 流程图


简要概括本文流程:
1、提出将Addnet应用在SR里会遇到的两个问题,

  • 不能学习一致性映射
  • 不能实现高通滤波
    2、分析了这两个问题出现的原因并进行证明
    3、提出了解决这两个问题的方法
    4、实验验证

四 方法


核心方法简述:

  • 利用类似残差的方法解决无法实现一致性映射的问题
  • 利用指数激活解决无法实现高通滤波的问题

AdderSR_05.png
AdderSR_06.png
AdderSR_07.png
AdderSR_08.png
AdderSR_09.png

参考
AdderSR: Towards Energy Efficient Image Super-Resolution
https://arxiv.org/pdf/2009.08891
AdderNet: Do We Really Need Multiplications in Deep Learning?https://arxiv.org/pdf/1912.13200.pdf
https://mp.weixin.qq.com/s?
https://www.baidu.com/link?url=KmvUqMwHPXiGLpHLg1e1bW0aY1i78LgG8IZCmQEP7GT_7-re2vencosdO5Cf5N1Gmyx7SiDHeUs9j9-DHmKjQzGTiA6Eyni56Gmep5z-etS&wd=&eqid=fc963e5a00008c8c0000000660599d46__biz=MzU0NTAyNTQ1OQ==&mid=2247489150&idx=1&sn=d83c414b543329cd37753513b49cefa3&chksm=fb726aa2cc05e3b4fce935e45602952ca9b1e3091952a1b4cce72c1d899debaec47bd21e071d&scene=21#wechat_redirect

猜你喜欢

转载自blog.csdn.net/weixin_53977063/article/details/115216288