超分之Robust VSR with Learned Temporal Dynamics

在这里插入图片描述

这篇文章是2017年的ICCV。基于经典的VSR框架,作者在对齐网络和时间融合超分网络上都做了一定的该进。其中对齐网络采用了STN的一个变体;对齐后的SR网络使用了结合注意力机制的,可自动选择时间尺度的时间自适应网络,这个超分结构在当时取得了SOTA的表现力。

Note:

  1. 这篇文章提出的结构没有一个简洁的名字,导致其他文章在引用的时候就直接写作者的名字——“Liu”。因此为了本文后面介绍方便,简称作者提出的这个结构为:LTD。

参考文档:
视频超分辨论文解读之Rubost Video Super-Resolution with Learned Temporal Dynamis

Abstract

  1. VSR需要解决2个问题:①如何利用视频帧之间的时间冗余问题?②如何建模运动变化来对齐不同帧的内容?
    Q 1 Q_1 Q1:如何利用时间冗余
    在SISR中,我们有且仅使用空间冗余;用SISR的超分方法应用于视频,也只是简单独立处理每一帧而已,无法利用视频中的时间冗余(temporal dependency)特性,比如ESPCN等方法就是这样的情况。
    因此在VSR中,我们就需要对不同帧进行融合,去同时提取时间特征信息和空间特征信息,此外作者还设计了一个自动选取时间窗口(也就是时间尺度,指的是每个样本中包含的连续帧个数)的机制,该机制通过训练一个pixel-wise的权重图(注意力机制)来结合多个时间尺度的超分结果,因此最后的超分结果就是多个时间尺度分别超分结果的加权和,这就是Temporal Adaptive Neural Network
    Q 2 Q_2 Q2:如何实现时序空间对齐
    由于VSR中相邻帧存在物体的运动变化或者由于相机的运动导致图片中目标的移动,因此如果在融合前不进行对齐的话,会导致同一个卷积核范围内的内容可能在时间和空间上都是不相关的,因此时间冗余和空间冗余就没有利用起来,这会抑制超分网络的表现力。
    因此为了对抗这种变化,作者采用STN来解决,在STN的基础上,结合时间信息设计出一个STN变体,通过训练STN变体网络来完成时序空间对齐,即Spatial Alignment Network
  2. 此外,对齐网络和融合SR网络是先后串联的关系,他们可以放一起训练,从而让整个LTD成为端对端训练的网络。
  3. LTD在当时的VSR中取得了SOTA的表现力,证明了Spatial Alignment网络和Temporal Adaptive网络对于提升最后视频质量有促进作用。

Note:

  1. LTD和VESPCN一样,对齐都是属于flow-based方法。它两的对齐网络都是基于STN,只是略微有点不一样;融合SR网络是完全不一样的,VESPCN没有注意力机制。

1 Introduction

Temporal Adaptive neural network:就是将SISR的超分网络与注意力机制结合,注意力用来自动选择合适的时间大小,即通过优化网络参数来选择最优时间冗余的范围大小。具体而言,时间自适应网络的输入为对齐网络(或者运动补偿网络,即spatial alignment network)给的 N N N种时间尺度,则对于每一种尺度都通过融合SR网络输出参考帧的超分重建结果,最后将 N N N个结果通过pixel-wise的加权和,结果就是最终我们想要的当前参考帧。其中权重图是另一个类似的SR网络训练得到的。此外,作者指出这种网络结构和Inception块结构很像,因为我们将连续的相邻帧融合之后,进行卷积的过程,除了空间卷积之外,其实也是在时间上上做卷积,而该网络是个选择时间尺度的过程,因此相当于有 N N N个不同大小的时间卷积滤波器,而Inception块就是在块内使用多种不同大小的空间卷积滤波器(Temporal Filters),最后进行合并的子网络。

Spatial Alignment network:就是STN的一个结合时间信息的变体。输入是2帧相邻帧,其中一帧是参考帧,另一帧是支持帧,我们使用STN变体来做two-stage对齐:运动(光流)估计和运动补偿。对齐网络最后输出支持帧的估计值(也就是对齐后的支持帧),它通过优化来不断靠近支持帧来实现内容上的对齐。这种对齐方式基于flow-based(由于其warp直接作用于image,所以它是一种image-wise),它高度依赖于光流估计的准确性。

③对齐网络和融合SR网络可以连起来一起训练,从而将整个模型塑造成end-to-end训练结构。作者在一系列实验中得出结论:Temporal Adaptive Network不同时间窗口的结构比固定时间滤波器的结构能产生更好的表现力。此外,Spatial Alignment network产生的对齐连续帧能提升重建表现力

2 Related Work

3 Temporal Adaptive Neural Network

3.1 Overview

在这里插入图片描述

如上图所示就是时间自适应网络的结构框图。从整体看,这个网络结构就是基于SISR的超分方法(比如ESPCN、SRCNN等)以及一个自动选取最优时间尺度(时间大小、时间窗口)。其本质就是个融合SR网络。
①假设一共有 N N N种时间滤波器(比如一帧、连续3帧、连续5帧,这样的话 N = 3 N=3 N=3种),那么前者主要分为 N N NSR前向分支 { B i } i = 1 N \{B_i\}_{i=1}^N { Bi}i=1N,对于每一个分支 B i B_i Bi,获得各自参考帧的超分结果 H t i H_t^i Hti( i i i表示第 i i i个分支)。
②此外还有一个分支为时间调制分支,即用来选择最优时间尺度的,该分支用来输出 N N N张feature map,其代表了前面 N N N个分支各自应得的注意力权重,其是pixel-wise,故我们将每张权重图和前面分支的输出 H t i H_t^i Hti进行元素相乘,最后相加的结果就是最后送入Loss进行优化的 H t H_t Ht
Note:

  1. 之所以说是选择最优时间滤波器,是因为你可以近似把注意力看成是门机制,那么最终输出的结果就是其中一种尺度超分的结果,而决定哪一种尺度,是网络对不同输入序列下网络参数优化的结果。但真实情况是,每个分支都分配一定的权重,最后的结果是各个分支的加权和。
  2. 前向分支是相同的超分网络,但是每一个分支的参数都是不一样的;调制分支和前向分支网络结构相似但参数也是不一样的。
  3. 一个LR video sequence就是一个样本。

接下来我们具体分析下这个时间自适应网络结构。

3.2 Network Architecture

①SR前向分支
SR前向分支在本文中使用ESPCN超分结构,因为在当时相对高效且表现力较好,当然也可以是其他结构,比如SRCNNFSRCNN等。我们对于 N N N种时间尺度中每一种尺度 i ∈ { 1 , ⋯   , N } i\in\{1,\cdots,N\} i{ 1,,N}都使用1个SR前向分支来输出参考帧的超分结果 H i t H_i^t Hit
作者采用Early fusion来对相邻 2 i − 1 2i-1 2i1帧进行融合,该融合方式下输入格式为 ( B a t c h , ( 2 i − 1 ) ∗ c , H , W ) (Batch, (2i-1)*c, H, W) (Batch,(2i1)c,H,W),其中 c c c是每一帧的通道数。然后在接下来的2层卷积层后都设置ReLU激活函数,此外不同尺度下的SR前向分支的网络参数都是不一样的,因此当可选尺度较多时,这个融合SR结构的参数量也是很大的。

②时间调整分支
时间调制分支是用来学习一个选择最优时间尺度的SR网络,它具有和SR前向分支相同的网络结构。不同于SR前向分支,该分支输入为前向分支中最长时间序列,即 2 N − 1 2N-1 2N1个连续帧,这样做也是为了更加全面的覆盖前向分支所有的输入情况。该分支的输出是 N N N张权重图 W i W_i Wi,这些图通过和 N N N个SR前向分支的输出 H i t H_i^t Hit进行元素相乘,故其实pixel-wise的,最后将相乘的 N N N个结果相加,最后输出 H t i H_t^i Hti,简单表示为: H t = ∑ i W i ⊙ H i t , i ∈ { 1 , ⋯   , N } H_t = \sum_i W_i\odot H_i^t, i\in\{1,\cdots,N\} Ht=iWiHit,i{ 1,,N}

3.3 Training Objective

接下来介绍下时间自适应网络的训练。
整个Temporal adaptive network网络的损失函数,作者使用L2损失:
min ⁡ Θ ∑ j ∣ ∣ F ( y ( j ) ; Θ ) − x ( j ) ∣ ∣ 2 2 . (1) \min_{\Theta} \sum_j ||F(y^{(j)};\Theta) - x^{(j)}||_2^2.\tag{1} ΘminjF(y(j);Θ)x(j)22.(1)其中 x ( j ) x^{(j)} x(j) j j j个参考帧对应的 H R HR HR图像,即Ground Truth; y j y^{j} yj代表以第 j j j帧参考帧为中心的所有对齐帧,故 F ( y ( j ) ; Θ ) F(y^{(j)};\Theta) F(y(j);Θ)表示整个时间自适应网络的输出 H t H_t Ht

我们将式(1)更加细化表示:
min ⁡ θ w , { θ B i } i = 1 N ∑ j ∣ ∣ ∑ i = 1 N W i ( y ( j ) ; θ w ) ⊙ F B i ( y ( j ) ; θ B i ) − x ( j ) ∣ ∣ 2 2 . (2) \min_{\theta_w,\{\theta_{B_i}\}_{i=1}^N} \sum_j ||{\color{tomato}\sum^N_{i=1}W_i(y^{(j)};\theta_w)\odot F_{B_i}(y^{(j)};\theta_{B_i})} - x^{(j)}||^2_2.\tag{2} θw,{ θBi}i=1Nminji=1NWi(y(j);θw)FBi(y(j);θBi)x(j)22.(2)其中 W i W_i Wi表示时间调制网络输出的关于第 B i B_i Bi个时间尺度下对应的权重图,用参数 θ w \theta_w θw表示时间调制网络的参数; F B i ( y ( j ) ; θ B i ) F_{B_i}(y^{(j)};\theta_{B_i}) FBi(y(j);θBi)表示第 B i B_i Bi个SR前向分支的输出 H t i H_t^i Hti,用参数 θ B i \theta_{B_i} θBi表示该前向分支的网络参数; ⊙ \odot 表示元素级相乘。


训练技巧
实际训练中作者先独立训练 N N N个不同时间窗口的SR前向分支,获得了 N N N个类似结构的ESPCN网络;然后我们将这些训练好的参数作为时间自适应网络的初始化参数,利用式(2)去训练时间调制分支和在各个SR前向分支上微调。作者指出这种方式可以加速收敛!

4 Spatial Alignment Methods

我们通过对齐网络来增加相邻连续时间帧的内容相关性和时间相关性。在VSR中,时间对齐网络为后续融合SR网络提供了对齐的连续时间帧,是增加VSR表现力必不可少的前处理环节!

4.1 Rectified Optical Flow Alignment

LTD和VESPCN的运动补偿网络都是基于STN来做的,他们两有3个不同,其中之一在于LTD引入了一个Rectified Optical Flow Alignment来作为STN中Localisation网络输出参数的target,这种在中间过程增加额外Loss的过程有点像Inception-v2中的辅助分类器,我们在优化整个TSTN(Temporal-STN)的时候,可以将这个辅助训练作为一个正则化项,但是在本文中,关于对齐网络的损失仅仅只是关于Localisation网络MSE损失,具体如下式(3)所示。

那么这个Rectified Optical Flow Alignment是怎么做的呢?
Rectified Optical Flow Alignment每次操作的对象只是一个patch,我们计算这个patch内参考帧和支持帧之间的光流信息(运动矢量),然后将这个patch内沿着水平和垂直两个方向分别统计所有运动矢量的平均值,我们按四舍五入来将这个平均光流信息取整数,也就是说输入这个patch,输出这个patch对应的2个整数光流信息 θ S T x 、 θ S T y \theta_{ST}^x、\theta_{ST}^y θSTxθSTy,分别代表水平和垂直方向。那么遍历参考帧和支持帧所有的patch就可以得到所有的整数平均光流。将这些光流作用于支持帧,就可以获得支持帧的一个估计值,从直观上来看,这个估计值应该和支持帧很相似。但我们最后需要的不是这个估计值,而是该过程中得到的2个整数光流信息 θ S T x 、 θ S T y \theta_{ST}^x、\theta_{ST}^y θSTxθSTy
Note:

  1. 之所以采用整数光流是因为浮点数势必要加入插值操作,而插值带来的最大的坏处在于会引入模糊或混叠这种artifacts。
  2. LTD和VESPCN中的STN另一个不同在于前者在Localization网络输出2个元素,即一个 ( 2 , ) (2,) (2,)格式的一维张量,而后者输出的是Image-wise的运动矢量 Δ \Delta Δ
  3. 每一个patch输出2个变换参数,假设一帧有 M M M个patch,最终就输出 2 M 2M 2M个变换参数。
  4. 具体如何计算光流,作者采用这篇文章提到的做法。

4.2 Spatial Alignment Network

接下来我们分下这个时间对齐网络的结构:
在这里插入图片描述
TSTN网络的输入一般是2个相邻帧,其中一个是固定的参考帧,另一个是时间窗口内的支持帧,输出是支持帧的估计值,也就是和参考帧对齐的支持帧(支持帧的对齐版本)。将输出的对齐连续帧输入给后面的融合SR网络,也就是第3节介绍的时间自适应网络来重建出当前参考帧的高分辨率图像。
具体来看:
①回归变换参数
首先2帧相邻图像通过Early fusion输入Localisation网络(即深度为 2 × c 2\times c 2×c),回归出变换参数 θ ^ S T \hat{\theta}_{ST} θ^ST,这是一个两元素的一维张量,分别代表水平方向的变换和垂直方向的变换。
具体Localisation网络结构如下:
在这里插入图片描述
我们将回归出的参数和Rectified Optical Flow Alignment输出的参数标签做MSE损失来辅助优化Localization网络的变换参数。
Note:

  1. 由于Rectified Optical Flow Alignment(ROF)是基于patch的,因此我们在Localisation网络也是基于patch-wise的。

②重采样
和STN不一样的是,TSTN将获取网格和重采样放一起来做。这里和VESPCN中的重采样一样,就是将输出(对齐版本的支持帧)的网格点 ( x s , y s ) (x^s,y^s) (xs,ys)通过变换得到在支持帧上相应的亚像素格点 ( x m , y m ) (x^m,y^m) (xm,ym),通过双线性插值获取对应的像素值作为输出网格点 ( x s , y s ) (x^s,y^s) (xs,ys)上的像素值。由于双线性插值可使得整个网络变得可导,因此整个时间对齐网络可以和后面的融合SR网络组成端对端的训练。

③最后将1个样本中所有支持帧和参考帧组成的输入对按上述TSTN进行对齐,作为后续融合SR网络——时间自适应网络的输入。

我们给出对齐网络和融合SR网络的联合训练损失:
min ⁡ { Θ , θ L } ∑ j ∣ ∣ F ( y ( j ) ; Θ ) − x ( j ) ∣ ∣ 2 2 ⏟ T e m p o r a l    a d a p t i v e    n e t w o r k + λ ∑ j ∑ k ∈ N j ∣ ∣ θ ^ S T ( k ) − θ S T ( k ) ∣ ∣ 2 2 ⏟ S p a t i a l    a l i g n m e n t    n e t w o r k . (3) \min_{\{\Theta,\theta_L\}} \underbrace{\sum_j ||F(y^{(j)};\Theta)-x^{(j)}||_2^2}_{Temporal\;adaptive\;network} + \lambda \underbrace{\sum_j\sum_{k\in \mathcal{N}_j}||\hat{\theta}_{ST}^{(k)}-\theta_{ST}^{(k)}||^2_2}_{Spatial\;alignment\;network}.\tag{3} { Θ,θL}minTemporaladaptivenetwork jF(y(j);Θ)x(j)22+λSpatialalignmentnetwork jkNjθ^ST(k)θST(k)22.(3)其中 N j \mathcal{N}_j Nj表示第 j j j个样本中所有的 L R LR LR参考帧、支持帧输入对; λ \lambda λ用来平衡两个部分的Loss。
Note:

  1. 这个损失函数就是LTD和VESPCN在STN上的第3个不同点,它只有优化了Localisation网络的参数。

整个LTD结构由Spatial Alignment network和Temporal Adaptive network先后组成,其网络结构如下:
在这里插入图片描述

5 Experiments

5.1 Datasets

训练集:LIVE Video Quality Assessment DatabaseMCL-V DatabaseTUM 1080p Data Set
测试集:6个经典场景calendarcityfoliagepenguintemplewalk;以及4k视频集:Ultra Video Group Database
所有的 L R LR LR数据都是从上面数据集中的 H R HR HR图像通过Bicubic插值获得的。

5.2 Implementation Details

  1. 所有的实验都基于YCbCr颜色空间,且只处理其中的亮度(Y)通道,即 c = 1 c=1 c=1
  2. SR缩放倍率 r = 4 r=4 r=4,因为这个倍率在VSR中很能体现算法的能力。
  3. 时间自适应网络的输入为 5 × 30 × 30 5\times 30\times 30 5×30×30,即有连续的5帧(这个表示最大的连续帧数),每一帧都是一个 30 × 30 30\times 30 30×30的patch。
  4. 自集成技巧:旋转、镜像、缩放。
  5. Batchsize=64,共训练500W个iterations。
  6. 除了每个分支第一层卷积参数以外,SR前向分支网络的初始参数使用SISR模型的参数;至于第一层,可以对每个时间维度都复制SISR中相同的参数。这种初始化策略可以加速收敛。此外,根据3.3节所说,每个前向分支训练完之后的参数可以继续作为整个时间自适应网络的初始化参数。故总共有2次初始化参数的过程。

5.3 Analysis of Network Architecture

本节是为了继续探究时间自适应网络的特性。
设置关于时间自适应网络的7种结构,设 B i B_i Bi表示输入为 2 i − 1 2i-1 2i1帧,且只有1个时间尺度; B i , j B_{i,j} Bi,j则表示有2个时间尺度,分别由 2 i − 1 、 2 j − 1 2i-1、2j-1 2i12j1帧,依次类推,此外 T T T表示时间调制分支。这7种结构分别是:
B 1 B_1 B1
B 2 B_2 B2
B 3 B_3 B3
B 1 , 2 B_{1,2} B1,2
B 1 , 2 + T B_{1,2}+T B1,2+T
B 1 , 2 , 3 B_{1,2,3} B1,2,3
B 1 , 2 , 3 + T B_{1,2,3}+T B1,2,3+T
Note:

  1. 比如 B 1 , 2 B_{1,2} B1,2是将两个尺度各自超分结果做平均。
  2. 对齐网络统一采用4.1节提出的ROF做的。

以上7种结果在6种环境下的评测结果如下(PSNR):
在这里插入图片描述
实验结论如下:

  1. B 1 、 B 2 、 B 3 B_1、B_2、B_3 B1B2B3对比来看,一定范围内,越多的支持帧对SR重建的表现力提升越明显
  2. B 1 , 2 + T ↔ B 1 , 2 B_{1,2}+T \leftrightarrow B_{1,2} B1,2+TB1,2 B 1 , 2 , 3 + T ↔ B 1 , 2 , 3 B_{1,2,3}+T \leftrightarrow B_{1,2,3} B1,2,3+TB1,2,3对比来看,注意力机制产生的权重比简单的平均分配的效果更好

可视化结果如下:
在这里插入图片描述
作者针对 B 1 、 B 3 、 B 1 , 2 , 3 + T B_1、B_3、B_{1,2,3}+T B1B3B1,2,3+T和Ground Truth三种结构进行来可视化比对。

  1. 其中针对walk这个环境中的2个区域做了重点研究,红色框是行人的耳朵,其运动相对比较缓慢;蓝色框是一只飞翔的鸽子,其运动幅度相对较大,运动估计较难准确实现:可以理解为相机的相邻帧可能很难捕捉精确的运动细节,比如一帧中鸽子是有明确位置的,下一帧鸽子就到了另一个地方,由于幅度较大,很难知道中间具体做了什么运动,因此网络在学习的时候就很可能会学错(运动估计的出错会导致后续融合SR网络也会出现问题),这样在测试的时候,对于其他运动的物体就会判定错误的运动方式,从而出现各种artifacts。比如针对蓝色框, B 1 B_1 B1的表现会比 B 3 B_3 B3更好,有更少的artifacts,说明了多帧下运动估计出了问题,而 B 1 B_1 B1不需要对齐,自然不需要进行运动估计,所以避免了这个问题。因此,大运动下的对齐是很多VSR网络急需解决的问题(EDVR就针对这个问题提出了新的网络结构)
  2. 对于红色框这种慢性运动 B 3 B_3 B3倒是表现得比 B 1 B_1 B1更好,恢复了更多的细节,证明了LTD对于慢性运动的对齐做的还是可以的,它利用了视频帧时间冗余的特点,更好的提高VSR的表现力。
  3. B 1 , 2 , 3 + T B_{1,2,3}+T B1,2,3+T比2个单SR前向分支在红框和蓝框的表现都要好,说明了注意力机制的引入对VSR表现力的提升还是可观的。

为了更进一步研究时间调制分支中注意力机制的作用,作者可视化了foliagetemple两个环境下时间调制分支产生的权重图。实验对象是 B 1 , 2 , 3 + T B_{1,2,3}+T B1,2,3+T中关于3个前向分支 B 1 、 B 2 、 B 3 B_1、B_2、B_3 B1B2B3各自对应在时间调制分支输出中的权重图。权重图也是色彩为 0 − 255 0-255 0255的灰度图(255代表白色,0代表黑色)。此外我们将3张权重图中,每个像素位置最大的权值提取出来,形成一张Max label map,在这张图中,我们用黄色、蓝绿色、深蓝色分别表示 B 1 、 B 2 、 B 3 B_1、B_2、B_3 B1B2B3属于各自权重图的部分。实验结果如下:
在这里插入图片描述
需要注意的是:foliage中运动较大的物体为汽车,运动较慢的是背景;temple中运动较大的物体为灯笼顶部,运动较慢的是天空。
实验结论如下:

  1. 对于运动较大的物体,多帧下的融合重建往往无法展现较好的表现,这起源于运动估计的不准确。故在 B 3 B_3 B3中时间调制会给与汽车和灯笼顶部近乎0的权值;而单帧下 B 1 B_1 B1不需要运动估计,就可以展现出较好的表现效果,故给与的权值近乎255,即在Max label map中汽车和灯笼顶部都是属于 B 1 B_1 B1权值图的黄色。
  2. 对于运动较小的物体,多帧下的融合重建往往展现较好,这起源于对齐带来的优势,使得融合时候可以更好的利用帧的连续以及内容时间对齐带来的更多特征信息,有助于超分网络更好的展现重建效果。

5.4 Analysis of Spatial Alignment Methods

接下来分析时间对齐网络的相关特性研究,对于ROF的光流计算,我们采用这篇文章的方法。

首先展示的是ROF相较于其他传统flow-based对齐方法的优势,实验结果如下:
在这里插入图片描述

上述展现了ROF的准确的运动估计,因此作者将他作为Spatial Alignment network中localisation网络回归的变换参数的target值。对于LTD的时间对齐网络,我们输入 60 × 60 60\times 60 60×60的patch,在对齐之后只要中间的 30 × 30 30\times 30 30×30区域输送给融合SR网络——时间自适应网络,其余部分丢弃。此外,我们设置式(3)中 λ = − 1 0 3 \lambda=- 10^{3} λ=103,具体可视化结果如下:
在这里插入图片描述
实验结论如下:

  1. 我们的时间对齐网络的输出,即对齐版本的参考帧很不错的完成了和参考帧的对齐。

接下来我们来体现时间对齐网络在PSNR上的提升效果,实验结果如下:
在这里插入图片描述
我们设置了 r = 4 r=4 r=4,且对于融合SR网络均只是使用 B 3 B_3 B3,即输入帧为连续对齐的5帧,实验结论如下:

  1. 我们的时间对齐网络表现力仅低于ROF,说明了其对齐的有效性。
  2. ROF自然是可以取得最佳的表现,这也为我们将它作为SAN中Localisation网络的标签提供了有力的证明。

5.5 Comparison with State-of-the-Art

这一节作者使用目前最佳性能的 B 1 , 2 , 3 + T B_{1,2,3}+T B1,2,3+T以及使用ROF作为target构成的整个LTD来和其他SR方法做对比。
实验结果如下:
在这里插入图片描述
实验结论如下:

  1. 从可视化来看,LTD展现了更少的artifacts。
  2. 从PSNR来看,LTD提升了最大的表现力。

对于高清数据集上的表现力结果如下:
在这里插入图片描述
实验结论如下:

  1. LTD在高清数据集上仍然取得了SOTA的表现力。

超分往往可以作为一些识别任务的前处理,故接下来作者就要展现LTD在高级计算机任务中展现的能力。作者将超分应用于人脸识别任务,使用YouTube Face数据集,SR缩放倍率 r = 4 r=4 r=4,每张图片裁剪成 60 × 60 60\times 60 60×60的patch输入对齐网络,实验结果如下:
在这里插入图片描述
实验结论如下:

  1. LTD展现了最高的Top-1和Top-5表现,这证明了LTD的有效性,以及超分不仅可以提升人眼视觉的可观性,同时也可以用来提升很多高级计算机任务的性能

5.6 Running Time Analysis

LTD主要由2部分组成,那么自然时间消耗就在时间对齐网络和时间自适应网络上。
①对于Spatial Alignment network,作者指出对于 4 k 4k 4k视频的重建,传统flow-based对齐需要15s来对齐5帧 540 × 960 540\times 960 540×960( r = 4 r=4 r=4),而SAN只需要0.8s!
②对于Temporal Adaptive network, B 1 B_1 B1需要0.3s去重建一张 4 k 4k 4k的高分辨图下,而 B 1 、 B 2 、 B 3 B_1、B_2、B_3 B1B2B3只是输入维度不同,故时间相差不大。此外,所有的特征提取都基于 L R LR LR层级且所有分支都是并行执行的,故其计算效率也是可行的。

6 Conclusions

  1. 作者主要提出了一种新的SOTA表现得VSR方法——LTD。它由Spatial Alignment network和Temporal adaptive network两部分组成。前者用于对齐,后者利用对齐的连续视频帧重建出 H R HR HR图像帧。时间对齐网络基于STN,使用ROF作为target来优化变换参数;时间自适应网络基于注意力机制,通过使用 N N N个并行的SR前向分支和时间调制分支产生用于自动选择最佳时间尺度(窗口、大小、滤波器、冗余)的SR网络,该网络可以是之前任意的SISR网络,比如ESPCN、SRCNN等。作者通过实验证明这两个网络都具备提升超分表现力的能力!
  2. LTD的缺陷主要在于时间对齐网络:一方面是其本质是flow-based方法,高度依赖于光流估计的准确性,一旦运动估计出错,就会导致大量的artifacts出现,且会直接影响后续融合SR网络。第二个方面是对于大运动,LTD仍欠缺可以应对的能力,这一点从实验中也可以看出。

猜你喜欢

转载自blog.csdn.net/MR_kdcon/article/details/124345307