DeblurGAN-v2:更快更好地去模糊

论文地址:DeblurGAN-v2: Deblurring (Orders-of-Magnitude) Faster and Better

Github:https://github.com/TAMU-VITA/DeblurGAN      

or   https://github.com/KupynOrest/DeblurGANv2

 概念

我们提出了一种新的端到端生成对抗网络 (GAN),用于单图像运动去模糊,名为 DeblurGAN-v2,它大大提高了最先进的去模糊效率、质量和灵活性。DeblurGAN-v2 基于具有双尺度鉴别器的相对论条件 GAN。我们首次将特征金字塔网络引入去模糊,作为 DeblurGAN-v2 生成器的核心构建块。它可以灵活地与各种主干一起工作,以在性能和效率之间取得平衡。复杂主干的插件(例如,Inception-ResNet-v2)可以实现最先进的去模糊。同时,借助轻量级骨干网(例如,MobileNet 及其变体),DeblurGAN-v2 比最接近的竞争对手快 10-100 倍,同时保持接近最先进的结果,这意味着可以选择实时视频去模糊。我们证明,在去模糊质量(客观和主观)以及效率方面,DeblurGAN-v2 在几个流行的基准测试中获得了非常有竞争力的性能。此外,我们展示了该架构对于一般图像恢复任务也很有效。

DeblurGAN-v2 架构

数据集

训练数据集可通过以下链接下载:

训练

命令

python train.py

训练脚本将在 config/config.yaml 下加载配置

张量板可视化

测试

要在单个图像上进行测试,

python predict.py IMAGE_NAME.jpg

默认情况下,Predictor 使用的预训练模型的名称是“best_fpn.h5”。可以在代码中更改它('weights_path' 参数)。它假设使用了 fpn_inception 主干。如果您想尝试使用不同的主干预训练,请在 config/config.yaml 中的 ['model']['g_name'] 下也指定它。

预训练模型

这里的预训练模型链接已经失效,无法下载。

可以参考博主之前上传的同样的权重,如下。

deblurGANV2预训练模型.zip-算法与数据结构文档类资源-CSDN下载

数据集 G型 D型 损失类型 PSNR/SSIM 关联
GoPro 测试数据集 InceptionResNet-v2 双甘 拉根 29.55/ 0.934 fpn_inception.h5
移动网络 双甘 拉根 28.17/ 0.925 fpn_mobilenet.h5
MobileNet-DSC 双甘 拉根 28.03/ 0.922

猜你喜欢

转载自blog.csdn.net/weixin_53711236/article/details/123165801