码迷,mamicode.com
首页 > 其他好文 > 详细

Collection | 将深度学习用于图像去噪

时间:2018-12-16 11:11:38      阅读:858      评论:0      收藏:0      [点我收藏+]

标签:过程   解释   img   大量   特征   12月   配置   迭代   mina   

目录

I. Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising

热度:2016年发表,2018年12月引用量约500。

1. Introduction

在此之前, Discriminative model 用于图像去噪已经取得了巨大的成功。

在这篇文章中,作者尝试了前向深度网络: Denoising convolutional neural networks (DnCNNs)
在此过程中,作者加入了 BN 和残差学习技巧,既加快训练速度,也提升模型性能。
引入残差学习的好处:不同图像任务,大多只区别于残差;比如加不同程度的高斯噪声。因此 DnCNNs 在多种图像去噪任务上都可以胜任。

上述思路,在2016年还行得通。但在深度学习泛滥的今天,骨头汤里的肉已经被吃完了,只剩骨头了。因此,单纯增加深度和引入结构性设计,是很难作为创新点的。

由贝叶斯学派的观点,对于图片去噪,当似然已知时,图像的先验就是决定性因素。
事实上,过去多年内,许多人都在朝这一方向努力。如 nonlocal self-similarity (NSS) models ,稀疏模型等。
但它们都有两个共同缺点:

  1. 在测试阶段,这些方法都包含一个复杂的优化过程,非常耗时。
  2. 这些模型大体上都是非凸的,并且包含手工设计的参数。

后人做了一些改进,着力于取代测试阶段复杂的迭代优化过程。然而,它们的性能仍然受到先验类别的局限。具体来说,它们对特征的挖掘存在局限,并且包含了大量手工设计的参数。

事实上,这也是大多数传统方法和深度学习方法相比较的劣势。深度学习方法可解释性不佳,但是很少需要人工介入,也很强大。

2. DnCNN

技术分享图片

网络结构是简单的一条流水线:前面只用了简单 CNN 和 ReLU 激活单元,中间用 CNN Plus BN 加速训练,最后 CNN 输出。
整体上是学习残差。

该网络对比前任的优点还有:通过简单的零插值,就可以使输入、输出尺寸相同,避免了 Boundary artifacts 。

由于结构性创新是重点,因此作者比较了不同配置下网络的性能。有趣的是, BN 和 ResLearning 缺一不可,否则性能可能不如传统方法。

技术分享图片

最后,为了实现所谓的多任务,作者在训练集中掺入不同噪声的训练样本, JPEG 压缩图像 或 降采样图像。实验表明,这样训练出来的单一模型,仍然可以胜任多任务。

Collection | 将深度学习用于图像去噪

标签:过程   解释   img   大量   特征   12月   配置   迭代   mina   

原文地址:https://www.cnblogs.com/RyanXing/p/10125700.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!