文献阅读:DEA-Net:基于细节增强卷积和内容引导注意的单图像去雾

2024-03-10 05:44

本文主要是介绍文献阅读:DEA-Net:基于细节增强卷积和内容引导注意的单图像去雾,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 摘要
  • Abstract
  • 文献阅读:DEA-Net:基于细节增强卷积和内容引导注意的单图像去雾
    • 1、研究背景
    • 2、方法提出
    • 3、相关知识
      • 3.1、DEConv
      • 3.3、多重卷积的计算
      • 3.3、FAM
      • 3.4、CGA
    • 4、实验
      • 4.1、数据集
      • 4.2、评价指标
      • 4.3、实验结果
      • 5、贡献
  • 二、CGA模块代码学习
    • 1、空间注意力模块
    • 2、通道注意力模块
    • 3、像素注意力模块
  • 总结


摘要

本周主要阅读了文章,DEA-Net:基于细节增强卷积和内容引导注意的单图像去雾。该论文提出了提出了一种细节增强注意力块(DEAB),该模块由一个细节增强卷积(DEConv)和一个内容引导的注意力(CGA)机制组成,使得模型能够更好地保留图像的细节信息,同时又能关注图像中的重要信息,从而达到更好的去雾效果。除此之外,还学习学习了CGA模块的注意力代码模块的学习。

Abstract

This week, I mainly read the article DEA-Net: Single Image De-Fogging Based on Detail Enhancement Convolution and Content Guided Attention. This paper proposes a detail enhancement attention block DEAB, which consists of a detail enhancement convolution DEConv and a content guided attention CGA mechanism. This module enables the model to better preserve the details of the image while also focusing on important information in the image, thus achieving better de-fogging effects. In addition, I also learned about the attention code module of the CGA module.


文献阅读:DEA-Net:基于细节增强卷积和内容引导注意的单图像去雾

Title: DEA-Net: Single image dehazing based on detail-enhanced convolution and content-guided attention
Author:Zixuan Chen, Zewei He†, Zhe-Ming Lu
From:JOURNAL OF LATEX CLASS FILES, VOL. 14, NO. 8, AUGUST 2021 1

1、研究背景

单张图像去雾是一个低级视觉任务,旨在从单张受雾影响的图像中恢复其清晰的场景。图像去雾在许多计算机视觉应用中都有需求,例如自动驾驶、无人机、监控系统等。在这些应用中,准确的场景感知和物体识别对于系统的可靠性和安全性至关重要。当然单图像去雾是一个具有挑战性的问题,它从观测到的雾图像中估计潜在的无雾图像。一些现有的基于深度学习的方法致力于通过增加卷积的深度或宽度来提高模型性能。卷积神经网络(CNN)的学习能力仍然没有得到充分探索。

2、方法提出

本文提出了一种细节增强注意力块(DEAB),DEA-Net是一种用于单张图像去雾的深度学习网络。它采用类似U-Net的编码器-解码器结构,由三部分组成:编码器部分、特征转换部分和解码器部分。在去雾等低级视觉任务中,从编码器部分融合特征与解码器部分的特征是一种有效的技巧。该模块由一个细节增强卷积(DEConv)和一个内容引导的注意力(CGA)机制组成。DEConv包含并行的普通卷积和差异卷积,五个卷积层(四个差异卷积和一个普通卷积),这些卷积层并行部署用于特征提取。 此外,复杂的注意力机制(即CGA)是一个两步注意力生成器,它可以首先产生粗略的空间注意力图,然后对其进行细化。
在这里插入图片描述

3、相关知识

3.1、DEConv

DEConv包含五个卷积层(四个差异卷积和一个普通卷积),这些卷积层并行部署用于特征提取。具体来说,采用中心差分卷积(CDC)、角差分卷积(ADC)、水平差分卷积(HDC)和垂直差分卷积(VDC)将传统的局部描述符集成到卷积层中,从而可以增强表示能力和泛化能力。在差异卷积中,首先计算图像中的像素差异,然后与卷积核卷积以生成输出特征图。通过设计像素对的差异计算策略,可以将先验信息显式编码到CNN中。这些卷积用于特征提取和学习,可以增强表示能力和泛化能力。
在这里插入图片描述

3.3、多重卷积的计算

VC、CDC、ADC、HDC和VDC的核函数,与图像进行卷积,最后并行卷积结合在一起。
在这里插入图片描述

3.3、FAM

FAM(Feature attention module)是一种用于图像去雾的注意力机制模块,它包含通道注意力和空间注意力两部分。FAM通过对不同通道和像素进行不平等处理,提高了去雾性能。然而,FAM的空间注意力只能在图像级别上解决不均匀的雾分布问题,忽略了其他维度。以此有以下几个缺点:

  1. 空间注意力机制:FAM中的空间注意力只能在图像级别上解决不均匀的雾分布问题,这意味着它无法处理多尺度维度的雾分布问题。在处理具有复杂雾分布的图像时,这可能会导致去雾效果不佳。
  2. 通道特异性SIMs(空间注意图):FAM在计算注意力权重时,只使用了一个单一通道来表示输入特征的重要区域,而输入特征的通道数量相对较大。这可能导致注意力权重的计算不够准确,从而影响去雾效果。
  3. 两个注意力权重之间缺乏信息交换:在FAM中,通道注意力和空间注意力是顺序计算的,它们之间没有信息交换。这意味着它们可能无法充分考虑彼此的特点,从而影响去雾效果。

3.4、CGA

CGA(Content-Guided Attention)是一种内容引导注意力机制,用于提高图像恢复任务中神经网络的性能。CGA是一种粗细处理过程,首先生成粗略的空间注意力图,然后根据输入特征图的每个通道进行细化,以产生最终的空间注意力图。CGA通过使用输入特征的内容来引导注意力图的生成,从而更加关注每个通道的唯一特征部分,可以更好地重新校准特征,学习通道特定的注意力图,以关注通道之间的雾霾分布差异。CGA的工作过程分为两步:

  1. 生成粗略的空间注意力图。这是一个粗细处理过程,通过生成一个粗略的注意力图,可以快速捕捉到图像中的主要特征。
  2. 根据输入特征图的每个通道对注意力图进行细化。这一步的目的是使注意力图更加精确,能够关注到特征图中的独特部分。

在这里插入图片描述

4、实验

4.1、数据集

  1. SOTS:SOTS是一个包含1000张室内和室外清晰图像以及对应的带有不同雾度的模糊图像的数据集。该数据集分为训练集、验证集和测试集。SOTS数据集的图像具有丰富的场景和复杂的雾度,因此可以有效地评估图像去雾方法在各种情况下的性能。
  2. Haze4K:Haze4K数据集包含4000张带有不同雾度的室内和室外图像,用于训练和测试图像去雾方法。该数据集分为训练集和测试集。Haze4K数据集的图像具有较高的分辨率和丰富的场景,可以有效地训练和评估图像去雾方法。

4.2、评价指标

  1. PSNR:峰值信噪比(Peak Signal-to-Noise Ratio)是一种用于衡量图像质量的评价指标。它通过计算去雾图像与清晰图像之间的均方误差(MSE)来评估图像去雾方法的性能。PSNR的计算公式为:PSNR = 10 * log10(255^2 / MSE) 。其中,255是像素值的范围,MSE是去雾图像与清晰图像之间的均方误差。PSNR值越高,说明去雾图像的质量越好,图像去雾方法的性能也就越好。
  2. SSIM:结构相似度指数(Structural Similarity Index)是一种用于衡量图像结构信息的评价指标。它通过比较去雾图像与清晰图像之间的亮度、对比度和结构信息来评估图像去雾方法的性能。SSIM的计算公式为:SSIM = (2 * μx * μy + C1) * (2 * σxy + C2) / ((μx^2 + μy^2 + C1) * (σx^2 + σy^2 + C2))。其中,μx和μy分别是去雾图像和清晰图像的平均灰度值,σx2和σy2分别是去雾图像和清晰图像的方差,σxy是去雾图像和清晰图像的协方差,C1和C2是常数。SSIM值越高,说明去雾图像的结构信息与清晰图像越相似,图像去雾方法的性能也就越好。

4.3、实验结果

在这里插入图片描述

5、贡献

  1. Detail-Enhanced Convolution (DEConv)
    作者提出了Detail-Enhanced Convolution (DEConv),这是一种包含并行的vanilla和difference卷积的新型卷积方式。DEConv第一次引入差分卷积来解决图像去噪问题。传统的卷积操作主要是通过滑动窗口在输入图像上进行操作,而差分卷积则是在卷积操作中引入了差分的思想,使得卷积核在不同的位置具有不同的权重,这样可以更好地捕捉图像中的细节信息,提高去噪效果。DEConv的引入,使得模型能够更好地保留图像的细节信息,提高图像去雾的性能。

  2. Content-Guided Attention (CGA)
    作者还提出了Content-Guided Attention (CGA),这是一种创新的注意力机制。CGA为每个通道分配唯一的SIM,引导模型关注每个通道的重要区域。这样可以强调编码在特征中的更多有用信息,以有效提高去雾性能。CGA的引入,使得模型能够更加关注图像中的重要信息,忽略无关的信息,从而提高图像去雾的效果。此外,作者还将DEConv与CGA相结合,提出了DEA-Net的主要模块,即细节增强注意模块 (DEAB)。DEAB的引入,使得模型能够更好地保留图像的细节信息,同时又能关注图像中的重要信息,从而达到更好的去雾效果 。

二、CGA模块代码学习

1、空间注意力模块


class SpatialAttention(nn.Module):def __init__(self):super(SpatialAttention, self).__init__()self.sa = nn.Conv2d(2, 1, 7, padding=3, padding_mode='reflect', bias=True)# 定义一个二维卷积层self.sa,输入通道数为2,输出通道数为1,卷积核大小为7x7  # padding=3表示在输入数据的周围填充3个像素,保持空间尺寸不变  # padding_mode='reflect'表示使用反射填充方式  # bias=True表示卷积层使用偏置项  def forward(self, x):  x_avg = torch.mean(x, dim=1, keepdim=True)  # 计算输入x在通道维度(dim=1)上的平均值,并保持输出的维度与输入相同  x_max, _ = torch.max(x, dim=1, keepdim=True)  # 找到输入x在通道维度上的最大值,并忽略最大值的索引(用_表示)  # 同样保持输出的维度与输入相同  x2 = torch.cat([x_avg, x_max], dim=1)  # 将x_avg和x_max沿着通道维度(dim=1)拼接起来,得到新的张量x2  # 此时x2的通道数是x的两倍  sattn = self.sa(x2)  # 将x2作为输入传递给之前定义的卷积层self.sa,得到输出sattn  return sattn  # 返回计算得到的空间注意力图sattn

2、通道注意力模块

class ChannelAttention(nn.Module):  def __init__(self, dim, reduction=8):  # 初始化方法,接收输入特征的通道数dim和一个可选的通道数减少比例reduction(默认为8super(ChannelAttention, self).__init__()  # 定义了一个自适应平均池化层,输出大小为1x1,用于对每个通道内的所有元素进行平均  self.gap = nn.AdaptiveAvgPool2d(1)  # 定义了一个顺序模型self.ca,包含两个卷积层和一个ReLU激活函数  self.ca = nn.Sequential(  # 第一个卷积层将输入特征的通道数从dim减少到dim // reduction,使用1x1的卷积核,无填充,并使用偏置  nn.Conv2d(dim, dim // reduction, 1, padding=0, bias=True),  # ReLU激活函数对第一个卷积层的输出进行非线性变换,inplace=True表示直接在输入数据上进行修改  nn.ReLU(inplace=True),  # 第二个卷积层将通道数从dim // reduction恢复到原始的dim,同样使用1x1的卷积核和无填充  nn.Conv2d(dim // reduction, dim, 1, padding=0, bias=True),  )  def forward(self, x):  # 对输入x进行自适应平均池化操作,得到每个通道的平均值  x_gap = self.gap(x)  # 将池化后的结果x_gap传递给self.ca顺序模型,计算通道注意力权重  cattn = self.ca(x_gap)  # 返回计算得到的通道注意力权重  return cattn

3、像素注意力模块

class PixelAttention(nn.Module):  def __init__(self, dim):  super(PixelAttention, self).__init__()  # 定义一个二维卷积层,输入通道数为2*dim,输出通道数为dim,  # 卷积核大小为7x7,填充大小为3(使用reflect模式),分组数为dim,并使用偏置项。  self.pa2 = nn.Conv2d(2 * dim, dim, 7, padding=3, padding_mode='reflect', groups=dim, bias=True)  # 定义一个Sigmoid激活函数  self.sigmoid = nn.Sigmoid()  def forward(self, x, pattn1):  """  前向传播方法,接收两个输入:特征图x和另一个注意力图pattn1。  """  # 获取输入x的形状  B, C, H, W = x.shape  # 在x的通道维度之后增加一个新的维度,大小为1  x = x.unsqueeze(dim=2)  # 在pattn1的通道维度之后增加一个新的维度,大小为1  pattn1 = pattn1.unsqueeze(dim=2)   # 将x和pattn1在第二个维度(现在的大小为2)上进行拼接  x2 = torch.cat([x, pattn1], dim=2) # 使用Rearrange函数对x2的形状进行重排,将通道数和第二个维度的大小合并成一个维度  x2 = Rearrange('b c t h w -> b (c t) h w')(x2)  # 将重排后的x2输入到卷积层self.pa2中  pattn2 = self.pa2(x2)  # 对卷积层的输出应用Sigmoid激活函数  pattn2 = self.sigmoid(pattn2)  # 返回计算得到的像素注意力权重pattn2  return pattn2  

总结

本周主要阅读了文章,DEA-Net:基于细节增强卷积和内容引导注意的单图像去雾。该论文提出了提出了一种细节增强注意力块(DEAB),该模块由一个细节增强卷积(DEConv)和一个内容引导的注意力(CGA)机制组成,使得模型能够更好地保留图像的细节信息,同时又能关注图像中的重要信息,从而达到更好的去雾效果。除此之外,我还学习学习了CGA模块的注意力代码模块的学习。下周再接再厉

这篇关于文献阅读:DEA-Net:基于细节增强卷积和内容引导注意的单图像去雾的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/793238

相关文章

Python实现自动化Word文档样式复制与内容生成

《Python实现自动化Word文档样式复制与内容生成》在办公自动化领域,高效处理Word文档的样式和内容复制是一个常见需求,本文将展示如何利用Python的python-docx库实现... 目录一、为什么需要自动化 Word 文档处理二、核心功能实现:样式与表格的深度复制1. 表格复制(含样式与内容)2

Python中OpenCV与Matplotlib的图像操作入门指南

《Python中OpenCV与Matplotlib的图像操作入门指南》:本文主要介绍Python中OpenCV与Matplotlib的图像操作指南,本文通过实例代码给大家介绍的非常详细,对大家的学... 目录一、环境准备二、图像的基本操作1. 图像读取、显示与保存 使用OpenCV操作2. 像素级操作3.

C/C++的OpenCV 进行图像梯度提取的几种实现

《C/C++的OpenCV进行图像梯度提取的几种实现》本文主要介绍了C/C++的OpenCV进行图像梯度提取的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的... 目录预www.chinasem.cn备知识1. 图像加载与预处理2. Sobel 算子计算 X 和 Y

c/c++的opencv图像金字塔缩放实现

《c/c++的opencv图像金字塔缩放实现》本文主要介绍了c/c++的opencv图像金字塔缩放实现,通过对原始图像进行连续的下采样或上采样操作,生成一系列不同分辨率的图像,具有一定的参考价值,感兴... 目录图像金字塔简介图像下采样 (cv::pyrDown)图像上采样 (cv::pyrUp)C++ O

Java如何将文件内容转换为MD5哈希值

《Java如何将文件内容转换为MD5哈希值》:本文主要介绍Java如何将文件内容转换为MD5哈希值的实现方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Java文件内容转换为MD5哈希值一个完整的Java示例代码代码解释注意事项总结Java文件内容转换为MD5

使用Python自动化生成PPT并结合LLM生成内容的代码解析

《使用Python自动化生成PPT并结合LLM生成内容的代码解析》PowerPoint是常用的文档工具,但手动设计和排版耗时耗力,本文将展示如何通过Python自动化提取PPT样式并生成新PPT,同时... 目录核心代码解析1. 提取 PPT 样式到 jsON关键步骤:代码片段:2. 应用 JSON 样式到

Python+wxPython构建图像编辑器

《Python+wxPython构建图像编辑器》图像编辑应用是学习GUI编程和图像处理的绝佳项目,本教程中,我们将使用wxPython,一个跨平台的PythonGUI工具包,构建一个简单的... 目录引言环境设置创建主窗口加载和显示图像实现绘制工具矩形绘制箭头绘制文字绘制临时绘制处理缩放和旋转缩放旋转保存编

全解析CSS Grid 的 auto-fill 和 auto-fit 内容自适应

《全解析CSSGrid的auto-fill和auto-fit内容自适应》:本文主要介绍了全解析CSSGrid的auto-fill和auto-fit内容自适应的相关资料,详细内容请阅读本文,希望能对你有所帮助... css  Grid 的 auto-fill 和 auto-fit/* 父元素 */.gri

使用easy connect之后,maven无法使用,原来需要配置-Djava.net.preferIPv4Stack=true问题

《使用easyconnect之后,maven无法使用,原来需要配置-Djava.net.preferIPv4Stack=true问题》:本文主要介绍使用easyconnect之后,maven无法... 目录使用easGWowCy connect之后,maven无法使用,原来需要配置-DJava.net.pr

python+OpenCV反投影图像的实现示例详解

《python+OpenCV反投影图像的实现示例详解》:本文主要介绍python+OpenCV反投影图像的实现示例详解,本文通过实例代码图文并茂的形式给大家介绍的非常详细,感兴趣的朋友一起看看吧... 目录一、前言二、什么是反投影图像三、反投影图像的概念四、反向投影的工作原理一、利用反向投影backproj