文章及其思维概要

通过双图像自适应可学习滤波器改善夜间驾驶场景分割开源代码看第二个

概要

主要内容:
这篇文章的第一部分主要介绍了一种改善夜间驾驶场景分割的方法,称为双重图像自适应可学习滤波器(DIAL-Filters)。该方法的目的是利用不同照明条件下驾驶场景图像的内在特征,提高语义分割的性能。DIAL-Filters包括两个部分,一个是图像自适应处理模块(IAPM),另一个是可学习的引导滤波器(LGF)。¹[1]作者设计了有监督和无监督的分割框架,可以端到端地训练DIAL-Filters,并在几个夜间分割数据集上进行了实验,证明了其有效性和优越性。
算法:
这篇文章使用了以下的算法:

  • CNN-PP: 一个基于卷积神经网络的参数预测器,用于根据输入图像的亮度、对比度和曝光信息,自适应地预测不同的图像滤波器的超参数。
  • DIF: 一组可微分的图像滤波器,包括曝光、伽马、对比度和锐化,用于增强输入图像的质量和细节。
  • LGF: 一个可学习的引导滤波器,用于在分割网络的输出后,保留边缘和细节,提高分割性能。
  • DeepLabV2RefineNetPSPNet: 三种经典的语义分割网络,用于从增强后的图像中预测每个像素的类别。
  • DANNet: 一个基于对抗学习的域适应网络,用于从有标签的白天图像到无标签的夜晚图像的无监督分割。

此外,该文章还提出了一种改善夜间驾驶场景分割的方法,称为双重图像自适应可学习滤波器(DIAL-Filters)。该方法的目的是利用不同照明条件下驾驶场景图像的内在特征,提高语义分割的性能。DIAL-Filters包括两个部分,一个是图像自适应处理模块(IAPM),另一个是可学习的引导滤波器(LGF)。作者设计了有监督和无监督的分割框架,可以端到端地训练DIAL-Filters,并在几个夜间分割数据集上进行了实验,证明了其有效性和优越性。更多关于DIAL-Filters的优化信息,您可以参考这篇文章
参考:
(1) 中科院一区顶刊 TCSVT 2023 | DIAL-Filters: 显著提升模糊夜视场景下的检测和分割性能! - 知乎. https://zhuanlan.zhihu.com/p/634647903.
(2) 中科院一区顶刊 TCSVT 2023 | DIAL-Filters: 显著提升模糊夜视场景下的检测和分割性能!-CSDN博客. https://blog.csdn.net/CVHub/article/details/131039479.
(3) DIAL-Filters: 显著提升模糊夜视场景下的检测和分割性能! - 极术社区 - 连接开发者与智能计算生态. https://aijishu.com/a/1060000000406110.
(4) IA-SEG项目中DIAL-Filters(IAPM模块+LGF模块)使用解读-CSDN博客. https://blog.csdn.net/a486259/article/details/132630524.

名词解释

端到端的学习解释:
端到端,是相对于 非端到端 而言的。在机器学习最开始的时候,人们并不是直接输入原始数据,获得最终结果;而是首先通过特征提取,对原始数据进行初步的处理,然后再对于得到的特征进行学习,得出分类or回归的结果。比如使用一些hand-crafted functions作为特征描述符等等。
因此,在这种情况下(非端到端),特征的提取会对模型的最终表现有着巨大的影响。而特征描述符的书写又具有很大的经验成分,所以是一件比较困难的任务。
端到端的学习,就是把特征提取的任务也交给模型去做,直接输入原始数据或者经过些微预处理的数据,让模型自己进行特征提取。
CNN-PP
DIF只是一个概念,方差用Var(X)或D(X)来表示,协方差(Covariance, Cov)
分割网络Segmentation Network
Dropout
FC layer
语义分割指标---MIoU详细介绍