基于深度学习的图像去雾算法:GFN(门控融合网络)
字数 1171 2025-11-04 20:47:20
基于深度学习的图像去雾算法:GFN(门控融合网络)
题目描述
图像去雾旨在从有雾图像中恢复出清晰、无雾的场景内容。大气散射模型描述了雾霾形成过程:I(x) = J(x)t(x) + A(1-t(x)),其中I(x)是有雾图像,J(x)是目标清晰图像,t(x)是透射率图,A是全球大气光值。传统方法依赖手工先验(如暗通道先验),但易在复杂场景下失效。GFN(Gated Fusion Network)通过深度学习端到端学习雾霾特征,并引入门控机制自适应融合多尺度特征,提升去雾效果。
解题过程
-
网络整体架构设计
GFN采用编码器-解码器结构,包含三个核心模块:- 多尺度特征提取编码器:使用卷积层与池化操作,从输入有雾图像提取不同尺度的特征图(如原图、1/2尺寸、1/4尺寸)。多尺度能捕获局部细节(如纹理)与全局结构(如远景雾浓度)。
- 门控融合模块(Gated Fusion Module):核心创新点。通过门控权重(0到1之间的值)动态加权融合多尺度特征,避免简单拼接或相加导致的特征冲突。公式为:F_fused = ∑(G_i ⊙ F_i),其中G_i是第i个尺度的门控图,F_i是对应特征,⊙为逐元素乘法。
- 图像重建解码器:通过反卷积或上采样层逐步恢复分辨率,最终输出清晰图像J(x)。损失函数通常结合L1损失(保真度)与SSIM损失(结构相似性)。
-
门控机制的具体实现
- 门控权重G_i通过sigmoid函数生成,输入为多尺度特征的拼接。例如,将不同尺度的特征上采样至原图尺寸后拼接,通过1×1卷积压缩通道数,再经sigmoid输出各像素的权重。
- 门控的意义:例如,远景区域雾浓度高,网络可能赋予全局特征更高权重;近景细节丰富时,则偏向局部特征。这种自适应融合优于固定规则。
-
训练策略与优化
- 使用合成雾霾数据集(如RESIDE)训练,其中清晰图像J(x)与有雾图像I(x)成对出现。
- 损失函数设计:L_total = λ1·L1(J_pred, J_gt) + λ2·(1-SSIM(J_pred, J_gt)),平衡像素级误差与结构一致性。
- 优化器常选用Adam,初始学习率设为1e-4,并采用学习率衰减策略。
-
效果验证与对比
- 在测试集上计算PSNR(峰值信噪比)与SSIM指标,对比传统方法(如DCP)及其他深度学习模型(如DehazeNet)。GFN在真实场景中能更好保留边缘细节,减少光晕伪影。
- 门控权重的可视化可解释融合机制:例如,门控图在天空区域权重较低(避免过度增强),在物体边缘权重较高(增强细节)。
关键点总结
GFN的创新在于通过门控机制解决多尺度特征融合的冲突问题,模仿人类视觉系统对雾霾的适应性处理。后续研究可进一步结合注意力机制或Transformer提升长距离依赖建模能力。