0
点赞
收藏
分享

微信扫一扫

《论文阅读28》Unsupervised 3D Shape Completion through GAN Inversion

@article{liu2021learning,
title={Learning a deep multi-scale feature ensemble and an edge-attention guidance for image fusion},
author={Liu, Jinyuan and Fan, Xin and Jiang, Ji and Liu, Risheng and Luo, Zhongxuan},
journal={IEEE Transactions on Circuits and Systems for Video Technology},
volume={32},
number={1},
pages={105–119},
year={2021},
publisher={IEEE}
}


论文级别:SCI A2
影响因子:8.4

📖[论文下载地址]
💽[代码下载地址]


文章目录


📖论文解读

作者提出了一种用于可见光-红外的图像融合网络结构,采用【从粗到细】的结构进行特征提取,该结构可以输入【未对齐】的图像对;并且设计了一个【边缘引导注意力机制】用来使融合关注共同结构,目的使为了在消除噪声的同时恢复细节;作者还发布了一个新的对齐的可见光红外图像【数据集】RealStreet

🔑关键词

Image fusion, deep feature learning, attention mechanism.
图像融合,深度特征学习,注意力机制

💭核心思想

【一句话总结】:AE+GAN
编码器使用不同的空洞卷积提取特征后相加,乘上从源图像中通过注意力机制得到的权重,在通过加入跳跃连接的解码器进行重建。

1、设计了一个密集语义扩大模块来增加感受野从而提取深层特征。(使用不同的扩张因子的空洞卷积提取特征然后聚合)

  • 通过多尺度上下文聚合结构,将三种不同感受野的卷积路径聚合
  • 在每个卷积路径上加入了密集连接
    2、设计了一个边缘引导的注意融合规则,以保持图像结构并抑制伪影。

🪢网络结构

🪢粗到细的特征提取

先通过一次卷积将源图像变成特征图,然后通过3个不同的卷积路径提取特征并聚合。同时在每个路径上加入了密集连接。
在这里插入图片描述
f i n f_{in} fin f o u t e f_{out}^e foute分别代表特征提取模块的输入特征图和输出特征图。 *是卷积操作, t p tp tp为路径序号,W和b分别代表卷积层卷积权重和偏置。
作者使用 f i r e f_{ir}^e fire f v i s e f_{vis}^e fvise分别代表红外图像和可见光图像的输出特征。

🪢边缘引导注意力特征融合

🪢特征补偿重构

  • 将特征提取中三个不同的特征相加
  • 使用choose-max策略选择红外或者可见光特征
  • 在特征重构中,将补偿特征在通道上concat到基于注意力的融合特征中

📉损失函数

损失函数=像素损失+结构相似性损失
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
作者受GAN的启发,假设上述网络结构是一个生成器,在网络末尾加入了一个判别器,用来引导生成器生成更自然的图像。
在这里插入图片描述

🔢数据集

训练MSCOCO和FLIR
测试 TNO

🎢训练设置

🔬实验

📏评价指标

  • MI
  • CC
  • VIF
  • QAB/F
  • SSIM
  • SCD

🥅Baseline

  • CBF, GTF, JSRSD, DRTV, FPDE, FusionGAN, DDcGAN

🔬实验结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

更多实验结果及分析可以查看原文:
📖[论文下载地址]
💽[代码下载地址]


🚀传送门

📑图像融合相关论文阅读笔记

📑[DenseFuse: A fusion approach to infrared and visible images]
📑[DeepFuse: A Deep Unsupervised Approach for Exposure Fusion with Extreme Exposure Image Pair]
📑[GANMcC: A Generative Adversarial Network With Multiclassification Constraints for IVIF]
📑[DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion]
📑[IFCNN: A general image fusion framework based on convolutional neural network]
📑[(PMGI) Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity]
📑[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]
📑[DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion]
📑[FusionGAN: A generative adversarial network for infrared and visible image fusion]
📑[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
📑[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
📑[U2Fusion: A Unified Unsupervised Image Fusion Network]
📑综述[Visible and Infrared Image Fusion Using Deep Learning]

📚图像融合论文baseline总结

📚[图像融合论文baseline及其网络模型]

📑其他论文

📑[3D目标检测综述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]

🎈其他总结

🎈[CVPR2023、ICCV2023论文题目汇总及词频统计]

✨精品文章总结

✨[图像融合论文及代码整理最全大合集]
✨[图像融合常用数据集整理]

举报

相关推荐

0 条评论