空谱特征增强的

高光谱图像超分辨率融合方法

研究背景与挑战

高光谱图像特点

  • 丰富的光谱信息
  • 多波段数据
  • 空间分辨率受限
  • 成像硬件条件限制

现有方法局限

  • 未充分挖掘空间相关性
  • 未充分挖掘光谱相关性
  • 融合性能受限
  • 细节信息损失

三步融合方法

Three-Step Fusion Method

结合图像去噪、光谱特征增强、空间特征增强的高光谱图像超分辨率融合方法。

1

图像去噪

不同标准差的高斯模糊核处理,有效减少噪声

2

特征增强

通道注意力+空间注意力,增强关键信息

3

特征聚合

利用增强的相关性,重建高分辨率图像

步骤① 图像去噪

通过使用不同标准差的高斯模糊核对高光谱与多光谱图像进行处理,有效减少噪声。

高斯模糊核

  • 不同标准差参数
  • 针对不同模态图像
  • 抑制高频噪声

去噪效果

  • 有效减少噪声干扰
  • 保留关键特征信息
  • 提升融合质量

步骤② 特征增强

引入通道注意力空间注意力,增强图像关键信息,获得更好的空间和光谱相关性。

通道注意力机制

核心功能

自适应校准通道权重,增强关键光谱特征

实现方式

全局平均池化+全连接层+激活函数

应用效果

强化有用特征,抑制冗余信息

空间注意力机制

核心功能

增强关键区域特征响应,捕获空间上下文

实现方式

跨通道池化+卷积层+激活函数

应用效果

保持空间细节,建模长距离依赖

步骤③ 特征聚合与重建

利用增强的空间和光谱相关性,将映射得到的高分辨率图像特征聚合起来,重建出高空间分辨率的高光谱图像。

特征映射

将低分辨率特征映射到高分辨率空间

特征融合

聚合多模态增强特征

图像重建

生成高分辨率高光谱图像

实验结果

ZY-m和Chikusei数据集上进行验证,显著优于现有方法。

PSNR指标

ZY-m数据集 53.586

较次优方法SMGU-Net提升 2.8%

Chikusei数据集 53.738

较次优方法DDIF提升 1.70%

SAM指标

ZY-m数据集 0.006

较次优方法SMGU-Net降低 14.28%

Chikusei数据集 0.018

较次优方法DDIF降低 5.26%

深度学习融合方法分类

基于CNN的融合方法

单分支网络

3D-CNN、残差网络、密集连接网络

多分支网络

异构处理、多尺度融合、双分支结构

基于注意力机制的融合方法

通道注意力

SENet、通道权重校准

空间注意力

CBAM、关键区域增强

非局部注意力

长距离依赖建模

基于扩散模型的融合方法

利用扩散过程生成高质量图像,DDIF等方法

方法优势

有效去噪

高斯模糊核处理,减少噪声干扰

特征增强

双重注意力机制,强化关键信息

性能卓越

光谱保真度高,空间细节丰富

核心创新与突破

Core Innovation and Breakthrough

去噪创新

  • 自适应高斯模糊
  • 针对不同模态
  • 有效抑制噪声

注意力机制

  • 通道注意力增强
  • 空间注意力增强
  • 关键信息强化

性能提升

  • PSNR提升2.8%
  • SAM降低14.28%
  • 显著优于现有方法

技术路线总结

图像去噪

高斯模糊核处理

特征增强

双重注意力机制

特征聚合

高分辨率重建