Unsupervised remote sensing image thin cloud removal method based on contrastive learning论文翻译
2024 IET
论文名称 基于对比学习的无监督遥感图像薄云去除方法
摘要
去云算法作为遥感图像预处理中的核心技术环节,在当前研究领域备受关注。主流去云算法主要依赖深度学习技术实现,并普遍采用有监督学习模式。为了提高去云效果,通常需要充足的质量训练数据集来支撑模型训练过程。然而,在现实应用场景中获取高质量的有无云图对数据集极为困难;即使能够在合成数据集上进行训练优化后得到的有效模型,在面对真实复杂环境时依然存在性能瓶颈问题。基于此,在现有研究基础上提出了对比学习驱动的无监督薄云去除方法——GAN-UD算法框架。该方法通过构建由频率-空间注意力生成器与鉴别器组成的网络结构,在生成图像质量提升的同时实现了对无云图像特征的有效约束;具体而言,则是通过引入局部对比损失函数与全局内容损失函数来引导生成图像内容与原始带云图谱保持高度一致性。实验研究表明:在完全依赖于单源训练数据的前提下;所提出的GAN-UD方法仍可达到较为理想的薄云去除非监督方式性能水平;并且在关键性能指标上显著优于现有同类技术方案
1导言
随着卫星遥感技术的不断发展
在遥感图景中存在由厚重气溶胶造成的严重遮蔽现象,在这种情况下难以准确定位和解析特征要素。鉴于此,在实际应用过程中往往采用像素替代法来消除气溶胶影响。然而所得去 Cloud 图像与厚 Cloud 图像中的特征要素存在显著差异性对比度较低甚至难以辨识具体差异点。相比之下薄 Cloud 情况则相对理想因为其不完全覆盖被观测目标且具有模糊边缘区域在此我们可采取一系列技术手段以保证去 Cloud 后影像内容不受影响并得以保留原有精度
在遥感影像中存在着相当厚重的 cloud 层完全覆盖了目标特征信息 从而干扰了对影像质量的影响 因此 常常需要应用 pixel-based replacement 技术来进行 cloud 的去除工作 并且 通过这种方式得到的 cloud-removed image 将与 thick cloud image 中存在的 feature information 存在显著差异 相反 在 thin cloud image 中 feature information 是能够恢复出来的 因为 thin clouds 不会完全覆盖住目标影像中的关键 feature information 并且 边界不那么清晰 我们可以通过一些去模糊的方法 来保持 cloud-removed image 的内容完整性
近年来
在此基础上,本文开发了一种新的薄云去除技术,该技术特别适用于处理不成对数据。在本研究中,我们主要贡献体现在三个方面:第一,在理论方法上提出了一种创新性的数据处理算法;第二,在实验验证方面建立了完整的性能评估体系;第三,在实际应用中实现了高效的数据去噪功能。
本文开发了一种高效的新方法(GAN-UD),用于从非配对遥感图像中去除薄云。尽管基于仅有的单源训练数据集进行训练后,在无对应参考的情况下仍能实现良好的去云效果。
由于遥感图像通常由多种具有复杂空间特征的地物组成,在无成对样本的情况下, 为了最大限度地利用输入图像的空间和通道信息, 我们开发了一种频率-空间注意力模块(FSAM)来充分提取并整合这些信息, 并有效地去除薄云; 同时引入了局部对比损失和全局内容损失, 以确保生成的图像与原始输入在内容上具有一致性
在RICE1和Paris两个数据集上的实验结果表明,在GAN-UD提出后表现超越了现有的无监督去云技术,并其性能表现与现有的有 supervision方法相媲美。
2相关工作
2.1针对RSI的薄云移除
遥感图像中的薄云去除技术是遥感图像处理中的关键技术和核心技术。在遥感图像获取过程中由于成像条件的影响获取到的遥感影像往往会被带有地面特征信息的云层所遮挡从而严重干扰或覆盖后续的数据提取与分析过程为此研究者们提出了系列有效的去模糊方法包括基于传统图像处理理论以及基于深度学习算法的薄云边缘模糊抑制方法。
2.1.1基于传统图像处理的方法
12
12
2.1.2基于深度学习的方法
利用深度学习技术进行遥感图像去雾处理的方法分为有监督学习阶段(采用成对样本训练)和无监督学习阶段(采用非成对样本训练)。这种方法能够有效地提高图像清晰度。
7
8提出了一种基于注意机制的多尺度网络模型。” 可以改为“网格网站团队【8
7
18
一种基于无监督学习的薄云去除非结构化数据框架
2.2对比学习
19
20
19
20
由于缺少真实的成对无云图像对以训练网络以有效地去除薄云而不导致生成图像内容失真成为本文的主要研究目标。GAN-UD的整体架构如图所示由频率-空间注意力生成器(G)与鉴别器(D)两个关键组件构成其中D的作用是鉴别实际获取的无云图像(I)(real)与生成的伪像(Ig)(fake)之间的差异。在实验过程中我们首先输入遥感获取的云图I然后通过G生成高质量的无云图像I接着将I与I一起输入到D中以完成判别任务。在整个训练过程中生成器G与鉴别器D采用对抗学习策略不断优化直至达到纳什均衡状态并终止训练

GAN-UD概述如下:由频率空间注意力机制构成的生成器G与鉴别器D构成了该系统框架的核心组件。其中输入Ix为多云图像经过去除云层后得到Ig作为重建结果,并与真实无 clouds图像Iy进行对比分析。此外,在模型训练过程中涉及多个损失函数指标:对抗性损失Lc衡量判别器对生成样本的真实判断能力;全局内容损失Lcl则评估整体图像特征的一致性表现;而局部对比损失Ladv则聚焦于细节区域的空间差异度计算。值得注意的是该模型采用非对抗训练策略以优化数据生成效率
在本节3.1中, 我们介绍了生成器g的整体架构; 在本节3.2中, 我们对fsam进行了详细阐述, 其核心组件fsam的主要功能是提取输入图像 i x来自频域和空间域的关键特征信息, 并使其能够聚焦于这些领域中的薄云区域; 在本节 4 中, 我们描述了gan-ud模型的设计思路, 其采用的是全局内容损失与局部对比损失相结合的方式以维持生成图像ig的质量; 在内容上与原生输入图像保持一致, 并且通过这种方式实现了高质量生成目标; 最后, 在本节简要介绍我们的鉴频器网络
3.1生成器****
生成器G的详细流程图如图所示1。接收遥感多云图像({I}_x美元),其随后采用Relu激活函数进行特征提取,并依次经过三个标准残差块(RB)以及四个自适应 Skip模块(FSAM)。最终再经过两个残差块(RB)和一个卷积层合成去雾图像({I}_g)。
3.2频率-空间注意力模块
注意力机制在图灵机复与图灵机建任务中表现卓越。本质上, 该系统通过网络自主学习并采用动态权重来增强基征同时抑制次要部分; 输入图灵机的细节能有助于更有效地复元目标图灵机Ig. FSAM由空问注备块与频域注备块构成.
频率注意块
24
24
25

3.2.2空间注意块
基于图像内容的空间位置关联性提取出更具价值的空间信息这一方法已被成功应用于图像去雨与去云的任务中。如示意图所示2所示 该模型架构的核心组件包括一个关键路径即从初始特征映射开始 经过多层变换最终完成目标任务这一过程不仅简化了网络结构还能有效提升性能
3.3鉴别器
9
9
9
3.4损失函数
因为缺乏足够的无云图像配对, 一种有效的损失函数用于约束生成结果显得尤为重要. 除了对抗性损失之外, 本文还在此基础上设计了局部对比损失与全局内容一致性相关的项, 从而保证输入多云图像与其去噪后的版本在内容上的一致性.
3.4.1对比损失
为了确保模糊图像与去雾图像在局部内容上的一致性并实现有效处理效果, 提出了基于对比损失的方法. 该方法利用共享多层感知器 (MLP) 对图像差异进行编码以提取特征, 并通过对比学习在特征空间中优化查询块与正样本之间的相似度, 同时提升查询块与负样本之间相似度的距离. 损失函数基于 InfoNCE, 并采用温度系数 τ = 0.07 和 255 负样本进行计算

局部对比损失函数与全局内容损失函数相互配合, 从而维持图像在局部与整体特征的一致性. 其中, 局部对比损失通过对比学习机制缩小查询块与正样本特征之间的距离, 同时提升与负样本特征间距离的大小; 另一方面, 全局内容损失借助于VGG199模型特征提取的方法评估图像间的内在意境差别. 在优化过程中, 为了增强模型稳定性并优化性能, 在训练阶段对负样本实例加入了均值为零、方差可控的高斯噪声干扰处理.
3.4.2全球内容损失
为了维护图像的局部一致性和整体一致性,并采用对比学习损失函数与全局内容损失函数相结合的方法进行处理。其中通过局部对比机制实现局部特征的一致性保障;同时利用VGG19网络提取的特征信息实现全局特征的一致性维护。
全局内容损失量通过衡量模糊图像与去雾图像之间的VGG19特征差异来评估内容差异。具体而言,在深度学习算法中,该方法通过提取VGG19网络中第4层第2个卷积(conv4_2)以及第5层第2个卷积(conv5_2)的特征来进行内容损失计算,并将这些特征代入公式进行求解:L_{content} = \sum_{i,j} |F^{conv4_2}(x_i, y_j) - G^{conv5_2}(x_i, y_j)|^2其中F^{conv4_2}与G^{conv5_2}分别表示对应的特征矩阵。
l_c(I_x,I_g)= ∑^m_i=1 (1 / (C_i H_i W_i)) * (f^i_{vgg19}(I_x) - fi_{vgg19}(I_g))2
m代表VGG19网络中的某一层;C_i代表第i层所具有的通道数量;H_i和W_i分别表示该层特征图的高度与宽度;f^i_{vgg19}(I)表示在VGG19网络的第i层中提取图像I的特征向量。
3.4.3对抗性损失函数
除了前面所述的损失函数外,在GAN-UD中还采用了对抗性损失这一项指标。该对抗性损失来源于LSGAN模型,并且其具体形式如下:
L_adv(I_X, I_Y) = E_{I_Y \sim P_Y} log D(I_Y) + E_{I_X \sim P_X} log D(G(I_X))
其中,I_X和I_Y分别代表模糊图像和生成图像。
总体而言,GAN-UD的复合损失函数是所有上述损失函数的总和:
L_total = L_adv + L_cl + L_c
对抗性损失促使生成图像的概率分布与真实数据集的概率分布一致,并且内容感知损失与色彩差异损失共同作用以有效维持输入图像的内容特征。
- 内容感知损失:通过最小化生成图象与输入图象之间的视觉特征差异来实现对主要视觉信息的保持。
- 颜色损失:通过最小化生成图象与输入图象之间的色彩差异来实现对颜色信息的匹配。
这一综合损失函数的设计降低了内容失真问题的影响,并从而使得GAN-UD能够生成高质量的去雾图像
4实验
4.1实验设置
数据集
10].此外,我们将GAN-UD扩展到近红外波段,由于RICE1数据集不包含近红外波段,因此我们选择CR-GAN-PM【39
10
10
RICE1数据集
8巴黎数据集****
Hasan等人构建的巴黎数据集
Hasan等人开发的Paris dataset包括4043幅分辨率256×256的图像;这些图像来源于WorldView-2卫星。该数据集将用于训练/测试去雾技术。
合成多云图像
在进行去雾算法的研究过程中, 我们需要制造出模拟多云的图像数据集. 根据文献[9]所述内容可知, 在其研究框架下他们详细描述了如何生成人工模拟的多云天气场景.
I_x = (1 - (w * y_{CM})) \cdot y + (w * y_{CM}) \cdot y_{Cloud}
其中:
- I x:生成多云场景*
- y:无遮蔽场景*
- y CM:遮罩掩膜*
- y Cloud:真实云图*
- w:遮罩系数用于表示云层厚度
在实验中,我们将 w 设置为0.7和0.8。
数据集划分
从大量图像中随机选取了1000对,并按照4:1的比例将这些图像划分为训练集与验证集。通过训练集进行去雾算法的优化,并利用验证集评估其性能表现。

- y_CM是一个用于标识云层位置的掩膜图像,在该图中白色区域对应有云层覆盖的位置而黑色区域则表示无 Clouds.
- y_Cloud被定义为真实天空环境的真实影像.
- 通过去除了 Clouds 的影响后得到的无 Clouds 图像记为 y.
- I_x 是经过雾霾污染处理后的观测结果.

- 具有不同遮蔽图像权重的多云图像的视觉比较。
哨兵-2A数据集
哨兵-2A数据集是由李等人基于哨兵-2A卫星的数据获取完成的。该数据集包含20组多云与无云的哨兵-2A图像对,在每幅塞蒂内尔-2A遥感图像中包含了可见光、近红外和短波红外共13个光谱带。在本研究中遵循CR-GAN-PM模型设置,并选择16幅遥感图像用于训练及4组图像作为测试样本。训练与测试数据集经过裁剪处理成大小为256 × 256像素的区域片段。值得注意的是,在遥感数据中多云图像可能无法完全覆盖云层区域,在这种情况下裁剪后的斑块可能会呈现出干净清晰的无云状态。为了获取具有多云特征的斑块区域我们利用了以下特性即:多云斑块像素值通常大于对应的无云斑块像素值这一特性通过使用OpenCV中的减法操作来提取 clouds/wiçth差分矩阵 {I}_{sub} 并计算其中像素值为零的数量 {Z}_{sum} 。随后通过阈值分割方法获得了浑浊斑块区域最终将阈值设定为5000假设当 {Z}_{sum} 小于5000时即认为是多cloud天气情况出现频率较低的情况为此我们总共获得了5764对多cloud/withwiçth对比样本用于训练并选取1376对样本作为测试集依据前述方法进行评估。
实验细节
该模型基于Pytorch框架实现,并在NVIDIA TITAN Xp GPUs上进行了训练。该模型通过参数完成了一加一等于二和二加二等于四的汇率兑换实验,在Adam优化器中完成了一系列计算。设置为单个样本的批量处理,在该模型上总共执行了48轮迭代任务。初始学习率设定为千分之一分之一(即万分之二),经过两百轮次的学习调整后逐渐降至零。
评估指标
34
34
34
34
该指标通过基于图像质量评估的标准(PSNR),利用峰值像素值与图像均方误差(MSE)之间的数值比值来量化两张图片之间的相似程度。其具体计算公式如下:PSNR = 10 \cdot \log_{10} \left( \frac{\text{peak pixel value}}{\text{image mean squared error (MSE)}} \right )
该模型采用三重嵌套循环的方式进行误差计算,在每一层循环中分别对类别、宽度和高度维度进行遍历运算。
具体而言,
在类别维度上,
从I=1遍历至总类别数c;
在宽度维度上,
从j=1遍历至每类别宽度w;
在高度维度上,
从k=1遍历至每宽度高度h。
对于每一个(i_g{i,j,k},i_y{i,j,k})观测值,
计算其平方差并累加至最终结果。
\ begin { equation } PSNR = 10 \ cdot lo { g } _ { 10 } \ left({\frac{{max_{{i}_g}^2}}{{mse}}} \ right)\ end { equation } (13)
其中MSE代表均方误差(MSE),被薄层云遮挡后的图像是I_g并且其对应的无云图像是I_y。
此外,在此过程中生成的中间结果包括去除薄层云后的图像是I_g(i,j,k)及其对应的无云图I_y(i,j,k)。
在该过程中的关键参数包括通道数C_c、高度C_h和宽度C_w。
具体来说,在此过程中涉及的关键参数还包括生成器的最大输出像素位置Max_pos_g和生成器的最大输出通道位置Max_pos_c。
SSIM基于以下数学公式定量评估图像间的相似程度(涉及三个关键参数:对比度、亮度和结构)。
\ begin { equation } ssim \ left({ { I } _ g,{ I } _ y } \ right)= \ frac { { \ left({ 2 { \ mu } _ { { I } _ g } { mu } _ { { I } _ y }+{ c } _ 1 } \ right)\ left({ 2 { \ sigma } _ { { I } _ g { I } _ y }+{ c } _ 2 } \ right)} } } { { \ left({ { \ mu }_{{i}g}^2+{ \ mu } }{{i}_y}^2+{ c } _ 1 } \ right 6 (14)
在哪里 I g是去除薄云后的图像 {I}_y美元 是干净无云的图像。 {\mu }_{{I}g} , {\mu }{{I}_y} 是的平均值 {I}_g。 和 {I}_y美元 ,分别是, {\sigma }_{{I}_g} , {\sigma }_{{I}_y} 分别是I_g和I_y的方差 {\sigma }_{{I}_g{I}_y} 是的协方差 {I}_g。 和 {I}_y美元 . { c } _ 1 = {({ { k } _ 1l } )}^2 , { c } _ 2 = {({ { k } _ 2l } )}^2 是两个常数和 __L__ 是图像的像素值范围。 {k}_1美元 , ${k}_2美元 默认为0.01和0.03。
该方法旨在基于以下特定公式,在颜色空间中量化两幅图像间的差异性。
\ begin { equation } ciede 2000 \ left({ { I } _ g, { I } _ y } \ right)= \ sqrt { \ left(\frac{ \ delta l^{\prime} }{ k_l s_l } \right)^2 + \ left(\frac{ \ delta c^{\prime} }{ k_c s_c } \right)^2 + r_t \ left(\frac{ \ delta h^{\prime} }{ k_h s_h } \right)^2 + r_t ^2 \ left(\frac{ \ delta c^{\prime} }{ k_c s_c } \right)} ) \ end { equation } $ (15)
改写说明
4.2实验结果和分析
4.2.1与其他薄云去除方法的比较
为了验证GAN-UD的有效性, 我们将该模型与其在经典深度循环派算法 (DCP) 的基础上, 通过引入基于无监督学习的方法 Pix2Pix, 基于有监督学习的方法 SPAGAN 以及 Cloud-Removal 方法等进行对比实验. 所有的实验数据集及其对应的代码均由各自的研究团队独立完成, 并已在 GitHub 平台上公开.
在RICE1数据集及Paris标准测试集上采用了不同类型的云层遮蔽物去除技术进行定量分析研究,并以表格形式呈现了实验结果[1-3]。通过详细考察可发现:相较于传统及非配对云层遮蔽物去除技术而言,本研究提出的方法实现了更高的峰值信噪比(PSNR)和更高的相似性指数(SSIM),同时在配对云层遮蔽物去除技术中也展现出显著的竞争优势。此外,在对比现有先进配对云层遮蔽物去除技术时也显示出一定的竞争力。通过定量分析结果进一步验证了所提出的GAN-UD模型在该特定任务中的有效性;然而由于GAN-UD模型未配备监督信号这一关键限制因素,在与最新的配对云层遮蔽物去除技术相比仍存在一定的优化空间

表1)。Table 1下各种薄云去除方法的评估结果中显示,颜色方面表现突出, 其次好于红色, 排名第三为蓝色.
此外,在对比分析的基础上将GAN-UD方法与现有的DCP、SPAGAN、Pix2Pix等经典算法以及当前流行的云去雾技术方案(包括云去除法)、WaveCNN-CR等深度学习模型进行了系统对比分析,并将具体数据可见图中(如图所示6-8)。其中实验结果显示,在RICE1数据集上的实验结果在不同场景下的去雾效果表现出了显著差异:数字6显示了每种去雾方法在该数据集上的实验结果的可视化展示情况。具体而言,在光照条件较为复杂的环境下(如DCP算法),整体呈现出了更深的阴影区域;而Cloud-GAN则表现出较为模糊的效果(SpaGan显示出明显的色彩失真)。进一步对比发现,在光照均匀度方面(如现有PIX2PIX模型),其重建效果较之于现有的PIX2PIX模型更为出色(其重建效果较之于现有的PIX2PIX模型更为出色)。同时,在图像细节完整性方面(如最新的成对去雾技术方案),其去薄云效果与当前最新型成对去薄云技术方案相当




数字7和8采用不同的权重参数w在Paris数据集上呈现实验结果的可视化图形。实验证明DCP算法未能有效消除该数据集中的薄云层。与SPAGAN模型相比, Pix2Pix 模型生成的画面呈现出明显的失真现象,在细节部分表现不够理想。 Gan-UD 模型则能够展现出更加清晰自然的画面质量,在细节刻画方面更为出色。相比于去云处理方法及 WaveCnn-cr 模型, Gan-ud 在实现画面高质量还原方面仍需进一步优化
我们对多光谱波段进行了一系列实验,并对其结果进行了详细分析。旨在进一步扩大GAN-UD在遥感图像薄云去除任务中的应用范围,并与其他相关技术展开系统性对比分析。其中除了专注于可见光及近红外波段的多光谱遥感图像去 cloudy 方法 CR-GAN-PM 外,并没有采用统一的技术方案来处理不同类型的薄云问题。本文研究者通过调整输入输出通道数量并相应地优化了网络架构,并对其它相关技术也进行了系列测试,在 Sentinel 2A 数据集上完成了全面评估工作。通过对现有解决方案的优势与不足进行全面分析后发现,在当前技术条件下基于 GAN 的深度学习算法仍然存在一些待解决的关键问题
桌子4展示了Sentinel-2A数据集上各波段多样化的薄云去除方法的详细评估结果。与单一的薄云去除方法(例如Cloud-GAN以及专门针对多波段设计的CR-GAN-PM方法)相比,在波段2至8范围内GAN-UD实现了最高的峰值信噪比值(PSNR)以及结构相似性指数(SSIM),且均超越了SPAGAN的表现。与最新的成对去云技术(如WaveCNN-CR以及传统去云算法)相比,在某些方面GAN-UD仍存在一定的性能差异
在本研究中,我们将GAN-UD方法与SPAGAN、云去除以及WaveCNN-CR成对薄云去除方法,同时也包括云-GAN和CR-GAN-PM不成对的方法进行了对比分析(见图9)。实验结果显示,数字9展示了Sentinel-2A数据集上波段2至8各薄云去除技术的实验结果,其中第1至5行对应波段(2)、第6至10行对应波段(3)、第11至15行对应波段(4)、第16至20行对应波段(8)以及RGB可视化图像。具体而言,SPAGAN技术表现出明显的色彩扭曲现象,且在多波段遥感图像信息学习方面存在不足;WaveCNN-CR则呈现斑块状阻塞特征;相比之下,GAN-UD展现出高分辨率的纹理特征和更加分明的边缘轮廓;从视觉效果来看,其去云性能达到最优水平
旨在验证GAN-UD的效能,在研究过程中我们实施了对GAN-UD损失函数及生成模块的破坏性测试,并基于RICE1数据集完成了相关的训练与评估工作。研究结果表明,在表格中列出了研究组5与7的数据。
表5。不同损失函数的烧蚀实验装置。

如表所示5, 用于检验我们提出的损失函数的有效性, 模型变量方程被进行了实验(1)、(2)、(3)及(4)。然而, 这项研究仅限于方程(1)、(2)、(3)及(4)的分析
如表所示,在加入本地对比损耗到原始网络模型后(即方程(1)的基础上),各评估指标SSIM PSNR分别提升至89.84 dB及0.320;CIEDE2000则降至75.898分贝。而当我们在方程(3)基础上加入全局内容损失时,则可看到PSNR与SSIM分别提升了9.75 dB及14.98分贝;CIEDE2000则下降了75.96分贝。进一步地,在方程(3)基础上附加局部对比损失会导致PSNR上升了14 dB及SSIM提升了一定幅度;但同时CIEDE2000有所下降。此外,在方程(2)基础上附加全局内容损失同样带来了PSNR与SSIM的小幅提升;并且CIEDE2000也出现了略微下降的情况。通过综合运用这些不同的损失函数组合,在最终的性能指标上达到了平衡与优化的状态

表6。RICE1数据集上消融实验的定量结果比较。
FSAB的分析
为了考察GAN-UD网络中频率-空间注意力模块(FSAB)模块的有效性,在其基础上采用替代方案分别替换为方案(a)、方案(b)以及方案(c)。为了避免影响比较结果的公正性,在评估过程中仅用于比较FSAB模块的不同变体设计,并将具体数据可见表7中所列示。针对相关实验设计。
表7。不同注意机制模块的消融实验装置。


视觉比较 {v}_S, {v}_F,以及 RICE1数据集上的{v}_{SF}
外,请注意图1所示结果对比实验中
表8。RICE1数据集上消融实验的定量结果比较。

5个限制
35
当云层较厚时,在无监督条件下处理厚度较大的场景时(此处指厚重云层),GAN-UD模型能够有效去除非透明大气的影响(即去除大部分明显的可见光反射),但仍存在无法完全恢复细节信息的问题(即区域像素出现失真现象)。通过在RICE2数据集上对比评估GAN-UD与Cloud-GAN两种模型的表现(此处指两种不同的深度学习模型),实验证明所提出的方法相较于现有的无监督遥感薄 clouds 去除技术具有显著的优势(此处指性能上的提升)。结果显示该方法能够在减少整体误差的同时实现更好的去 cloud 效果(即通过对比实验可以看出去 cloud 后的结果质量有所提升),具体表现如图 11 所示:与现有方法相比,在相同条件下去 cloud 后得到的结果具有更好的清晰度(即纹理更加清晰)且整体误差值更低(即去 cloud 效果更好),但仍存在局部明显失真的情况。

RICE2数据集上云-GAN和GAN-UD的可视化比较。甘-UD,非对数据生成对抗网络
6个结论
我们提出了一种新型的非配对遥感图像薄云去除技术——GAN-UD技术。为了保证生成图像与输入数据的一致性需求,在GAN架构中整合了对比损失与内容损失两项关键指标。其中对比损失主要用于维持生成图像在局部区域内的连贯性特征;而内容损失则负责维护整体结构的一致性。另外,在构建该系统时还采用了频率—空间注意机制模型;通过这一机制模型,在不同频域及空间维度上聚焦于关键特征信息并抑制冗余细节。经过多组遥感薄云影像数据集的小样本测试实验分析,在性能评估指标方面所提方案均显著优于现有无监督降雾算法以及部分有监督降雾算法
作者投稿
詹聪潭 :概念构建;数据管理和监督;模式识别;实证研究;理论框架设计与应用验证;数据可视化策略制定与实施;写作初稿撰写。
冯晓杜 :项目统筹与规划制定者(涉及项目管理);
资源获取与分配方案制定者;
写作初稿审阅与语言优化专家。
王曼 :负责资源获取及分配方案制定。
谢 :负责论文初稿审阅及语言优化工作。
桂 :负责系统运行中的数据监控工作。
秦聂 :负责系统运行中的数据监控工作
承认
本工作由厦门市自然科学基金3502Z20227067、福建省自然科学基金2023J011427以及厦门市科技局"公开竞赛"专项资助,并获得项目编号为3502Z20231038的资金支持
