这是用户在 2024-1-11 20:34 为 https://www.mdpi.com/2072-4292/14/4/879 保存的双语快照页面,由 沉浸式翻译 提供双语支持。了解如何保存?

    期刊 主题 信息 作者 服务 倡议 关于

登录 / 注册 提交
 
 
 下载PDF
订购文章重印本
Font Type:
Arial Georgia Verdana
Font Size:
Aa Aa Aa
Line Spacing:
Column Width:
Background:
 开放获取文章


ClassHyPer:基于ClassMix的混合扰动,用于遥感影像的深度半监督语义分割


作者: Yongjun He 1 , Jinfei Wang 1,* , Chunhua Liao 2 Bo Shan 1 辛周 1
1

西安大略大学地理与环境系,伦敦,ON N6A 3K7,加拿大
2

中山大学地球空间工程与科学学院, 珠海519082
*

应向其通信的作者。

遥感, 2022, 14(4), 879;https://doi.org/10.3390/rs14040879

提交日期:2022 年 1 月 3 日 / 修订日期:2022 年 1 月 26 日 / 录用日期:2022 年 2 月 9 日 / 出版日期:2022 年 2 月 12 日

(本文属于《深度学习在遥感图像分类中的应用》特刊)


下载浏览图表版本注释

 抽象


在深度学习(DL)的巨大成功和遥感数据可用性的提高的启发下,基于深度学习的图像语义分割在遥感界引起了越来越多的兴趣。深度学习应用的理想场景需要大量与感兴趣区域具有相同特征分布的标注数据。然而,获得如此庞大的训练集以适应目标区域的数据分布是非常耗时和昂贵的。基于一致性正则化的半监督学习 (SSL) 方法因其易于实现和卓越的性能而越来越受欢迎。然而,SSL在遥感中的应用有限。本文从数据级和模型级扰动的角度,综合分析了几种基于一致性正则化的先进SSL方法。然后,引入一种基于混合扰动范式的端到端SSL方法,在有限数量的标签下提高深度学习模型的性能。该方法集成了语义边界信息,在进行数据级扰动时生成更有意义的混合图像。此外,通过使用基于模型级扰动的隐式伪监督,它消除了在训练中设置额外阈值参数的需要。此外,它可以以端到端的方式灵活地与深度学习模型配对,而不是传统伪标记中使用的分离训练阶段。5个遥感基准数据集在道路、建筑物和土地覆被分割应用中的实验结果验证了所提方法的有效性和鲁棒性。 特别令人鼓舞的是,在所有基准数据集上,使用具有 5% 标签的所提出方法与使用具有 100% 标签的纯监督方法获得的准确率之比超过 89%。

Graphical Abstract

 1. 引言


近年来,高分辨率遥感数据的数量和可用性不断提高,在城市规划、农业监测和灾害监测中,快速、准确地提取语义信息在城市规划、农业监测和灾害监测中得到了极大的关注[1,2]。传统的基于阈值和区域的方法可以在不需要大量标记数据的情况下执行图像分割,尽管其结果很粗糙[3]。受到深度学习 (DL) 在计算机视觉领域取得成功的启发,遥感社区还将这种最先进的技术引入像素分类(也称为语义分割)。与传统的机器学习技术(例如随机森林或支持向量机)相比,深度学习的优势在于它仅从海量数据中自动利用特征表示,而不是基于特定领域的知识手工制作特征[4]。

一般来说,基于海量标记训练数据的监督学习因其高精度和鲁棒性而成为深度学习的主流解决方案[ 5]。然而,创建标记数据通常既耗时又昂贵。由于场景复杂性高,在遥感应用中获取高质量的像素级标签进行语义分割尤其具有挑战性。例如,Ji等[6]花了大约6个月的时间创建了他们的WHU建筑数据集(8188张标记的航空图像和3742张标记的卫星图像,512×512像素),而Luo等[7]花了将近4个月的时间来注释他们的航空图像阴影数据集(514张标记图像从256×256到1688×1688像素不等)。这两个例子都反映了遥感中语义分割的标注工作的难度,特别是当面对来自卫星、飞机和无人机等各种平台的越来越多的地球观测数据时。

为了应对标记训练数据的挑战,越来越多的研究开始研究如何在保持深度学习模型性能的同时减少标签,其中一些研究试图基于多时相遥感数据之间的时间一致性进行纯无监督学习[ 8, 9]。与使用标记训练数据的方法相比,这些方法具有更高的计算效率,但准确性较低。此外,一些研究[ 10, 11]更关注遥感范围内的图像合成与平移,从而以合成的方式产生更多的标记数据。然而,由于缺乏对合成过程的特定控制,合成数据的特征分布往往与真实数据的特征分布不一致。此外,来自OpenStreetMap[12]或地籍图[13]的低质量参考数据也被用作深度学习模型训练的标签,尽管它们的性能相对较差。最近,自监督学习范式(如对比学习)试图通过分别减少和增加类内和类间表示与大量未标记数据的距离来表征潜在空间,然后将其应用于下游任务,尽管需要大量的计算资源,但在一系列应用中取得了令人印象深刻的结果[ 14, 除了上述方法之外,还有几种广泛使用的解决方案具有不错的性能,例如迁移学习(TL)、弱监督学习(WSL)和半监督学习(SSL),它们强调从相关任务中转移模型能力,或者在训练中使用来自感兴趣目标的弱标签或很少的标签。

TL侧重于将从一个注释丰富的域(源域)学到的知识转移到一个相关但注释稀缺的域(目标域),以提高模型跨域的可用性[16]。通常,域适应(DA)和参数转移是基于神经网络的方法中两种流行的TL方案[17,18]。DA 旨在减少特征的域偏移,以便在源数据中启用适用于未标记目标数据的预训练模型。尽管发展议程最近取得了进展,但由于其相对较弱的性能,它仍然具有挑战性。参数转移假设不同但相关任务的单个模型可以共享一些参数,从而允许它们跨域传输。在实践中,参数传递因其易于实现和高效而得到更广泛的应用。基于这一策略,遥感研究人员结合有限的任务依赖性训练数据,开展了土地覆被分类[19]、场景分类[20]、贫困制图[21]、建筑物提取[22]等多种应用。基于参数的TL已被广泛用于缓解标记数据缺陷,而过拟合和负转移方面仍然存在挑战[ 17]。因此,基于参数的 TL 通常与其他技术(如 WSL 和 SSL)配对,以鼓励 DL 模型在使用很少的标签时获得更好的性能。

在训练过程中,WSL 尝试将像素级标签替换为粗略的批注,例如框标签或图像级标签,以减少人工标记工作。Chen等[ 23]提出了一种使用图像级标签作为建筑物检测监督信息的WSL方法。此外,开发了一种基于图像级标注的弱监督特征融合网络(WSF-Net),用于对水和云数据集进行分割[24]。这些研究利用弱标签,取得了与纯监督方法相当的结果,从而展示了WSL方法在遥感图像分割中的实用性。WSL 似乎能够在一定程度上减少注释工作。然而,在训练过程中仍然需要大量的弱标签,像素级标注在实际应用中可以优于弱标注。

与 TL 和 WSL 不同,SSL 旨在使用仅具有一小部分样本标签的数据集来训练模型 [ 5]。大多数SSL方法都集中在扩大数据分布以提高模型的泛化性,或者从大量未标记的数据中学习潜在特征,使决策边界位于低密度区域[ 5, 25]。值得注意的是,最近的SSL方法,如Mean Teacher [ 26]、CutMix [ 27]和FixMatch [ 28],已经逐步将图像分类性能推向了计算机视觉领域的高水平。与此同时,遥感界也试图研究SSL在广泛的应用中的标签缺陷,如土地覆盖分类[19]、场景分类[29]和建筑物提取[15]。值得注意的是,华等[30]提出了一种具有稀疏注释的半监督方法,用于遥感图像的语义分割。该方法基于特征和空间关系正则化建立无监督损失,同时利用点、线或多边形形式的稀疏标注像素计算监督损失。这种方法在模型性能和标记工作之间实现了不错的权衡,尽管稀疏注释忽略了类边界信息。Wang等[31]遵循经典的密集标注流水线,提出了一种用于遥感图像分割的SSL方法(CRAUP),该方法将一致性正则化与随机颜色抖动(类似于FixMatch)和伪标签的平均更新相结合。为了进一步提高SSL的性能,Wang等人。 [ 32] 采用 RanPaste 算法(类似于 CutMix)来增强数据扰动,并在训练中加入 Mean Teacher 和伪标记方法,在不同数据集上的表现优于 CRAUP 方法。请注意,这两项研究涉及伪标记和一致性正则化方案。伪标记直接利用未标记数据中预测的标签来指导训练过程,这是一种即插即用的方法,可以很容易地与现有的深度学习模型集成[25]。然而,确定置信预测的阈值仍然是一个悬而未决的问题,迄今为止还没有开发出通用的方法。此外,伪标记方法的训练过程不稳定且繁琐,导致多类分割任务的结果较差[31]。相比之下,一致性正则化背后的关键思想是鼓励模型对以各种方式受到干扰的未标记输入给出一致的预测[33]。通常,这可以通过确保具有轻微扰动的相同输入数据通过同一模型具有一致的输出(数据级扰动)来工作,或者具有较小扰动的模型为相同的输入数据生成一致的输出(模型级扰动)。例如,图像对比度、颜色和亮度的微小变化不应对深度语义分割模型的最终预测产生重大影响,具有相同架构但不同启动参数的模型应该在同一输入上获得类似的预测。一般来说,一个好的深度学习模型应该是鲁棒的,并且对轻微的扰动表现出很强的泛化能力。 基于这种策略,可以根据原始输入的输出与其扰动变体之间的差异来构建一致性损失,从而允许在训练过程中使用未标记的数据。值得注意的是,这一系列算法可以在训练阶段隐式利用伪标签信息,而不是在预测的置信度值方面显式使用它,从而避免了置信阈值设置的棘手步骤和无用预测的负面影响。

为了在密集标注范式的基础上探索基于扰动的SSL流水线的潜力,并提升模型在遥感图像语义分割中的性能,本文首先从数据级和模型级的扰动角度阐述了几种具有代表性的一致性学习方案。然后,基于这些方案,我们改编了一个融合了交叉伪监督和ClassMix的端到端半监督语义分割框架。使用5个遥感基准数据集对所提出的方法进行了评估,并与几个相关的基于扰动的方案进行了比较。

本研究的主要贡献如下:
(1)

我们从数据和模型级扰动的角度综合分析了几种基于一致性正则化的深度半监督语义分割方法。据我们所知,我们不知道有任何研究从这个角度探讨了基于一致性正则化的遥感SSL方法;
(2)

为了提高深度学习模型在标签数量有限的情况下进行遥感图像分割的性能,引入了一种采用混合扰动范式的端到端半监督语义分割框架ClassHyPer;
(3)

通过对涉及道路、建筑物和土地覆被分割的五个遥感基准数据集的广泛实验,我们证明了 ClassHyPer 在遥感应用中的有效性和鲁棒性;
(4)

为了进一步推动该领域的探索和调查,我们计划在 https://github.com/YJ-He/ClassHyPer(2022 年 1 月 2 日访问)上公开相关代码。

 二、相关作品


2.1. 遥感语义分割


到目前为止,大多数基于深度学习的语义分割方法都基于全卷积网络(FCN)架构[34]及其多种变体进行像素密集预测。基于FCN的模型由于在计算机视觉领域的优越性能,也被遥感界引入像素级遥感图像分割。随着遥感标注数据的不断增多和计算能力的不断提高,越来越多的研究使用基于FCN的语义分割方法提取建筑物[6]、道路[35]、土地覆被[36]、阴影[7]和云[37]。Ji等[6]基于自建的大型遥感影像数据集(WHU建筑数据集)开发了暹罗U-Net提取建筑物。该研究的结果证明了新模型的数据集质量高、性能良好,促使许多研究人员开发了大量基于FCN的语义分割模型。提出了一种用于道路提取的D-LinkNet[35],对膨胀卷积进行积分以扩大感受野并集成多尺度特征。DeepGlobe 2018 道路提取挑战赛的结果证明了其竞争性能。为了提高深度学习模型在复杂城市场景中的性能,Zheng等[ 36]提出了一种用于语义分割的EaNet,结合了边缘感知损失和大核金字塔池化模块。该方法能够准确捕获地面和空中城市场景数据集中的多尺度语义特征,例如Cityscapes [ 38]、ISPRS Vaihingen [ 39]和WHU Aerial Building数据集[ 6]。 此外,开发了一种用于阴影检测的深度监督卷积神经网络(DSSDNet)[7],用于基于用于阴影检测的航空图像数据集(AISD)提取阴影。此外,还创建了一个基于18张Landsat-8卫星图像的像素级云数据集[37],以评估基于深度学习的分割算法。很明显,关注为基于深度学习的语义分割方法创建的数据集的研究数量有所增加。反过来,数据集数量的增加也促进了各种算法的不断改进。算法和数据集的发展使深度学习相关的研究和应用保持活跃和繁荣。然而,所有这些研究都依赖于大量标记的训练数据来获得良好的性能,这在实际的遥感应用中仍然具有挑战性。


2.2. 面向遥感的半监督语义分割


最近,一些研究试图通过利用大量未标记数据以及基于SSL管道的一小部分标签进行遥感图像分割来提高深度学习模型的性能。SSL最关键的组成部分是基于特定假设的无监督损失的构造,它使用未标记的数据指导训练过程。各种无监督学习任务已被设计用于执行 SSL。例如,在具有稀疏标注的遥感语义分割中,利用像素的特征和空间关系构建对比损失[30]。Protopapadakis等[ 40]采用堆叠自动编码器从大量未标记的图像中学习潜在表示。此外,伪标签[ 41]的工作原理是迭代利用伪标签来指导训练过程所需的未标记数据。无监督损失是通过从伪标签到预测的监督来制定的。显然,通过集成现有的深度学习模型,伪标记很容易实现。因此,该技术已应用于众多遥感应用。例如,Tong等[19]利用伪标记来提高卫星图像上土地覆盖分类的深度模型的可转移性。Li等[42]设计了一种基于伪标记和条件随机场的SSL分类框架,用于高光谱图像分类和分割。实验结果表明了伪标注在遥感应用中的有效性。然而,为了确定置信预测的阈值,需要额外的方法,并且迄今为止还没有一种放之四海而皆准的方法。 此外,当模型以高置信度对未标记的数据生成许多无用的预测时,训练过程可能会变得不稳定[43]。

一致性正则化是另一类为SSL开发的算法,它通过鼓励网络的预测在观测样本附近保持一致来为目标函数做出贡献[5]。由于其卓越的性能,基于扰动的方案已成为最有效的一致性正则化方法之一。关于计算机视觉领域的图像级分类任务,已经开发了多种方法,包括数据级扰动(例如,Cutout [ 44]、MixUp [ 45]、FixMatch [ 28])和模型级扰动(例如,时间融合 [ 46] 和 Mean Teacher [ 26])。同时,数据级扰动方法(如CutMix [ 27]、CowMix [ 33]、ClassMix [ 47]、ComplexMix [ 48])和模型级扰动方法(如引导式协同训练[ 49]、交叉一致性训练 [ 50]、交叉伪监督 [ 51])在语义分割应用中蓬勃发展。随着SSL算法的显著发展,一些遥感研究试图将不同的SSL技术结合起来。例如,Wang等[31]提出了一种类似FixMatch的方法,结合伪标记和Mean Teacher进行基于SSL的遥感图像分割。随后,Wang等[32]在前人工作[31]的基础上,通过集成类似CutMix的方案和伪标记,进一步提高了模型性能。尽管这些研究在基于SSL的遥感语义分割方面取得了进展,但在其方法中使用伪标签方案使得训练过程离散且复杂。与伪标记方法不同,基于扰动的方法更灵活,更容易以端到端的方式与深度学习模型集成。 通常,基于扰动的方法将一致性损失嵌入到总成本函数中,并通过训练进行优化,而不是执行单独的训练和再训练过程。此外,它们不需要确定置信度阈值,从而降低了训练过程的复杂性和难度。

回顾最新的SSL语义分割方法,我们发现基于增强的方法(如CutMix和ClassMix)是突出的数据级扰动方案。同时,Mean Teacher 和交叉伪监督是模型级扰动管道的两个典型代表。受这些著名方法的启发,我们引入了一种端到端的混合扰动方法,即ClassHyPer,用于遥感图像的语义分割,并带有密集的注释。

 第3章 方法论

 3.1. 问题定义


给定一组N张标记图像和一组 D l = x 1 l , y 1 , , x N l , y N D u = x 1 u , , x P u P张未标记图像(P >> N), x i u 指第-个未标记图像,同时 x i l , y i 表示第-张带有空间维度 H × W 的标记图像及其对应的像素级标签 y i C × H × W ,其中C为类数。SSL 语义分割任务旨在通过合并少量 D l 来自的标记数据和来自 D u 的大量未标记数据来训练模型,以便我们可以获得比仅使用标记数据的模型更好的模型。

通常,传统的语义分割监督学习仅包含基于标记图像的像素交叉熵损失公式化的监督损失:
L s = 1 D l x i l , y i D l C r o s s E n t r o p y y i , f θ x i l

其中 θ 表示 DL 模型 f 的参数。

在 SSL 期间,会根据一致性正则化管道添加无监督丢失 L u 。如前所述,有两类方法:一类是基于输入数据及其预测的扰动的数据级扰动方法,另一类是基于模型参数扰动的模型级扰动方法,其损失项可以分别表述为公式(2)和(3):
L u = 1 D u x i u , x j u D u d f θ g x i u , x j u , g f θ x i u , f θ ( x j u )
L u = 1 D u x i u , x j u D u d f θ x i u , x j u , f θ + η x i u , x j u

其中 d (.,.)是测量前扰动和扰动后差异的距离函数,我们可以根据具体情况使用交叉熵或均方误差函数; g (.) 表示扰动来自未标记图像的预测的函数; η 表示添加到模型参数中的小扰动。最后,SSL 的积分损失函数 L 是有监督损失和无监督损失的总和,如公式 (4):
L = L s + λ L u

其中 λ > 0 表示权衡权重,它控制了无监督项在总损失中的相对重要性;在后面的实验中,我们将根据经验将其设置为 1。基于损失项 L ,我们可以利用梯度下降和反向传播算法来优化模型参数。

本研究的重点是研究四种突出的基于一致性正则化的SSL方法:两种用于数据级扰动,两种用于模型级扰动。然后,介绍了一种基于混合扰动方案的端到端SSL方法。


3.2. 数据级扰动

 3.2.1. CutMix的


CutMix [ 27] 集成了 Cutout [ 44] 和 MixUp [ 45] 方法,它们从图像 A 中切割一个或多个具有随机纵横比和位置的矩形区域,并将它们粘贴到图像 B 上以合成新的混合图像(图 1)。通常,CutMix 用作 DL 中的数据增强方法,通过生成更多合成数据来扩展训练数据大小。在这里,它被用作SSL上下文中基于一致性正则化的方法,通过对未标记的图像及其预测施加扰动。操作公式如下:
x ˜ = M x A + 1 M x B
y ˜ = M f θ x A + 1 M f θ x B

式中 x ˜ , y ˜ 分别表示合成图像和基于未标记图像 x A 的预测 x B ; M { 0 , 1 } W × H 是一个二进制蒙版,指示在两个图像中剪切和填充的位置; 表示逐元素乘法,而 1 表示完全充满 1 的掩码; f θ x A f θ x B 分别表示图像 x A x B 通过深度学习模型 f θ 的输出,θ 表示模型参数。

图 1.用于 SSL 语义分割的 CutMix 图示: x A x B 是两个未标记的图像, f θ 是用于语义分割的 DL 模型。我们将 和 输入到模型中,得到相应的预测 f θ ( x A ) f θ x B ,然后基于掩码 M 将它们混合并实现混合预测 y ˜ = M i x f θ ( x A   , f θ ( x B ) ) x A x B 同时,我们基于相同的掩码进行混合 x A x B 进入 x ˜ = M i x x A , x B ,并将其馈送到模型中,得到预测结果 f θ ( x ˜ )。 M 最后,一致性损失 L c o n s 可以根据 ) 和 y ˜ 之间的 f θ ( x ˜ 差异来计算。

因此,如公式(7)所示,一致性损失是根据混合图像的预测 f θ x ˜ 和混合预测之间的差异计算 y ˜ 的。然后,将一致性损失与监督损失 L c o n s L s 相结合,使用梯度下降算法一起训练模型。
L u = L c o n s = 1 D u x A , x B D u d y ˜ , f θ x ˜  

 3.2.2. 类混合


ClassMix [ 47] 可以看作是 CutMix 的泛化;两者之间的唯一区别是掩码 M 的生成方式。ClassMix 不是剪切和粘贴矩形区域,而是从图像 A 中剪切部分预测类并将其粘贴到图像 B 上,从而形成一个合成图像,可以更好地保留图像 A 中对象的语义边界。如图 2 所示,掩码是从语义边界派生而来的,使混合图像更有意义。这样,经过训练的模型不仅可以对图像上下文的变化保持鲁棒性,还可以对不同的图像遮挡保持鲁棒性。该方法已应用于Cityscapes数据集[38],该数据集是为自动驾驶汽车驾驶的算法测试而创建的,并取得了比CutMix更好的结果。这种改进可以归因于两个因素:(1)创建的蒙版的多样性,这源于每个图像包含不同的类,每个类包含多个对象,导致训练中的蒙版多样化。增加的多样性有助于增强数据分布,提高模型的泛化能力。(2)蒙版基于图像的语义,尊重原始物体的语义边界。由于混合边界更接近实际语义边界,因此混合图像接近真实数据分布,使其对训练和预测更有意义。

图2.用于 SSL 语义分割的 ClassMix 图示。与 CutMix 的唯一区别是,蒙版 M 是通过预测 x A 而不是随机组合矩形区域生成的。

ClassMix 由于其固有的语义边界考虑,因此适用于与遥感相关的任务。与 CutMix 一样,一致性损失是基于混合图像和混合预测的预测 f θ x ˜ y ˜ 。关于混合方案,和分别定义为前景和 x B 背景图像, x A 这意味着 x A 需要剪切和粘贴到其中的一部分 x B 。具体来说,如果 中 x A 有两个以上的类,则预测类的一半将被剪切并粘贴到 x B 。如果 x A 包含两个类,则仅剪切和粘贴非背景类。如果 x A 仅包含 background 类,则将忽略 mix。


3.3. 模型级扰动

 3.3.1. 平均教师 (MT)


Mean Teacher [ 26] 最初是为图像级分类任务提出的,该任务通过基于教师模型和学生模型的预测构建一致性损失来执行 SSL(图 3)。机器翻译的关键思想是,与直接使用最终权重相比,连续学生模型的平均值可以表示更准确的模型。该技术已应用于遥感图像语义分割[31,32],并取得了可观的性能。从技术上讲,教师模型的参数是根据公式(8)中给出的学生模型参数的连续平均值计算得出的:
θ t = α θ t 1 + 1 α θ t

其中 α 0 , 1 为平滑系数,一般设置为0.99,而 θ t 和分别表示训练步骤 t 中学生模型和 θ t 教师模型的参数。

图3.用于 SSL 语义分割的 MT 图示:培训中有一个学生模型和一个教师模型 f θ t f θ t 。学生模型是使用训练数据训练的主要模型。随着训练的进行,教师模型会使用学生模型参数的指数移动平均值进行更新,以便可以根据教师和学生模型的各自预测来建立一致性损失。需要注意的是,教师模型的参数不参与误差反向传播过程,符号“//”表示停止梯度。

直观地说,教师和学生模型应该产生一致的结果,因为它们的参数之间只有很小的差异。因此,教师模型中的伪标签可用于监督学生模型的预测。根据 MT 方案,一致性损失形成为公式 (9):
L u = L c o n s = 1 D u x D u d f θ t x , f θ t x


3.3.2. 交叉伪监督(CPS)


交叉伪监督 [ 51] 是最近提出的一种方法,它使用两个具有相同架构但不同初始化参数的模型,并施加相互监督来执行 SSL(图 4)。这种方法旨在保持两个相似模型之间的一致性,并具有轻微的参数扰动。根据交叉监督操作,在训练过程中建立了两个交叉一致性损失,如公式(10)和(11)。因此,无监督学习损失是用两个交叉一致性损失的总和计算的,如公式(12)所示。该框架包含两个监督损失 L s 1 L s 2 ,用于两个可优化的可训练子模型。总损耗公式为公式(13):
L c p s 1 _ 2 = 1 D u x D u C r o s s E n t r o p y Y 1 x , f θ 2 x
L c p s 2 _ 1 = 1 D u x D u C r o s s E n t r o p y Y 2 x , f θ 1 x
L u = L c p s 1 _ 2 + L c p s 2 _ 1
L = L s 1 + L s 2 + λ L u

其中 θ 1 θ 2 表示具有相同架构 f 的两个模型的各自参数,并且它们使用不同的值进行初始化。 Y 1 Y 2 分别表示根据置信概率结果 f θ 1 x f θ 2 x 计算得出的独热标签映射(称为伪分割映射)。

图4.用于 SSL 语义分割的 CPS 图示:我们将图像 x 输入到模型 f θ 1 中,然后 f θ 2 得到相应的概率图 f θ 1 x f θ 2 x 伪标签 Y 1 x Y 2 x 。随后,让 Y 1 x 监督和监督 f θ 1 x ,分别构造两个一致性损失 L c p s 1 _ 2 f θ 2 x Y 2 x L c p s 2 _ 1 。符号“//”表示停止梯度。

CPS的模型结构稍微复杂一些,但几何对称,可以在子模型之间进行隐式伪监督,而无需设置置信度阈值。请注意,由于需要训练两个子模型,因此其计算工作量会增加。尽管该方法在计算机科学领域两个流行的语义分割数据集(Cityscapes [ 38] 和 PASCAL VOC 2012 [ 52])上取得了出色的性能,但我们仍然期望从遥感应用的角度探索其实际性能。

 3.4. 混合扰动


鉴于数据级和模型级扰动各自的优势,我们认为两种方案的结合可能会进一步增强模型能力。因此,为了结合这两种方案的优点,我们通过将 ClassMix 与 CPS 集成,设计了一种基于混合扰动的方法,即 ClassHyPer。具体来说,ClassMix 在生成尊重原始图像中对象语义边界的混合图像方面表现出色,这有助于完成语义分割任务。此外,掩码的多样性拓宽了数据分布的范围,从而增强了模型的泛化能力,缓解了过拟合问题。CPS的优势在于两个方面:一是两个分割网络之间的一致性促使预测决策边界位于低密度区域。二是模型参数的扰动隐式利用伪分割图作为训练信号,让它们相互监督,从而避免了置信阈值确定的棘手过程。此外,这两种方案都可以端到端地轻松嵌入到现有的深度学习模型中,从而降低了模型训练的复杂性和难度。

如图 5 所示,将两个未标记的图像输入两个分割网络,然后根据其中一个伪分割图生成掩码。随后,基于掩码的混合输入和输出用于构建一致性损失。最后,大量具有成本效益的未标记数据能够通过一致性学习来增强模型性能。除此之外,我们还在图 6 中演示了结合 MT 和 ClassMix 的方法,我们在后面的实验中将其用作对比方法。在本节中,通过相关实验验证了ClassHyPer在不同遥感数据集上的有效性和鲁棒性。

图5.用于 SSL 语义分割的 ClassHyPer 方法的图示。

图6.MT 和 ClassMix 混合用于 SSL 语义分割的图示。


4. 实验和结果

 4.1. 数据集


为了评估混合扰动框架在遥感图像语义分割中的有效性,我们选择了5个高分辨率遥感基准数据集进行实验。表 1 给出了每个数据集的概述,图 7 显示了这些数据集的一些示例。

图7.(a) DG_Road、(b) Massa_Building、(c) WHU_Building、(d) 波茨坦和 (e) Vaihingen 数据集的示例。每个数据集的左列和右列分别表示图像和相应的地面实况标签。

表 1.实验中使用的数据集概述。

DeepGlobe Road Extraction Dataset (DG_Road) [ 53]:这是一个 RGB 卫星数据集,用于道路和街道网络提取挑战,将每个像素分类为二进制类别(道路和背景);它包含 6226 张标记的 RGB 卫星图像,在泰国、印度和印度尼西亚上空捕获了 1024 × 1024 像素。在我们的实验中,我们将它们的大小调整为 512 × 512 像素以减少计算,如 [ 32] 所述,因为目标是验证 SSL 的性能,而不是在挑战竞赛中获得最佳分割结果。然后,我们将它们随机分为三个子集,分别用于训练(3735)、验证(623)和测试(1868),比例为60%:10%:30%;

马萨诸塞州建筑数据集 (Massa_Building) [ 54]:该数据集包含波士顿地区的 151 张 RGB 航拍图像,以及来自 OpenStreetMap 的相应建筑多边形作为地面实况。每个图像为 1500 × 1500 像素,空间分辨率为 1 m。我们遵循官方数据拆分(137 个用于训练,4 个用于验证,10 个用于测试),然后使用最近邻插值将它们重新采样到 1536 × 1536 像素,最后将它们裁剪成 512 × 512 像素的补丁,没有重叠。去除部分空白图像后,分别获得1065张、36张和90张标记图像进行训练、验证和测试;

WHU Aerial Building Dataset (WHU_Building) [ 6]:这是一个用于二进制类语义分割(建筑物和背景)的大型航空 RGB 数据集,覆盖了新西兰基督城 450 公里 2 的 220,000 多座建筑物,空间分辨率为 0.3 m。创建者将图像无缝裁剪成 8188 个具有 512 × 512 像素的补丁,然后将它们分成三个子集:4736 个用于训练,1036 个用于验证,2046 个用于测试。该数据集样本量大、标注精度高,已成为遥感界最流行的基于深度学习的建筑物提取基准数据集之一。为了方便训练,我们在实验中遵循了官方的数据拆分方案;

ISPRS Potsdam 2D Semantic Labeling Dataset (Potsdam) [ 39]:该数据集是 ISPRS 语义标注竞赛基准数据集的一个子集,由 38 幅空间分辨率为 0.05 m 的航空真实正射影像和相应的六类地面实况标签(即不透水表面、建筑物、低矮植被、树木、汽车和杂波/背景)组成。每个修补程序的原始大小为 6000 × 6000 像素。虽然 RGB、IRRG、RGBIR 和 DSM 数据是官方提供的,但我们在实验中只使用了三通道 RGB 标记的图像。根据官方建议,我们将它们分为训练、验证和测试子集,分别有 17、7 和 14 张标记图像。由于计算能力有限,原始图像的大小被调整为 3072 × 3072 像素,然后裁剪成 512 × 512 像素的块,没有重叠。结果,我们分别获得了 612、252 和 504 张标记图像用于训练、验证和测试;

ISPRS Vaihingen 2D Semantic Labeling Dataset (Vaihingen) [ 39]:这也是 ISPRS 基准数据集的一个子集,包含 33 个空间分辨率为 0.09 m 的补丁。每个斑块都涉及一个彩色红外正射影像、DSM 和相应的地面实况标签,具有六个类别(与波茨坦数据集相同)。在我们的实验中,我们只使用了彩色红外正射影像和相应的标签。我们还遵循了官方的建议,分别选择了 11、5 和 17 个补丁作为训练集、验证集和测试集。所有补丁被裁剪成 512 × 512 个子补丁。唯一的区别是训练样本被裁剪为256×256重叠,而验证和测试样本没有重叠。最后,分别获取了 692、68 和 249 个子补丁进行训练、验证和测试。

 4.2. 实验设置


所有实验均通过 PyTorch 1.9.0 [ 55] 和 CUDA 10.2 在具有 11 G 内存的单个 NVIDIA GeForce RTX 2080Ti GPU 中实现。数据增强采用随机水平和垂直翻转。采用权重衰减为0.0002、动量为0.9的AdamW优化器[56],因为它具有快速收敛的特点。学习率初始化为0.0001,采用单周期学习率策略[57]调整训练中的学习率。为了避免过度拟合,我们采用了早期停止策略,当最大 IoU 在几个时期内没有改善时,该策略会指导训练停止。所有实验的批量大小都设置为 4,以适应 GPU 内存并确保公平比较。

关于 CutMix 中的蒙版生成,我们遵循了 [ 5] 中提出的方案。三个矩形覆盖了图像区域的 50%,具有随机的纵横比和位置来创建蒙版。对于ClassMix的掩码生成,采用了预热策略。具体来说,该模型首先训练了几个 epoch(例如,总训练 epoch 的 1/8),仅使用标记数据,以便生成具有更准确类边界的预测,以便在训练中获得更有意义的掩码。

遵循模型训练中的一般经验法则,我们使用训练集来拟合模型参数,使用验证集来评估模型并确定最佳模型参数,并使用测试集进行最终模型评估。此外,为了进行SSL实验,我们将训练集分成两组,随机抽样整个集合的5%、10%、20%或50%作为标记子集,其余数据作为未标记子集。为了降低随机性,保证结果的可靠性,我们对每个数据集重复了3次随机数据子抽样,并使用评估指标的平均值来评估最终的模型性能。

此外,为了避免完全监督学习方法和半监督学习方法之间的不公平比较,我们遵循了[49]中描述的训练规则。首先,我们将训练样本的总数定义为:
N = E × T × B

其中 E 表示总训练周期数,表示每个周期中的迭代次数, T 并且是 B 批处理大小 - 由于 GPU 内存有限,在所有实验中都设置为 4。具体培训规则如下:
(1)

所有纯监督实验都经过 50 个 epoch 的训练,其中 20 个 epoch 提前停止。 T 在SSL的上下文中,随着标记数据数量的减少而减少,但为了防止过拟合,我们没有增加 E ;
(2)

E 进行了调整,以确保 N 与使用所有标记数据的完全监督基线相同。由于SSL实验中的每一批都涉及标记和未标记的数据,因此我们在SSL实验中将“epoch”定义为对未标记的数据进行一次检查,同时标记的子集重复几次以匹配一个epoch内未标记的样本数量;
(3)

根据经验,我们在SSL实验中使用了自适应早期停止策略,以避免折叠训练和过拟合。提前停止的周期按 0.4 × 计算 E


4.3. 基本分割模型


关于语义分割模型,选择了一个简单但经典的FCN模型(图8)作为基础模型架构;将其编码器替换为VGG16的编码器[58],因此我们可以直接使用在ImageNet数据集[59]上训练的VGG16模型参数。该数据集是一个非常大的 1000 类图像识别基准数据集,包含超过 120 万张标记图像。虽然它是为图像级分类而不是像素级语义分割而创建的,但它的预训练模型编码器仍然可以从图像中提取一般特征[20]。通过这种参数TL策略,我们可以加速训练过程,实现更好的模型性能,特别是在标注数据很少的情况下。请注意,本研究中设计的 SSL 框架可以与其他突出的 DL 语义分割架构集成。然而,考虑到我们的目标是评估所提出的SSL方法的有效性,由于实验工作极其耗时,我们只在研究中基于这种模型架构进行了实验(参见第5.1节中的时间效率)。

图8.修改后的 FCN 模型的体系结构。

 4.4. 评估指标


通常,像素级语义分割有几个主要的定量评估指标,例如精确率、召回率、F 1 分数和交集 ( IoU )。这些指标与预测中的四个分类条件相关:真阳性 ( )、假阳性 ( TP FP )、真阴性 ( TN ) 和假阴性 ( FN ),其中 TP 是正确分类的像素,是错误分类的像素,是正确拒绝的像素, FP TN FN 是错误拒绝的像素。
IoU = TP TP + FP + FN

其中,表示整个图像集并集的预测与真值的交集, IoU 取值范围为0-1;即使数据集中的类数量不平衡,它也可以稳健地评估分割结果。例如,在Massa_Building数据集中,非建筑物像素的数量远远多于建筑物像素; IoU 在这种不平衡的分类情况下,仍然可以对检测结果进行鲁棒的测量,这既可以兼顾检测精度,也可以兼顾完整性。因此, IoU 用于在以后的实验中评估模型性能。


4.5. 实验结果


为了全面评估ClassHyPer和其他基于扰动的SSL方法,我们使用纯监督学习方法(Sup)和半监督学习方法(SSL)在多个遥感数据集上对不同比例的标记样本进行了实验。基线表示使用第 4.3 节中介绍的修改后的 FCN 模型的方法。TL表示使用了参数迁移学习策略。具体来说,将VGG 16的预训练参数转移到基线模型中。请注意,TL 策略也应用于所有 SSL 方法。由于二元类数据集(例如DG_Road、Massa_Building和WHU_Building)通常存在类不平衡问题,因此我们只考虑 IoU 目标对象(例如道路或建筑物)进行性能评估,而不考虑背景。对于多类数据集(例如波茨坦和Vaihingen),采用均值 IoU MIoU )进行精度评估,即所有类的平均值 IoU 。为了简化表达式,我们稍后使用 IoU 统一表示精度,无论数据集是否用于二进制类分割。

4.5.1. DG_Road


DG_Road是基于卫星影像的道路提取数据集,分为两类:道路和背景。从表 2 所示的定量结果可以看出,TL 和 SSL 都可以在基线上提高模型性能。准确性提升相对较高,尤其是在使用很少的标记数据时。当使用 5% 的标记数据(186 张标记图像)时,TL 和最佳 SSL 方法 (CPS+CutMix) 将平均值 IoU 分别从 46.65% 提高到 52.88% 和 58.88%,这在语义分割任务中是一个巨大的改进。此外,数据级扰动方法(CutMix 和 ClassMix)可以显著提高模型的准确性,而不是 TL,而且标签很少。相比之下,模型级扰动方法(MT 和 CPS)不能做同样的事情,尽管它们的精度高于基线。基于CPS的混合扰动方法具有更好的性能,但基于MT的混合扰动方法甚至不能单独胜过数据级扰动方法。在基于CPS的混合方法中,ClassHyPer的准确率略低于CPS+CutMix。这可能是由于基于ClassMix的方法不适合道路提取,因为具有线性特征的道路目标分布极其稀疏。此外,值得注意的是,在这个数据集上,我们的模型的性能比最近的 RanPaste 方法 [ 32] 要好得多。例如,ClassHyPer 在 373 个标签中获得了约 60% 的收益,而 RanPaste 在 400 个标签中获得了 54.24% IoU IoU 的收益。从图 9 中可以看出,可视化结果也与定量分析密切相关。 与其他方法相比,CPS+CutMix的假阴性(黄色)和假阳性(红色)像素最少。

图 9.使用来自DG_Road数据集的 5% 标签进行语义分割的可视化结果。从 (c) 到 (),绿色、黄色和红色分别表示真阳性、假阴性和假阳性像素。

表 2.DG_Road数据集上不同方法的准确度 ( , %) 比较 IoU ,其中粗体值是每个比例的最佳值。

4.5.2. Massa_Building


Massa_Building是一个空间分辨率为1 m的航空影像建筑提取数据集,涉及建筑和背景两类。如表3所示,定量结果与DG_Road数据集的结果相似。基线在标记数据的每个比例上具有最低的准确性,而 TL 和 SSL 可以使用很少的标签来提高准确性。当使用 5% 的标记数据(53 张标记图像)时,TL 和最佳 SSL 方法 (ClassHyPer) 分别从 57.35% 显着增加到 IoU 65.05% 和 69.85%。数据级扰动方法可以比模型级扰动方法获得更好的结果。此外,使用100%标记数据的TL方法具有最佳性能(73.15%),而使用50%标记数据的ClassHyPer(72.31%)的准确率也不甘落后。但是,与 DG_Road 数据集的结果不同,ClassMix 在此数据集上比 CutMix 更有效。ClassHyPer在所有比例子集中都获得了最佳的精度,表明场景的多样性的增加和对类边界信息的考虑可以激发SSL算法的潜力。从视觉上看,图 10 还展示了 SSL 方法在仅 5% 标签的数据集上的优越性,其中 ClassHyPer 实现了最佳的提取结果(绿色像素更多,黄色和红色像素更少)。

图 10.使用Massa_Building数据集中 5% 标签的语义分割的可视化结果。从(c)到(),绿色、黄色和红色分别表示真阳性、假阴性和假阳性像素。

表 3.Massa_Building数据集上不同方法的准确度 ( , %) 比较 IoU ,其中粗体值为最佳。

4.5.3. WHU_Building


WHU_Building是一个空间分辨率为0.3 m的大型建筑物提取数据集,包含两个类(建筑物和背景)。定量结果如表4所示。该数据集可以达到近90%, IoU 并且在不同子采样之间的多次重复实验中存在相对较小的标准差,代表了该数据集的鲁棒性和高质量。当使用5%的标记数据(236个标签)时,与基线相比, IoU TL和ClassHyPer分别从81.65%提高到86.37%和88.37%。相对而言,基于 CPS 的方法比其他方法获得更好的性能。令人印象深刻的是,仅使用5%的标记数据,基于CPS的方法就可以获得接近TL在100%标记下实现的高精度。由于其固有的高标记准确性,该数据集对训练数据量不敏感。因此,CutMix 和 ClassMix 取得了相似的结果,因此我们无法发现它们之间的显着差异。此外,当使用4736个标签时, IoU (89.64%)可以优于一些报道的方法,例如SiU-Net [ 6]和SRI-Net [ 60],展示了我们改进的FCN模型的可用性和有效性。同样,从图 11 所示的可视化结果可以看出,由于这些 SSL 方法的精度相对较高,因此很难分辨出这些 SSL 方法之间的视觉差异。

图 11.使用WHU_Building数据集中 5% 标签的语义分割的可视化结果。从(c)到(),绿色、黄色和红色分别表示真阳性、假阴性和假阳性像素。

表 4.WHU_Building数据集上不同方法的准确度 ( , %) 比较 IoU ,其中粗体值为最佳值。

 4.5.4. 波茨坦


与前三个数据集不同,波茨坦数据集是为多类语义分割而创建的;此外,它具有极高的空间分辨率,因此场景复杂度明显大于以前的数据集。我们希望使用这个数据集来验证 ClassHyPer 在多类分割上的适用性。从表 5 中可以看出,ClassHyPer 在所有数据比例上都优于其他基于扰动的方法。当使用 5% 的标记数据(31 个标签)时,ClassHyPer 的准确率比 TL 有显著提高,从 63.09% 增加到 67.13%。但是,当标签比例增加 20% 以上时,与 TL 相比,SSL 方法并不能显着提高准确性。此外,无论是否与数据级扰动相结合,MT 对模型性能都没有帮助。图 12 显示了基于 5% 标签的可视化结果;我们可以看到,很难将所有像素分为六类,因为某些类别可能具有相对同质的特征。例如,由于低矮植被和树木的特征相似,因此在实践中区分低矮植被是具有挑战性的。但是,ClassHyPer 仍然可以提高准确性并实现视觉上更流畅的预测。

图 12.使用波茨坦数据集中 5% 标签的语义分割的可视化结果。从(c)到(),不同的颜色代表具有不同类别的像素,即白色(不透水表面)、蓝色(建筑物)、青色(低植被)、绿色(树木)、黄色(汽车)、红色(杂物/背景)。

表 5.波茨坦数据集上不同方法的准确度 ( , %) 比较 IoU ,其中粗体值为最佳值。

4.5.5. Vaihingen


尽管 Vaihingen 数据集也像波茨坦数据集一样有六个类,但与前四个数据集相比,它由彩色红外图像而不是 RGB 图像组成。如表 6 所示,ClassHyPer 可以在所有数据分区上实现最佳精度。所有SSL方法都可以在极少的标签下提高基线上的模型性能,证明了它们在三波段彩色红外图像上用于多类语义分割的适用性。最有趣的结果是,具有50%标签 IoU (68.08%)的ClassHyPer甚至优于具有100%标签的纯监督方法(67.39%),揭示了SSL方法的巨大潜力。基于5%标签的可视化结果(图13)显示,真值标签可能存在一些意外错误。例如,在图13(a1)中,被橙色矩形包围的区域包含一些不透水的表面像素,但我们无法从地面实况标签(b1)中找到它们。此外,图13(a2)中的矩形显示了一个表面不透水的区域,而通过人工检查,它实际上是低矮的植被。为了更清晰地进行比较,图 14 提供了图 13 中橙色矩形包围的区域的放大可视化。令人印象深刻的是,SSL 方法能够识别这些区域,这也证明了 DL 方法的强大功能和 SSL 范式的卓越性能,即使标记的训练数据数量有限。

图 13.使用来自 Vaihingen 数据集的 5% 标记数据进行语义分割的可视化结果。从(c)到(),不同的颜色代表具有不同类别的像素,即白色(不透水表面)、蓝色(建筑物)、青色(低植被)、绿色(树木)、黄色(汽车)、红色(杂物/背景)。

图 14.图 13 中被橙色矩形包围的区域的放大结果。从(c)到(),不同的颜色代表具有不同类别的像素,即白色(不透水表面)、蓝色(建筑物)、青色(低植被)、绿色(树木)、黄色(汽车)、红色(杂物/背景)。

表 6.Vaihingen 数据集上不同方法的准确度 ( , %) 比较 IoU ,其中粗体值为最佳值。


4.6. 数据集之间的整体比较


4.6.1. ClassHyPer 与不同比例标签的比较


为了分析和比较所提方法在不同数据集之间的结果,我们在表7中展示了使用ClassHyPer的结果的准确性。

表 7.ClassHyPer 在不同数据集上的准确率 ( IoU , %) 比较。

如表1和表7所示,这5个数据集在训练标签数量、空间分辨率、类别、训练精度等多个维度上都具有异构性。总体而言,除WHU_Building数据集外,其他数据集的准确率随着训练标签数量的增加而逐渐提高。例如,如果将具有 100% 标签的 TL 的准确率视为准确率的上限,则每个数据集的 IoU 50% 标签接近上限。有趣的是,具有 50% 标签的 Vaihingen 数据集的准确性甚至超过了上限,显示了所提方法的强大能力。此外,当仅使用 5% 的训练标签时,ClassHyPer 可以达到与 100% 标签相比相当高的准确性,如表 11 所示。

此外,我们发现在不同的数据集上实现了不同程度的准确性。具体来说,WHU_Building数据集具有最多标记的训练图像(4736),并且在所有比例下都达到了最高的准确性。通过查看WHU_Building数据,我们可以看到它具有非常高的空间分辨率(0.3 m),使其能够更准确地描绘建筑物边界并具有更高的标注精度。该数据集的创建者还强调,创建数据集大约需要六个月的时间,严格的人工检查确保了其最终标注的准确性。此外,该数据集是为二元分类而创建的,降低了其任务复杂性并实现了相对较高的准确性。

尽管DG_Road数据集使用了 3735 个标签进行训练,但其准确性在所有数据集中都是最低的。对此有两种可能的解释:(1)其标记精度受到其相对较低的空间分辨率和异质成像质量的限制。例如,由于该数据集由来自具有不同特征的多颗卫星的图像组成,因此即使对于人类来说,也很难标记某些特定区域。(2)该数据集的类不平衡问题严重,对最终模型性能有显著影响。例如,该数据集中的道路像素仅占所有训练标签的 4.21%,如表 8 所示。

表 8.基于地面实况数据对每个数据集不同类别的像素进行统计。

Massa_Building数据集中的建筑物标签直接从OpenStreetMap数据库中引用,无需人工校正,涉及许多意外错误。同时,在DG_Road数据集中,其建筑像素占比(15.53%)大于道路像素占比。因此,我们可以获得在WHU_Building和DG_Road数据集之间占据中间地带的精度。

波茨坦数据集和Vaihingen数据集都具有极高的空间分辨率,因此包含更多的细节和噪声信息。由于不同类别之间存在严重的不平衡类问题,多类分类任务更加困难。如表 8 所示,这两个数据集的汽车像素数量有限,分别仅占所有训练像素的 1.69% 和 1.26%,因此很难对如此罕见的类别进行分类。此外,正如我们之前提到的,类越多,不同类别具有相似特征的可能性就越大。例如,由于低矮植被和树木具有相似的光谱特征,即使使用许多训练样本,也很难区分它们。因此,这两个数据集在所有比例上的准确率仅为63%至73%,尽管波茨坦的准确率高于Vaihingen。


4.6.2. 5%标签不同方法的比较


此外,为了进一步比较上述方法与有限数量的标签,我们总结了基于5%标签的所有五个数据集的准确率结果,如表9所示。根据结果,很明显,数据级扰动方法(即 CutMix 和 ClassMix)可以比模型级扰动方法(即 MT 和 CPS)获得更大的精度改进。对于数据级扰动方法,除DG_Road外,ClassMix在所有数据集上均优于CutMix,这证明了ClassMix在道路提取以外的建筑物提取和土地覆被分类中的适用性。对于模型级的扰动方法,CPS在所有数据集上都优于MT。尽管一些研究[ 31, 32]仍然在他们的方法中使用了机器翻译,但从模型扰动的角度来看,CPS已经成为一种新颖且具有竞争力的SSL范式。事实上,CPS的成功不仅归功于其训练参数数量的增加,还归功于通过鼓励相互监督的多模型组合策略。关于混合流水线,基于MT的方法的性能无法与基于CPS的方法竞争。具体而言,基于CPS的混合方案在所有数据集上都能产生最佳性能,其中ClassHyPer在3个数据集上取得了最佳的准确率,而CPS+CutMix也具有相当的准确率。

表 9.具有 5% 标签的不同数据集的准确度比较 ( , %) IoU ,其中粗体值是每个数据集的最佳值。

通过对涉及不同任务和特征的五个数据集进行整体比较,ClassHyPer 能够应用于标记训练数据很少的场景。此外,基于CPS和基于掩模的数据增强的一致性正则化的混合扰动方法可以实现相对较高的精度。我们应该根据相应的数据及其在具体应用中的特点来选择合适的方法。无论如何,在标签数量有限的情况下,使用未标记的数据可能更具成本效益。

 5. 讨论


本节进一步分析和讨论了实验结果,包括所提方法的时间效率和训练中的标签冗余。

 5.1. 时间效率


为了分析所提出的方法的时间效率,我们选择了两个大型数据集(DG_Road和WHU_Building)。这两个数据集包含超过 3700 个用于训练的标记数据,当使用大量未标记数据时,它们可以很好地代表 SSL 方法的时间消耗。

如表10所示,对于DG_Road数据集,当我们使用5%的标记数据进行训练时,TL用了0.37 h才达到52.88%, IoU 而ClassHyPer用了5.2 h就达到了57.92%。 IoU TL方法在时间方面显然更有效;但是,为了达到与具有 5% 标签的 ClassHyPer 相同的准确度水平,TL 中需要多 ~10% 的标记数据。事实上,根据我们通常的经验,在此数据集中创建 10% 以上的标签(~370 个标签)将花费比 5 小时更多的时间。这同样适用于WHU_Building数据集;虽然ClassHyPer的训练时间更长(6.64 h),但它可以用更少的标签获得更高的准确性,从而节省更多的标签工作时间。此外,我们发现,当标记数据的比例从5%增加到10%时,WHU_Building数据集的准确性并没有显着提高。这可能是因为数据集的高质量使得准确性对标签大小的小幅增加不敏感。

表 10.时间效率分析。

在分析时间效率时,我们发现 ClassHyPer 需要更长的训练时间。但是,它可以从大量未标记的数据中学习,并显着提高分割精度。特别是,当手头只有有限数量的标记数据时,这种方法可以加速问题的解决。

 5.2. 标签冗余


基于上述分析,所提出的方法在极少标签的情况下表现出很高的准确性。与此同时,我们发现训练准确性并没有随着标记数据数量的增加而线性提高。如果将使用 TL 进行全监督学习的 100% 标记数据的结果作为准确率的上限,我们可以计算 IoU 出从 ClassHyPer (SSL IoU ) 到上限 IoU (Sup IoU ) 的比率。表 11 显示了所有数据集的比较结果。值得注意的是,ClassHyPer 使用 5% 标签获得的准确率与使用 100% 标签的纯监督方法获得的准确率之比超过 89%。一方面,该统计强调了所提出的方法如何通过利用大量未标记的数据来显着增强深度学习模型的能力,这对于SSL在遥感应用中的应用具有可喜性。另一方面,基于剩余的 95% 的标记数据,准确率仅提高了不到 10%,这意味着训练数据中存在许多冗余标签。例如,在仅使用5%标签的WHU_Building数据集上达到了98.58%的 IoU 比率,这非常接近精度的上限。此外,我们还观察到标签中存在一些意想不到的错误,这可能是影响最终准确性的另一个因素。因此,用很少但有效的标签来提高模型性能是一个值得未来研究的有趣课题。

表 11.具有不同比例标记训练数据的 ClassHyPer 与 IoU 具有 100% 标签的 TL 的比率 IoU

 6. 结论


本研究旨在缓解遥感语义分割应用中的标签稀缺问题,从数据级和模型级扰动的角度,综合分析了几种基于一致性正则化的先进SSL方法。然后,引入了一种基于ClassMix的端到端混合扰动SSL方法,即ClassHyPer,以在面对有限数量的注释时提高模型的能力。在5个数据集上的实验结果表明,所提方法通过结合5%的标记数据和其余95%的未标记数据,能够在其中3个数据集上实现最佳性能;同时,在其他两个数据集上获得了相对较高的准确度。此外,这种方法不需要设置置信度阈值,可以很容易地与现有的深度学习模型配对。尽管训练需要更多时间,但该模型可以节省花费在标记工作上的时间。

通过各种实验,我们注意到训练中存在许多冗余标签。因此,我们将进一步探讨如何减少标签冗余并提高标签工作的有效性,例如,通过纳入主动学习方案。此外,我们只对三个波段(R-G-B或IR-R-G)的遥感影像进行了实验,因此未来仍需要对多光谱影像(三个波段以上)进行更多的研究。为此,本研究中使用的传统参数迁移学习管道需要针对三个以上波段的多光谱图像进行相应的调整。此外,该方法可以扩展到特定的遥感应用,例如灾害和农业监测,以在实践中挖掘其巨大潜力。

 作者贡献


Y.H.为方法的设计和实施做出了贡献,进行了实验,并撰写和修改了论文;J.W.和C.L.对方法的讨论做出了贡献,并修订了文件;B.S.和X.Z.为论文的编辑和形式分析做出了贡献。所有作者均已阅读并同意该稿件的已发表版本。

 资金


这项研究由加拿大自然科学与工程研究委员会(NSERC)授予王金飞博士的发现基金(资助号RGPIN-2016-04741)和授予何永军的西部研究生研究奖学金(WGRS)资助。


机构审查委员会声明

 不適用。


知情同意书

 不適用。


数据可用性声明


本研究中使用的数据集都是公开的。

 确认


我们感谢地理信息技术与应用(GITA)实验室为实验提供计算资源。作者还要感谢提供公共数据集的团体。此外,作者感谢编辑和匿名审稿人的宝贵意见和建议,这些意见和建议有助于显着改进这项工作。

 利益冲突


作者声明没有利益冲突。

 引用


  1. 廖,C.;王杰;谢庆;巴兹,A.A.;黄彦;尚先生;基于一维卷积神经网络的多时相RADARSAT-2和VENμS数据协同使用作物分类。遥感 2020, 12, 832.[ 谷歌学术搜索][ 交叉参考][ 绿色版]

  2. 郑志;王杰;单,B.;他,Y.;廖,C.;高玲;杨,S.基于迁移学习的烧伤严重程度映射的新模型。遥感 2020, 12, 708.[ 谷歌学术搜索][ 交叉参考][ 绿色版]

  3. 科塔里迪斯,I.;Lazaridou, M. 遥感图像分割进展:荟萃分析。ISPRS J. 摄影图。遥感 2021, 173, 309–322.[ 谷歌学术搜索][ 交叉参考]

  4. 朱旭X.;图亚,D.;牟,L.;夏,G.S.;张玲玲;徐峰;Fraundorfer, F. 遥感中的深度学习:综合回顾和资源列表。IEEE地球科学。遥感杂志 2017, 5, 8–36.[ 谷歌学术搜索][ 交叉参考][ 绿色版]

  5. 法语,G.;莱恩,S.;艾拉,T.;麦凯维奇,M.;Finlayson, G. 半监督语义分割需要强而多样的扰动。2020 年 9 月 7 日至 10 日,第 31 届英国机器视觉虚拟会议论文集,英国虚拟活动。[ 谷歌学术搜索]

  6. 姬,S.;魏,S.;Lu, M. 从开放的航空和卫星图像数据集中提取多源建筑物的全卷积网络。IEEE译. Geosci.遥感 2019, 57, 574–586.[ 谷歌学术搜索][ 交叉参考]

  7. 罗,S.;李H.;Shen, H. 基于新型航空阴影图像数据集的深度监督卷积神经网络进行阴影检测。ISPRS J. 摄影图。遥感 2020, 167, 443–457.[ 谷歌学术搜索][ 交叉参考]

  8. 萨哈,S.;牟,L.;邱,C.;朱旭X.;博沃洛,F.;Bruzzone, L. 多时相高分辨率图像的无监督深度关节分割。IEEE译. Geosci.遥感 2020, 58, 8780–8792.[ 谷歌学术搜索][ 交叉参考]

  9. 萨哈,S.;埃贝尔,P.;Zhu, X.X. 自监督多传感器变化检测。IEEE译. Geosci.遥感 2021, 60, 1–10.[ 谷歌学术搜索][ 交叉参考]

  10. Anantrasirichai,N.;比格斯,J.;白化病,F.;公牛,D.使用合成数据集从卫星图像中检测火山变形的深度学习方法。远程传感器环境。2019, 230, 111179.[ 谷歌学术搜索][ 交叉参考][ 绿色版]

  11. 拜尔,G.;德切姆斯,A.;施密特,M.;Yokoya, N. 从土地覆盖图和辅助栅格数据合成光学和 SAR 影像。IEEE译. Geosci.遥感 2022, 60, 1–12.[ 谷歌学术搜索][ 交叉参考]

  12. 凯撒,P.;韦格纳,法学博士;卢奇,A.;贾吉,M.;霍夫曼,T.;Schindler, K. 从在线地图中学习航空图像分割。IEEE译. Geosci.遥感 2017, 55, 6054–6068.[ 谷歌学术搜索][ 交叉参考]

  13. 吉拉德,N.;查皮亚特,G.;Tarabalka, Y. 在没有完美地面实况数据的情况下校正未对齐的地籍图的嘈杂监督。IGARSS 2019—2019 IEEE国际地球科学与遥感研讨会论文集,日本横滨,2019年7月28日至8月2日;第10103-10106页。[ 谷歌学术搜索]

  14. 胡, X.;李婷婷;周, T.;刘彦;Peng, Y. 基于Transformer的高光谱图像分类对比学习.应用科学 2021, 11, 8670.[ 谷歌学术搜索][ 交叉参考]
  15. Kang, J.; Wang, Z.; Zhu, R.; Sun, X.; Fernandez-Beltran, R.; Plaza, A. PiCoCo: Pixelwise Contrast and Consistency Learning for Semisupervised Building Footprint Segmentation. IEEE J. Sel. Top. Appl. Earth Obs. Remote Sens. 2021, 14, 10548–10559. [Google Scholar] [CrossRef]
  16. Lu, J.; Behbood, V.; Hao, P.; Zuo, H.; Xue, S.; Zhang, G. Transfer Learning Using Computational Intelligence: A Survey. Knowl.-Based Syst. 2015, 80, 14–23. [Google Scholar] [CrossRef]
  17. Zhuang, F.; Qi, Z.; Duan, K.; Xi, D.; Zhu, Y.; Zhu, H.; Xiong, H.; He, Q. A Comprehensive Survey on Transfer Learning. Proc. IEEE 2021, 109, 43–76. [Google Scholar] [CrossRef]
  18. Wang, M.; Deng, W. Deep Visual Domain Adaptation: A Survey. Neurocomputing 2018, 312, 135–153. [Google Scholar] [CrossRef] [Green Version]
  19. Tong, X.-Y.; Xia, G.-S.; Lu, Q.; Shen, H.; Li, S.; You, S.; Zhang, L. Land-Cover Classification with High-Resolution Remote Sensing Images Using Transferable Deep Models. Remote Sens. Environ. 2020, 237, 111322. [Google Scholar] [CrossRef] [Green Version]
  20. Hu, F.; Xia, G.-S.; Hu, J.; Zhang, L. Transferring Deep Convolutional Neural Networks for the Scene Classification of High-Resolution Remote Sensing Imagery. Remote Sens. 2015, 7, 14680–14707. [Google Scholar] [CrossRef] [Green Version]
  21. Xie, M.; Jean, N.; Burke, M.; Lobell, D.; Ermon, S. Transfer Learning from Deep Features for Remote Sensing and Poverty Mapping. In Proceedings of the 30th AAAI Conference on Artificial Intelligence, Phoenix, AZ, USA, 12–17 February 2016; pp. 3929–3935. [Google Scholar]
  22. Majd, R.D.; Momeni, M.; Moallem, P. Transferable Object-Based Framework Based on Deep Convolutional Neural Networks for Building Extraction. IEEE J. Sel. Top. Appl. Earth Obs. Remote Sens. 2019, 12, 2627–2635. [Google Scholar] [CrossRef]
  23. Chen, J.; He, F.; Zhang, Y.; Sun, G.; Deng, M. SPMF-Net: Weakly Supervised Building Segmentation by Combining Superpixel Pooling and Multi-Scale Feature Fusion. Remote Sens. 2020, 12, 1049. [Google Scholar] [CrossRef] [Green Version]
  24. Fu, K.; Lu, W.; Diao, W.; Yan, M.; Sun, H.; Zhang, Y.; Sun, X. WSF-NET: Weakly Supervised Feature-Fusion Network for Binary Segmentation in Remote Sensing Image. Remote Sens. 2018, 10, 1970. [Google Scholar] [CrossRef] [Green Version]
  25. van Engelen, J.E.; Hoos, H.H. A Survey on Semi-Supervised Learning. Mach. Learn. 2020, 109, 373–440. [Google Scholar] [CrossRef] [Green Version]
  26. Tarvainen, A.; Valpola, H. Mean Teachers Are Better Role Models: Weight-Averaged Consistency Targets Improve Semi-Supervised Deep Learning Results. In Proceedings of the 31 Annual Conference on Neural Information Processing Systems, Long Beach, CA, USA, 4–9 December 2017. [Google Scholar]
  27. Yun, S.; Han, D.; Chun, S.; Oh, S.J.; Yoo, Y.; Choe, J. CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features. In Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, Korea, 27 October–2 November 2019; pp. 6022–6031. [Google Scholar]
  28. Sohn, K.; Berthelot, D.; Li, C.-L.; Zhang, Z.; Carlini, N.; Cubuk, E.D.; Kurakin, A.; Zhang, H.; Raffel, C. FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence. In Proceedings of the Advances in Neural Information Processing Systems, Online, 6–12 December 2020; Volume 33, pp. 596–608. [Google Scholar]
  29. Han, W.; Feng, R.; Wang, L.; Cheng, Y. A Semi-Supervised Generative Framework with Deep Learning Features for High-Resolution Remote Sensing Image Scene Classification. ISPRS J. Photogramm. Remote Sens. 2018, 145, 23–43. [Google Scholar] [CrossRef]
  30. Hua, Y.; Marcos, D.; Mou, L.; Zhu, X.X.; Tuia, D. Semantic Segmentation of Remote Sensing Images With Sparse Annotations. IEEE Geosci. Remote Sens. Lett. 2022, 19, 1–5. [Google Scholar] [CrossRef]
  31. Wang, J.; Ding, C.H.Q.; Chen, S.; He, C.; Luo, B. Semi-Supervised Remote Sensing Image Semantic Segmentation via Consistency Regularization and Average Update of Pseudo-Label. Remote Sens. 2020, 12, 3603. [Google Scholar] [CrossRef]
  32. Wang, J.-X.; Chen, S.-B.; Ding, C.H.Q.; Tang, J.; Luo, B. RanPaste: Paste Consistency and Pseudo Label for Semisupervised Remote Sensing Image Semantic Segmentation. IEEE Trans. Geosci. Remote Sens. 2021, 60, 1–16. [Google Scholar] [CrossRef]
  33. French, G.; Oliver, A.; Salimans, T. Milking CowMask for Semi-Supervised Image Classification. arXiv 2020, arXiv:2003.12022. [Google Scholar]
  34. Long, J.; Shelhamer, E.; Darrell, T. Fully Convolutional Networks for Semantic Segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Boston, MA, USA, 7–12 June 2015; pp. 3431–3440. [Google Scholar]
  35. Zhou, L.; Zhang, C.; Wu, M. D-LinkNet: LinkNet with Pretrained Encoder and Dilated Convolution for High Resolution Satellite Imagery Road Extraction. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Salt Lake City, UT, USA, 18–22 June 2018; pp. 182–186. [Google Scholar]
  36. Zheng, X.; Huan, L.; Xia, G.-S.; Gong, J. Parsing Very High Resolution Urban Scene Images by Learning Deep ConvNets with Edge-Aware Loss. ISPRS J. Photogramm. Remote Sens. 2020, 170, 15–28. [Google Scholar] [CrossRef]
  37. Mohajerani, S.; Krammer, T.A.; Saeedi, P. Cloud Detection Algorithm for Remote Sensing Images Using Fully Convolutional Neural Networks. In Proceedings of the IEEE 20th International Workshop on Multimedia Signal Processing, Vancouver, BC, Canada, 29–31 August 2018. [Google Scholar]
  38. Cordts, M.; Omran, M.; Ramos, S.; Rehfeld, T.; Enzweiler, M.; Benenson, R.; Franke, U.; Roth, S.; Schiele, B. The Cityscapes Dataset for Semantic Urban Scene Understanding. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, USA, 27–30 June 2016; pp. 3213–3223. [Google Scholar]
  39. Rottensteiner, F.; Sohn, G.; Jung, J.; Gerke, M.; Baillard, C.; Benitez, S.; Breitkopf, U. The ISPRS Benchmark on Urban Object Classification and 3D Building Reconstruction. In Proceedings of the ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Melbourne, Australia, 25 August–1 September 2012; Volume I-3, pp. 293–298. [Google Scholar]
  40. Protopapadakis, E.; Doulamis, A.; Doulamis, N.; Maltezos, E. Stacked Autoencoders Driven by Semi-Supervised Learning for Building Extraction from near Infrared Remote Sensing Imagery. Remote Sens. 2021, 13, 371. [Google Scholar] [CrossRef]
  41. Lee, D.-H. Pseudo-Label: The Simple and Efficient Semi-Supervised Learning Method for Deep Neural Networks. In Proceedings of the Workshop on Challenges in Representation Learning, Daegu, Korea, 3–7 November 2013; Volume 3, p. 896. [Google Scholar]
  42. Li, F.; Clausi, D.A.; Xu, L.; Wong, A. ST-IRGS: A Region-Based Self-Training Algorithm Applied to Hyperspectral Image Classification and Segmentation. IEEE Trans. Geosci. Remote Sens. 2018, 56, 3–16. [Google Scholar] [CrossRef]
  43. Oliver, A.; Odena, A.; Raffel, C.; Cubuk, E.D.; Goodfellow, I.J. Realistic Evaluation of Deep Semi-Supervised Learning Algorithms. In Proceedings of the Advances in Neural Information Processing Systems, Montreal, QC, Canada, 3–8 December 2018; pp. 3239–3250. [Google Scholar]
  44. DeVries, T.; Taylor, G.W. Improved Regularization of Convolutional Neural Networks with Cutout. arXiv 2017, arXiv:1708.04552. [Google Scholar]
  45. Zhang, H.; Cisse, M.; Dauphin, Y.N.; Lopez-Paz, D. Mixup: Beyond Empirical Risk Minimization. In Proceedings of the International Conference on Learning Representations, Vancouver, BC, Canada, 30 April–3 May 2018. [Google Scholar]
  46. Laine, S.; Aila, T. Temporal Ensembling for Semi-Supervised Learning. In Proceedings of the International Conference on Learning Representations, Toulon, France, 24–26 April 2017. [Google Scholar]
  47. Olsson, V.; Tranheden, W.; Pinto, J.; Svensson, L. ClassMix: Segmentation-Based Data Augmentation for Semi-Supervised Learning. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), Waikoloa, HI, USA, 3–8 January 2021; pp. 1368–1377. [Google Scholar]
  48. Chen, Y.; Ouyang, X.; Zhu, K.; Agam, G. ComplexMix: Semi-Supervised Semantic Segmentation Via Mask-Based Data Augmentation. In Proceedings of the 2021 IEEE International Conference on Image Processing (ICIP), Anchorage, AK, USA, 19–22 September 2021; pp. 2264–2268. [Google Scholar]
  49. Ke, Z.; Qiu, D.; Li, K.; Yan, Q.; Lau, R.W.H. Guided Collaborative Training for Pixel-Wise Semi-Supervised Learning. In Proceedings of the 16th IEEE European Conference Computer Vision, Glasgow, UK, 23–28 August 2020; pp. 429–445. [Google Scholar]
  50. Ouali, Y.; Hudelot, C.; Tami, M. Semi-Supervised Semantic Segmentation With Cross-Consistency Training. In Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, WA, USA, 13–19 June 2020; pp. 12671–12681. [Google Scholar]
  51. Chen, X.; Yuan, Y.; Zeng, G.; Wang, J. Semi-Supervised Semantic Segmentation With Cross Pseudo Supervision. In Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Virtual, 19–25 June 2021; pp. 2613–2622. [Google Scholar]
  52. Everingham, M.; Eslami, S.M.A.; Van Gool, L.; Williams, C.K.I.; Winn, J.; Zisserman, A. The Pascal Visual Object Classes Challenge: A Retrospective. Int. J. Comput. Vis. 2015, 111, 98–136. [Google Scholar] [CrossRef]
  53. Demir, I.; Koperski, K.; Lindenbaum, D.; Pang, G.; Huang, J.; Basu, S.; Hughes, F.; Tuia, D.; Raskar, R. DeepGlobe 2018: A Challenge to Parse the Earth through Satellite Images. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Salt Lake City, UT, USA, 18–22 June 2018; pp. 172–181. [Google Scholar]
  54. Mnih, V. Machine Learning for Aerial Image Labeling. Ph.D. Thesis, University of Toronto, Toronto, ON, Canada, 2013. [Google Scholar]
  55. PyTorch: An Python-Based Open Source Machine Learning Framework Based on the Torch Library. Available online: https://pytorch.org/get-started/locally/ (accessed on 5 November 2021).
  56. Loshchilov, I.; Hutter, F. Decoupled Weight Decay Regularization. In Proceedings of the International Conference on Learning Representations, New Orleans, LA, USA, 6–9 May 2019. [Google Scholar]
  57. Smith, L.N. Cyclical Learning Rates for Training Neural Networks. In Proceedings of the IEEE Winter Conference on Applications of Computer Vision, Santa Rosa, CA, USA, 24–31 March 2017; pp. 464–472. [Google Scholar]
  58. Simonyan, K.; Zisserman, A. Very Deep Convolutional Networks for Large-Scale Image Recognition. In Proceedings of the International Conference on Learning Representations, San Diego, CA, USA, 7–9 May 2015. [Google Scholar]
  59. Deng, J.; Dong, W.; Socher, R.; Li, L.; Li, K.; Li, F.F. ImageNet: A Large-Scale Hierarchical Image Database. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Miami, FL, USA, 20–25 June 2009; pp. 248–255. [Google Scholar]
  60. Liu, P.; Liu, X.; Liu, M.; Shi, Q.; Yang, J.; Xu, X.; Zhang, Y. Building Footprint Extraction from High-Resolution Images via Spatial Residual Inception Convolutional Neural Network. Remote Sens. 2019, 11, 830. [Google Scholar] [CrossRef] [Green Version]
Figure 1. Illustration of CutMix for SSL semantic segmentation: x A and x B are two unlabeled images, and f θ is a DL model for semantic segmentation. We input x A and x B to the model and obtain the respective predictions f θ ( x A ) and f θ x B , then mix them based on a mask M and achieve a mixed prediction y ˜ = M i x f θ ( x A   , f θ ( x B ) ) . At the same time, we mix x A and x B into x ˜   = M i x x A , x B based on the same mask M , and feed it to the model to get the predictions f θ ( x ˜ ). Finally, the consistency loss L c o n s can be calculated in terms of the differences between f θ ( x ˜ ) and y ˜ .
Remotesensing 14 00879 g001
Figure 2. Illustration of ClassMix for SSL semantic segmentation. The only difference from CutMix is that the mask M is generated by the prediction of x A instead of a random combination of rectangular areas.
Remotesensing 14 00879 g002
Figure 3. Illustration of MT for SSL semantic segmentation: There is a student model f θ t and a teacher model f θ t in training. The student model is the main model trained with the training data. As the training goes on, the teacher model is updated with an exponential moving average of the student model’s parameters, so that a consistency loss can be established based on the respective predictions from the teacher and student models. Note that the parameters of the teacher model do not take part in the process of error backpropagation, and the symbol “//” signifies the stop-gradient.
Remotesensing 14 00879 g003
Figure 4. Illustration of CPS for SSL semantic segmentation: We input image x into the model f θ 1 and f θ 2 , then get the corresponding probability maps f θ 1 x and f θ 2 x and pseudo-labels Y 1 x and Y 2 x . Subsequently, let Y 1 x supervise f θ 2 x and Y 2 x supervise f θ 1 x , constructing two consistency losses L c p s 1 _ 2 and L c p s 2 _ 1 , respectively. The symbol “//” signifies the stop-gradient.
Remotesensing 14 00879 g004
Figure 5. Illustration of the ClassHyPer approach for SSL semantic segmentation.
Remotesensing 14 00879 g005
Figure 6. Illustration of the hybrid of MT and ClassMix for SSL semantic segmentation.
Remotesensing 14 00879 g006
Figure 7. Examples of the (a) DG_Road, (b) Massa_Building, (c) WHU_Building, (d) Potsdam, and (e) Vaihingen datasets. The left and right columns of each dataset denote the images and corresponding ground-truth labels, respectively.
Remotesensing 14 00879 g007
Figure 8. The architecture of the modified FCN model.
Remotesensing 14 00879 g008
Figure 9. Visualization results of semantic segmentation using 5% labels from the DG_Road dataset. From (c) to (l), green, yellow, and red color true positive, false negative, and false positive pixels, respectively.
Remotesensing 14 00879 g009aRemotesensing 14 00879 g009b
Figure 10. Visualization results of semantic segmentation using 5% labels from the Massa_Building dataset. From (c) to (l), green, yellow, and red represent true positive, false negative, and false positive pixels, respectively.
Remotesensing 14 00879 g010
Figure 11. Visualization results of semantic segmentation using 5% labels from the WHU_Building dataset. From (c) to (l), green, yellow, and red represent true positive, false negative, and false positive pixels, respectively.
Remotesensing 14 00879 g011
Figure 12. Visualization results of semantic segmentation using 5% labels from the Potsdam dataset. From (c) to (l), the different colors represent the pixels with different categories, i.e., white (impervious surfaces), blue (building), cyan (low vegetation), green (tree), yellow (car), red (clutter/background).
Remotesensing 14 00879 g012aRemotesensing 14 00879 g012b
Figure 13. Visualization results of semantic segmentation using 5% labeled data from the Vaihingen dataset. From (c) to (l), the different colors represent the pixels with different categories, i.e., white (impervious surfaces), blue (building), cyan (low vegetation), green (tree), yellow (car), red (clutter/background).
Remotesensing 14 00879 g013
Figure 14. Enlarged results of the area surrounded by the orange rectangle in Figure 13. From (c) to (l), the different colors represent the pixels with different categories, i.e., white (impervious surfaces), blue (building), cyan (low vegetation), green (tree), yellow (car), red (clutter/background).
Remotesensing 14 00879 g014
Table 1. Overview of the datasets used in the experiments.
DatasetLabeled
Images
Split (Train:Val:Test)ClassesSize
(Pixels)
Resolution (m)BandsData Source
DG_Road62263735:623:18682512 × 5121R-G-BSatellite
Massa_Building11911065:36:902512 × 5121R-G-BAerial
WHU_Building81884736:1036:24162512 × 5120.3R-G-BAerial
Potsdam1368612:252:5046512 × 5120.1R-G-BAerial
Vaihingen1009692:68:2496512 × 5120.09IR-R-GAerial
Table 2. Accuracy ( IoU , %) comparison of different methods on the DG_Road dataset, where the values in bold are the best for each proportion.
Method5% (186)10% (373)20% (747)50% (1867)100% (3735)
SupBaseline46.65 ± 0.5450.72 ± 0.8355.80 ± 0.2760.15 ± 0.2562.97 ± 0.07
TL52.88 ± 0.3956.76 ± 0.1159.34 ± 0.2562.49 ± 0.2164.73 ± 0.38
SSLCutMix55.63 ± 0.3358.33 ± 0.3360.62 ± 0.1162.52 ± 0.27
ClassMix55.06 ± 0.4958.05 ± 0.4259.96 ± 0.2661.85 ± 0.02
MT51.70 ± 0.8754.66 ± 0.6858.01 ± 0.6661.60 ± 0.13
MT+CutMix55.85 ± 0.4758.74 ± 0.2460.75 ± 0.0762.10 ± 0.13
MT+ClassMix54.23 ± 0.6057.50 ± 0.8359.87 ± 0.2060.75 ± 0.36
CPS52.10 ± 1.1656.77 ± 1.0059.27 ± 0.6062.00 ± 0.12
CPS+CutMix58.88 ± 0.4660.53 ± 0.4861.77 ± 0.1863.19 ± 0.27
ClassHyPer57.92 ± 0.2660.03 ± 0.2861.14 ± 0.1362.56 ± 0.09
Table 3. Accuracy ( IoU , %) comparison of different methods on the Massa_Building dataset, where the values in bold are the best.
Method5% (53)10% (106)20% (212)50% (532)100% (1065)
SupBaseline57.35 ± 1.3163.60 ± 0.7565.71 ± 0.0669.51 ± 0.2871.73 ± 0.28
TL65.05 ± 0.9868.21 ± 0.3269.78 ± 0.3671.48 ± 0.5773.15 ± 0.12
SSLCutMix66.32 ± 1.4970.07 ± 0.8370.98 ± 0.6171.67 ± 0.37
ClassMix68.98 ± 0.4069.94 ± 0.7770.60 ± 0.3871.39 ± 1.21
MT63.27 ± 2.3667.35 ± 0.6869.64 ± 0.8671.18 ± 0.87
MT+CutMix66.54 ± 1.5270.05 ± 0.8670.73 ± 0.3972.18 ± 0.45
MT+ClassMix67.98 ± 1.3870.35 ± 0.0370.79 ± 0.5771.82 ± 0.49
CPS66.75 ± 0.6469.17 ± 1.0570.54 ± 0.5470.84 ± 0.40
CPS+CutMix69.03 ± 1.2671.08 ± 0.5571.77 ± 0.3471.92 ± 0.57
ClassHyPer69.85 ± 0.2571.62 ± 0.5172.17 ± 0.4772.31 ± 0.38
Table 4. Accuracy ( IoU , %) comparison of different methods on the WHU_Building dataset, where the values in bold are the best.
Method5% (236)10% (473)20% (947)50% (2368)100% (4736)
SupBaseline81.65 ± 0.5284.48 ± 0.0886.71 ± 0.3588.48 ± 0.3589.40 ± 0.06
TL86.37 ± 0.2786.46 ± 0.5388.15 ± 0.3589.49 ± 0.3489.64 ± 0.04
SSLCutMix87.38 ± 0.2487.87 ± 0.3088.63 ± 0.2689.16 ± 0.29
ClassMix87.54 ± 0.2288.16 ± 0.3188.68 ± 0.1589.17 ± 0.20
MT87.37 ± 0.5187.67 ± 0.4688.78 ± 0.3089.31 ± 0.21
MT+CutMix86.98 ± 0.3888.33 ± 0.1788.84 ± 0.3789.36 ± 0.15
MT+ClassMix87.22 ± 0.0588.08 ± 0.1388.62 ± 0.1088.71 ± 0.13
CPS88.44 ± 0.1188.75 ± 0.5789.17 ± 0.0889.50 ± 0.07
CPS+CutMix88.25 ± 0.2888.79 ± 0.1289.14 ± 0.1989.53 ± 0.33
ClassHyPer88.37 ± 0.0788.98 ± 0.1989.30 ± 0.1689.44 ± 0.21
Table 5. Accuracy ( IoU , %) comparison of different methods on the Potsdam dataset, where the values in bold are the best.
Method5% (31)10% (61)20% (122)50% (306)100% (612)
SupBaseline46.63 ± 0.9850.31 ± 1.9157.01 ± 0.2864.34 ± 0.3168.86 ± 0.12
TL63.09 ± 0.8566.41 ± 0.4270.23 ± 0.2671.65 ± 0.3373.49 ± 0.36
SSLCutMix65.45 ± 0.2567.54 ± 0.8070.14 ± 0.5871.51 ± 0.15
ClassMix65.62 ± 0.9167.89 ± 0.5570.42 ± 0.3471.73 ± 0.27
MT61.84 ± 0.8263.9 ± 0.7368.02 ± 0.8370.61 ± 0.33
MT+CutMix61.38 ± 0.7965.59 ± 0.6768.49 ± 0.9471.06 ± 0.31
MT+ClassMix64.83 ± 0.7266.38 ± 0.9369.11 ± 0.3870.51 ± 0.26
CPS62.72 ± 0.8965.48 ± 0.2370.09 ± 0.5071.05 ± 0.41
CPS+CutMix66.27 ± 0.6968.17 ± 0.5570.28 ± 0.3171.75 ± 0.65
ClassHyPer67.13 ± 0.4068.63 ± 0.6070.54 ± 0.3071.87 ± 0.23
Table 6. Accuracy ( IoU , %) comparison of different methods on the Vaihingen dataset, where the values in bold are the best.
Method5% (34)10% (69)20% (138)50% (346)100% (692)
SupBaseline44.92 ± 0.8648.54 ± 0.850.15 ± 0.2655.47 ± 1.0361.63 ± 0.56
TL55.27 ± 0.9359.28 ± 1.5660.98 ± 0.9165.81 ± 0.1067.39 ± 0.49
SSLCutMix58.86 ± 1.7162.87 ± 1.2264.61 ± 1.3765.81 ± 1.59
ClassMix60.33 ± 0.8365.19 ± 1.5566.39 ± 0.4966.82 ± 0.65
MT59.46 ± 0.8762.46 ± 1.5864.85 ± 2.8466.33 ± 0.40
MT+CutMix60.46 ± 1.5164.85 ± 1.1465.35 ± 1.2766.63 ± 1.32
MT+ClassMix60.57 ± 1.4064.21 ± 1.1565.46 ± 0.7067.60 ± 0.69
CPS62.70 ± 1.2665.88 ± 1.6366.98 ± 0.8067.40 ± 0.85
CPS+CutMix63.16 ± 1.4666.17 ± 0.8067.00 ± 1.1067.15 ± 0.99
ClassHyPer63.49 ± 1.9566.31 ± 1.6767.03 ± 1.1868.08 ± 0.47
Table 7. Accuracy ( IoU , %) comparison of ClassHyPer on different datasets.
DatasetTraining LabelsClassHyPerTL with
100% Labels
5%10%20%50%
DG_Road373557.92 ± 0.2660.03 ± 0.2861.14 ± 0.1363.19 ± 0.2764.73 ± 0.38
Massa_Building106569.85 ± 0.2571.62 ± 0.5172.17 ± 0.4772.31 ± 0.3873.15 ± 0.12
WHU_Building473688.37 ± 0.0788.98 ± 0.1989.30 ± 0.1689.44 ± 0.2189.64 ± 0.04
Potsdam61267.13 ± 0.4068.63 ± 0.6070.54 ± 0.3071.87 ± 0.2373.49 ± 0.36
Vaihingen69263.49 ± 1.9566.31 ± 1.6767.03 ± 1.1868.08 ± 0.4767.39 ± 0.49
Table 8. Statistics of pixels in different categories of each dataset based on ground-truth data.
DatasetClassesTrainValTest
RatioPixelsRatioPixelsRatioPixels
DG_RoadBackground95.79%937,917,46895.62%156,165,83295.75%468,869,474
Road4.21%41,190,3724.38%7,149,8804.25%20,815,518
Massa_BuildingBackground84.47%235,820,19887.39%8,246,90778.84%18,601,348
Building15.53%43,363,16212.61%1,190,27721.16%4,991,612
WHU_BuildingBackground81.34%1,009,799,43089.00%241,707,22588.87%562,861,562
Building18.66%231,714,55811.00%29,873,95911.13%70,478,342
PotsdamImpervious surfaces28.85%46,203,25227.54%18,265,09831.47%41,579,812
Buildings26.17%41,919,72728.05%18,604,16823.92%31,601,996
Low vegetation23.52%37,670,50623.58%15,637,76221.01%27,757,373
Trees15.08%24,153,82313.52%8,969,93617.04%22,515,491
Cars1.69%2,710,1121.68%1,116,6031.97%2,596,193
Clutter/Background4.69%7,512,5645.62%3,728,8654.59%6,069,711
VaihingenImpervious surfaces29.34%53,219,81526.48%4,719,39727.35%17,853,972
Buildings26.88%48,763,59624.24%4,321,51126.49%17,289,928
Low vegetation19.56%35,478,64121.93%3,909,07020.25%13,219,923
Trees22.08%40,052,82226.04%4,641,14723.63%15,421,237
Cars1.26%2,283,3351.23%219,0781.31%855,221
Clutter/Background0.89%1,605,4390.09%15,5890.97%633,575
Table 9. Accuracy comparison ( IoU , %) on different datasets with 5% labels, where the values in bold are the best for each dataset.
DatasetMethod
CutMixClassMix MTMT+CutMixMT+ClassMixCPSCPS+CutMixClassHyPer
DG_Road55.63 ± 0.3355.06 ± 0.4951.70 ± 0.8755.85 ± 0.4754.23 ± 0.6052.10 ± 1.1658.88 ± 0.4657.92 ± 0.26
Massa_Building66.32 ± 1.4968.98 ± 0.4063.27 ± 2.3666.54 ± 1.5267.98 ± 1.3866.75 ± 0.6469.03 ± 1.2669.85 ± 0.25
WHU_Building87.38 ± 0.2487.54 ± 0.2287.37 ± 0.5186.98 ± 0.3887.22 ± 0.0588.44 ± 0.1188.25 ± 0.2888.37 ± 0.07
Potsdam65.45 ± 0.2565.62 ± 0.9161.84 ± 0.8261.38 ± 0.7964.83 ± 0.7262.72 ± 0.8966.27 ± 0.6967.13 ± 0.40
Vaihingen58.86 ± 1.7160.33 ± 0.8359.46 ± 0.8760.46 ± 1.5160.57 ± 1.4062.70 ± 0.2663.16 ± 1.4663.49 ± 1.95
Table 10. Time efficiency analysis.
DatasetTLClassHyPer
Time (h) I o U   ( % ) Time (h) I o U   ( % )
DG_Road5% (186)0.3752.88 ± 0.395.2057.92 ± 0.26
10% (373)0.4756.76 ± 0.115.1260.03 ± 0.28
20% (747)0.6359.34 ± 0.255.2461.14 ± 0.13
50% (1867)1.1762.49 ± 0.215.4462.56 ± 0.09
100% (3735)2.0064.73 ± 0.38
WHU_Building5% (236)0.4286.37 ± 0.276.6488.37 ± 0.07
10% (473)0.5286.46 ± 0.536.5388.98 ± 0.19
20% (947)0.7388.15 ± 0.356.7689.30 ± 0.16
50% (2368)1.4589.49 ± 0.347.0189.44 ± 0.21
100% (4736)2.6289.64 ± 0.04
Table 11. The ratio of IoU from ClassHyPer with different proportions of labeled training data to IoU from TL with 100% labels.
Dataset5%10%20%50%100%
Labels S S L   I o U S u p   I o U Labels S S L   I o U S u p   I o U Labels S S L   I o U S u p   I o U Labels S S L   I o U S u p   I o U Labels
DG_Road18689.48%37392.74%74794.45%186796.65%3735
Massa_Building5395.49%10697.91%21298.66%53298.85%1065
WHU_Building23698.58%47399.26%94799.62%236899.78%4736
Potsdam3091.34%6193.38%12295.98%30697.80%612
Vaihingen3494.21%6998.40%13899.47%346101.02%692
Publisher’s Note: MDPI stays neutral with regard to jurisdictional claims in published maps and institutional affiliations.

Share and Cite

MDPI and ACS Style

He, Y.; Wang, J.; Liao, C.; Shan, B.; Zhou, X. ClassHyPer: ClassMix-Based Hybrid Perturbations for Deep Semi-Supervised Semantic Segmentation of Remote Sensing Imagery. Remote Sens. 2022, 14, 879. https://doi.org/10.3390/rs14040879

AMA Style

He Y, Wang J, Liao C, Shan B, Zhou X. ClassHyPer: ClassMix-Based Hybrid Perturbations for Deep Semi-Supervised Semantic Segmentation of Remote Sensing Imagery. Remote Sensing. 2022; 14(4):879. https://doi.org/10.3390/rs14040879

Chicago/Turabian Style

He, Yongjun, Jinfei Wang, Chunhua Liao, Bo Shan, and Xin Zhou. 2022. "ClassHyPer: ClassMix-Based Hybrid Perturbations for Deep Semi-Supervised Semantic Segmentation of Remote Sensing Imagery" Remote Sensing 14, no. 4: 879. https://doi.org/10.3390/rs14040879

Note that from the first issue of 2016, this journal uses article numbers instead of page numbers. See further details here.

Article Metrics

 引文

 交叉参考
 
ads
 
 Web 科学
 
 高等云
 
 Google 学术搜索

Article Access Statistics

Created with Highcharts 4.0.4Chart context menuArticle access statisticsArticle Views14. Oct15. Oct16. Oct17. Oct18. Oct19. Oct20. Oct21. Oct22. Oct23. Oct24. Oct25. Oct26. Oct27. Oct28. Oct29. Oct30. Oct31. Oct1. Nov2. Nov3. Nov4. Nov5. Nov6. Nov7. Nov8. Nov9. Nov10. Nov11. Nov12. Nov13. Nov14. Nov15. Nov16. Nov17. Nov18. Nov19. Nov20. Nov21. Nov22. Nov23. Nov24. Nov25. Nov26. Nov27. Nov28. Nov29. Nov30. Nov1. Dec2. Dec3. Dec4. Dec5. Dec6. Dec7. Dec8. Dec9. Dec10. Dec11. Dec12. Dec13. Dec14. Dec15. Dec16. Dec17. Dec18. Dec19. Dec20. Dec21. Dec22. Dec23. Dec24. Dec25. Dec26. Dec27. Dec28. Dec29. Dec30. Dec31. Dec1. Jan2. Jan3. Jan4. Jan5. Jan6. Jan7. Jan8. Jan9. Jan10. Jan11. Jan0k1k2k3k4k
For more information on the journal statistics, click here.
Multiple requests from the same IP address are counted as one view.
 返回页首Top