摘要
针对采用深度学习方法提取结冰显微图像中的气泡需要大量标注数据,但人工标注气泡任务较为困难的问题,提出了一种基于风格迁移网络CycleGAN和图像分割网络Attention U‑Net的域适应提取方法。该方法通过程序模拟气泡形态生成的图像为源域,结冰显微图像为目标域,通过CycleGAN将源域图像转为目标域风格,采用风格转换后的源域数据集训练Attention U‑Net网络。通过对比实验对无标注结冰图像和少量标注图像两种情况进行验证。实验结果表明,在无标注图像的情况下,可实现无监督的结冰显微图像的气泡提取;在只有少量标注图像的情况下,该方法可实现更精确的气泡提取。
飞机动态结冰是云层中的液滴或水汽动态撞击在机体表面不断冻结形成的。飞机结冰会影响飞机气动性能,严重者会导致飞行事故的发生,已成为严重威胁飞行安全的重要因素之一。飞机结冰研究包括结冰形成机
随着结冰条件变化,结冰的冰形外观和内部结构上均存在较大差异。飞机结冰在宏观上表现为冰形的生长与演化,研究者们采用如转置神经网络、卷积神经网络等算法对飞机结冰冰形宏观相貌进行识别和预
结冰显微图像是由显微镜捕捉结冰切片的放大图像,可见光在结冰的气泡孔隙中发生折射,故而动态结冰中的孔隙结构在二维显微图像上多表现为大小和分布随机的黑色类圆。由于其相对固定的气泡形态,目前对结冰微观的定量研究前期常采用图像分割的方式提取图像中的气
随着深度学习无监督域适应的发
针对结冰显微图像标注困难的问题,本文采用深度学习无监督域适应的思想,对结冰图像中的气泡提取进行研究;设计了用于风格迁移的源域图像,采用CycleGA
针对结冰显微图像易获取,而图像中的气泡难标注的特性,提出基于深度学习域适应的结冰显微图像气泡提取方法。采用基于风格迁移的CycleGAN网络生成结冰训练图像和双分支预测融合的Attention U‑Net分割方

图1 整体方法流程图
Fig.1 Flow chart of overall method
气泡提取的实质是分割结冰显微图像中的气泡,在无标注和少标注的情况下,采用生成对抗式网
CycleGAN由两个生成器G和两个判别器D组成,其中和分别为源域S到目标域T的生成器和目标域到源域的生成器。和分别代表源域到目标域的判别器和目标域到源域的判别器,其网络结构如

图2 CycleGAN网络结构
Fig.2 CycleGAN network structure
不同于传统的生成对抗网络,CycleGAN共享生成器和判别器,除了采用生成对抗网络常用的对抗损失,引入了循环一致性损失约束生成器,如式(
(1) |
(2) |
式中E(·)表示分布函数的数学期望;表示目标域样本的分布;表示源域样本的分布。
循环一致性损失则是防止学习到的映射相互矛盾,即生成器生成的图像不但需要拥有目标域的风格,也应保持原有源域的语义特征。其主要思想是源域图像s通过生成器生成目标域风格图像,再由生成器将图像映射回源域得到s'。通过最小化s和s'的差异,使生成器能更有目标的保留源域有效信息,目标域转换为源域风格同理。
(3) |
式中表示L1范数。
最终的损失由对抗损失和循环一致性损失共同组成,其计算公式为
(4) |
式中λ为权重,根据经验设定一般设为10。
在风格转换后,采用深度学习分割网络提取结冰显微图像中的气泡。分割网络采用Attention U‑Net网络,其网络结构如

图3 Attention U‑Net网络结构
Fig.3 Attention U‑Net network structure
在训练阶段,根据数据条件,提供2种选择策略;若没有标注的结冰显微图像标签,则直接采用构造数据集风格转换后的数据进行训练后直接推理预测;若存在少量标注的结冰显微图像,可对风格转换后训练所得的模型进行微调,进一步提升气泡提取检出率和精度。
在预测推理阶段,采用前期提出的双分支融合预测的方
基于风格迁移的域适应目的是尽可能降低域间差异,使生成图像特征更靠近目标域图像,真实结冰显微图像中的气泡多呈现黑色类圆形态,且分布和大小随机。为使源域图像模仿结冰图像中的气泡信息,首先采用程序随机单个像素值生成背景,其次再生成随机大小和分布的圆形图像作为目标。同时采用阈值分割生成相应的图像标签,共生成256像素256像素大小图像1 500张,构成源域数据集,部分图像如

图4 源域图像和标签
Fig.4 Source domain images and labels
通过中国空气动力研究与发展中心3 m像素×2 m像素结冰风洞动态生成冰层,在采用冷环境切片的方式形成冰块样本,由电子显微镜连接电脑采集获取结冰显微图像,其中显微镜的型号为Olympus CX31。采集不同结冰条件下的原始结冰图像,再由专业人员采用图像标注软件labelme进行标注。共采集和标注55张1 280像素1 024像素的原始结冰气泡图像构成目标域数据集。其中选择45张作为训练集,10张作为测试集。为方便模型训练,对原始训练集图像进行裁剪和数据增强,最终形成1 600张256像素256像素大小的目标域训练数据集,最终部分训练图像如

图5 目标域图像和标签
Fig.5 Target domain images and labels
本文风格转换网络CycleGAN实验环境为:Ubuntu系统,Intel Xeon E5‑2620 CPU 128 GB内存,NVIDIA RTX3090 Turbo 24 GB显卡上的计算机上进行。本文分割网络Attention U‑Net的实验环境为:Intel Core i5‑9300H CPU @ 2.40 GHz,8 GB内存、NVIDIA GeForce GTX 1650 4 GB显卡的计算机上进行。
本文方法需要训练风格转换网络和图像分割网络。在风格转换网络训练后,分别选用第60 epoch、75 epoch和80 epoch的生成模型分别对源域的图像进行风格转换。通过这种方式不但可增加生成图像背景的多样性,也能最大限度地保留源域图像中气泡的形状特征,每个epoch生成1 500张虚拟结冰图像,共生成4 500张训练分割网络。
本文方法采用CycleGAN网络将程序生成的源域图像转为结冰显微图像风格的图像,转换结果如

图6 CycleGAN风格转换结果
Fig.6 CycleGAN style transfer results
从无监督和弱监督两方面验证本文方法在结冰显微图像气泡提取的有效性,本文分别从图像可视化结果和客观指标评价上进行验证。
无监督的方法是指采用CycleGAN网络风格转换的图像数据集训练分割网络,再直接真实结冰显微图像进行预测。弱监督则是用少量带标签的真实结冰图像对预训练的网络进行微调,再进行预测。
从图像可视化方面评估,本文首先验证采用风格转换的思想可用于结冰显微图像的无监督气泡分割。如

图7 不同无监督方法的气泡提取结果
Fig.7 Bubble extraction results by different unsupervised methods
其次为验证CyCleGAN风格转换后,采用Attention U‑Net模型提取气泡的精确度,采用图像分割的客观评价指标对深度学习方法进行评价。
方法 | 参数量/1 | 时间/(s· | PA | MPA | MIoU |
---|---|---|---|---|---|
CycleGAN + FC | 8.07 | 0.139 626 5 | 0.951 06 | 0.710 16 | 0.679 82 |
CycleGAN+ U‑Ne | 12.82 | 0.163 56 | 0.949 86 | 0.731 53 | 0.688 88 |
CycleGAN+R2U‑Ne | 149.20 | 1.236 622 | 0.911 32 | 0.799 15 | 0.641 51 |
CycleGAN+ Deeplab v3 | 141.59 | 0.787 920 9 | 0.946 34 | 0.688 77 | 0.654 58 |
CycleGAN+ TransU‑Ne | 186.44 | 1.583 922 | 0.942 71 | 0.700 13 | 0.653 41 |
CycleGAN+ Med | 168.56 | 1.362 861 | 0.944 88 | 0.724 37 | 0.672 72 |
CycleGAN+ Attention U‑Net | 33.36 | 0.287 234 2 | 0.971 94 | 0.758 02 | 0.734 87 |
在少量标签的情况下,可使用真实结冰图像数据集微调风格转换生成图片预训练的分割模型,进一步提升气泡提取精度。为验证本文方法的有效性,在源域数据集中随机选择4%、8%、15%和全部数据分别训练Attention U‑Net网络,和微调风格转换图像预训练的Attention U‑Net模型。
首先从图像可视化方面进行评价。如

图8 不同微调模型的气泡提取结果
Fig.8 Bubble extraction results for different fine‑tuned models
训练方法(数据量) | PA | MPA | MIoU |
---|---|---|---|
无监督模型 | 0.971 94 | 0.758 02 | 0.734 87 |
直接训练(4%) | 0.975 02 | 0.826 31 | 0.788 23 |
微调(4%) | 0.976 26 | 0.836 83 | 0.798 62 |
直接训练(8%) | 0.975 06 | 83.768 | 0.792 71 |
微调(8%) | 0.976 78 | 0.854 79 | 0.807 72 |
直接训练(15%) | 0.972 35 | 0.861 84 | 0.788 12 |
微调(15%) | 0.977 28 | 0.852 77 | 0.812 13 |
直接训练(100%) | 0.976 66 | 0.891 60 | 0.818 84 |
微调(100%) | 0.978 56 | 0.869 79 | 0.822 33 |
针对采用深度学习方法提取结冰显微图像中气泡存在的数据标注困难问题,提出一种基于风格迁移网络CycleGAN和语义分割网络Attention U‑Net的域适应气泡提取方法。该方法构造程序生成的图像作为源域图像,结冰显微图像为目标域图像,利用CycleGAN网络进行风格转换后的源域图像训练Attention U‑Net网络,再直接进行模型推理或用少量结冰显微图像微调后推理,可间接实现无监督或弱监督的结冰显微图像气泡提取。实验分别对无监督和弱监督方法在结冰显微图像测试集上进行了评估。实验结果表明,在结冰显微图像无标注的情况下,本文方法可实现结冰显微图像的有效提取;在少标注的情况下,本文方法可实现更精细的气泡提取。另一方面,该方法也可以作为一种数据增强方式,在足量数据标注的情况下实现更精确的气泡提取。
参考文献
DEBENEDETTI P G. Supercooled and glassy water[J].Journal of Physics: Condensed Matter, 2003, 15 (45): 1669-1679. [百度学术]
BLAKE J, THOMPSONY D, STROBLZ T,et al. Effects of surface characteristics and droplet diameter on the freezing of supercooled water droplets impacting a COO.ed substrate[C]//Proceedings of the 6th AIAA Atmospheric and Space Environments Conference. [S.l.]: AIAA, 2014: 2328. [百度学术]
SCHETNIKOV A, MATIUNIN V, CHERNOV V. Conical shape of frozen water droplets[J]. American Journal of Physics, 2015, 83(1): 36-38. [百度学术]
杜雁霞,李明,桂业伟,等. 飞机结冰热力学行为研究综述[J].航空学报,2017,38(2): 30-41. [百度学术]
DU Yanxia, LI Ming, GUI Yewei, et al. Review of thermodynamic behaviors in aircraft icing process[J]. Acta Aeronautica et Astronautica Sinica,2017,38(2):30-41. [百度学术]
LYNCH F T,KHODADOUST A. Effects of ice accretions on aircraft aerodyrnamics[J]. Progress in Aerospace Science, 2001, 37(8): 669-767. [百度学术]
何磊,钱炜祺,易贤, 等. 基于转置卷积神经网络的翼型结冰冰形图像化预测方法[J].国防科技大学学报,2021,43(3): 98-106. [百度学术]
HE Lei, QIAN Weiqi, YI Xian, et al. Graphical prediction method of airfoil ice shape based on transposed convolution neural networks[J]. Journal of National University of Defense Technology, 2021, 43(3): 98-106. [百度学术]
屈经国,王强,彭博,等.基于多模态融合的任意对称翼型结冰预测方法[J]. 航空动力学报, 2022. DOI:10.13224/j.cnki.jasp.20220143. [百度学术]
QU Jingguo, WANG Qiang, PENG Bo, et al. Icing prediction method for arbitrary symmetric airfoil using multimodal fusion[J].Journal of Aerospace Power, 2022. DOI:10.13224/j.cnki.jasp.20220143. [百度学术]
ELIOTTJ W, SMITHF T. Ice formation on a smooth or rough cold surface due to the impact of a supercooled water droplet[J]. Journal of Engineering Mathematics,2017,102: 35-64. [百度学术]
李伟斌,魏东,杜雁霞, 等. 动态结冰微观孔隙结构定量分析[J].航空学报,2018,39(2): 112-119. [百度学术]
LI Weibin, WEI Dong, DU Yanxia, et al. Quantitative analysis of microscopic pore structure of dynamic icing[J]. Acta Aeronautica et Astronautica Sinica,2018,39(2): 112-119. [百度学术]
Currie T C, Struk P M, Tsao J C, et al. Fundamental study of mixed-phase icing with application to ice crystal accretion in aircraft jet engines[C]//Proceedings of the 4th AIAA Atmospheric and Space Environments Conference.[S.l.]: AIAA, 2012. [百度学术]
李伟斌,马洪林,易贤,等. 温度对动态结冰微观结构特性影响定量分析[J].空气动力学学报,2019,37(5): 748-753. [百度学术]
LI Weibin, MA Honglin, YI Xian, et al. Quantitative analysis of the effect of temperature on the microstructure characteristics of dynamic icing[J].Acta Aerodynamics,2019,37(5): 748-753. [百度学术]
杜雁霞,桂业伟,柯鹏,等. 飞机结冰冰型微结构特征的分形研究[J].航空动力学报,2011,26(5): 997-1002. [百度学术]
DU Yanxia, GUI Yewei, KE Peng, et al. Fractal study on microstructure characteristics of aircraft icing [J]. Journal of Aerodynamics, 2011, 26(5): 997-1002. [百度学术]
赵红梅,彭博,周志宏,等. 一种结冰显微图像中气泡的自动提取方法[J].航空动力学报, 2022. DOI:10.13224/j.cnki.jasp.20220217. [百度学术]
ZHAO Hongmei, PENG Bo, ZHOU Zhihong, et al. Automatic extraction method of air bubbles in icing microscopic images[J].Journal of Aerospace Power, 2022. DOI:10.13224/j.cnki.jasp.20220217. [百度学术]
CSURKA G,VOLPI R, CHIDLOVSKII B. Unsupervised domain adaptation for semantic image segmentation:A comprehensive survey[EB/OL].(2021-11-06)[2023-03-21]. https://arxiv.org/abs/2112.03241. [百度学术]
Wang M, Deng W. Deep visual domain adaptation: A survey[J]. Neurocomputing, 2018, 312: 135-153. [百度学术]
Liu D, Zhang D, Song Y, et al. PDAM: A panoptic-level feature alignment framework for unsupervised domain adaptive instance segmentation in microscopy images[J]. IEEE Transactions on Medical Imaging, 2020, 40(1): 154-165. [百度学术]
汪云云,孙顾威,赵国祥,等. 基于自监督知识的无监督新集域适应学习[J].软件学报,2022,33(4): 1170-1182. [百度学术]
WANG Yunyun, SUN Guwei, ZHAO Guoxiang, et al. Unsupervised new-set domain adaptation with self-supervised knowledge[J]. Journal of Software,2022,33(4): 1170-1182. [百度学术]
HOFFMAN J, TZENG E, PARK T, et al. Cycada: Cycle-consistent adversarial domain adaptation[C]//Proceedings of International Conference on Machine Learning. [S.l.]: PMLR, 2018: 1989-1998. [百度学术]
李璐阳. 基于域适应的无监督语义分割的研究[D].上海: 华东师范大学,2022. [百度学术]
LI Luyang. Research on unsupervised semantic segmentation based on domain adaptation[D]. Shanghai: East China Normal University, 2022. [百度学术]
Toldo M, Maracani A, Michieli U, et al. Unsupervised domain adaptation in semantic segmentation: A review[J]. Technologies, 2020, 8(2): 35. [百度学术]
Zhang Y, Qiu Z, Yao T, et al. Fully convolutional adaptation networks for semantic segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]:IEEE,2018: 6810-6818. [百度学术]
Yang Y, Soatto S. FDA: Fourier domain adaptation for semantic segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2020: 4085-4095. [百度学术]
Subhani M N, Ali M. Learning from scale-invariant examples for domain adaptation in semantic segmentation[C]//Proceedings of European Conference on Computer Vision. Cham: Springer, 2020: 290-306. [百度学术]
Liu D, Zhang D, Song Y, et al. Unsupervised instance segmentation in microscopy images via panoptic domain adaptation and task re-weighting[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). [S.l.]:IEEE, 2020. [百度学术]
TASAR O, HAPPY S L, TARABALKA Y, et al. ColorMapGAN: Unsupervised domain adaptation for semantic segmentation using color mapping generative adversarial networks[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(10): 7178-7193. [百度学术]
Zhu J Y, Park T, Isola P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]//Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV). [S.l.]: IEEE, 2017. [百度学术]
OKTAY O, SCHLEMPER J, FOLGOC L L, et al. Attention U-Net: Learning where to look for the pancreas[EB/OL]. (2022-01-15)[2023-03-20].https://doi.org/10.48550/arXiv.1804.03999. [百度学术]
陈佛计,朱枫,吴清潇,等. 生成对抗网络及其在图像生成中的应用研究综述[J].计算机学报,2021,44(2): 347-369. [百度学术]
CHEN Foji, ZHU Feng, WU Qingxiao, et al. A survey about image generation with generative adversarial nets[J]. Chinese Journal of Computers, 2021,44(2): 347-369. [百度学术]
He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2016: 770-778. [百度学术]
SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL].(2015-04-10)[2023-03-21]. https://arxiv.org/abs/1409.1556. [百度学术]
Isola P, Zhu J Y, Zhou T, et al. Image-to-image translation with conditional adversarial networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]: IEEE, 2017: 1125-1134. [百度学术]
RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]//Proceedings of International Conference on Medical image Computing and Computer-Assisted Intervention. Munich: Springer, 2015: 234-241. [百度学术]
Alom M Z, Yakopcic C, Taha T M, et al. Nuclei segmentation with recurrent residual convolutional neural networks based U-Net (R2U-Net)[C]//Proceedings of NAECON 2018—IEEE National Aerospace and Electronics Conference. [S.l.]: IEEE, 2018: 228-233. [百度学术]
Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of the European Conference on Computer Vision (ECCV).Munich: Springer, 2018: 801-818. [百度学术]
Chen J, Lu Y, Yu Q,et al. TransUNet: Transformers make strong encoders for medical image segmentation[EB/OL].(2021-02-08)[2023-03-21].Https://arXiv.org/abs/2102.04306. [百度学术]
VALANARASU J M, OZA P, HACIHALILOGLU I, et al. Medical transformer: Gated axial-attention for medical image segmentation[M]. Cham: Springer International Publishing, 2021: 36-46. [百度学术]