摘要:针对农田作物区域识别任务中,深度学习模型在结构变化显著的未见作物场景识别精度下降问题,本文提出了一种基于自适应超量颜色增强的作物区域泛化识别方法ExCF-Net(Excess Fusion Network)。该方法首先对输入图像进行全局特征嵌入,生成自适应超量颜色特征;随后融合深度学习技术与传统超量颜色方法优势,通过共享特征参数以学习不同特征域之间的关联性,使模型能更有效识别与训练数据结构差异显著的作物。为验证所提方法的有效性,本文设计消融实验并与其他主流算法, 如SwiftFormer、DeepLabV3+等进行对比。实验结果表明:在AgroScapes数据集中,针对多种结构与训练数据存在显著差异的测试作物,所提方法在平均交并比(mIoU)精度上相较于基线算法提升18.45个百分点;与主流算法SwiftFormer相比,在AgroScapes上mIoU精度提升5.66个百分点,在CRDLD数据集上mIoU精度提升9.30个百分点;与主流算法DeepLabV3+相比,在AgroScapes数据集上mIoU精度提升5.48个百分点,在CRDLD数据集上mIoU精度提升7.67个百分点。可视化结果表明,所提方法在未见作物感知任务中的边界像素误判问题有较大改善,显著增强了模型在复杂作物场景下的识别稳定性。为支持农田感知领域的研究,提供所提方法的可视化演示和开源算法:https://github.com/GoldenUpwinds/Agro_domain_generalization。
文章目录
0引言
1 ExCF-Net网络模型框架
1.1 全局特征嵌入层
1.1.1 风车型卷积
1.1.2 全局特征生成
1.1.3 自适应超量颜色生成
1.2 特征共享层
1.2.1 可见光特征域
1.2.2 超量颜色特征域
1.2.3 跳跃连接特征共享
1.3 融合输出层
1.3.1 深度优先通道
1.3.2 尺度优先通道
1.3.3 超量颜色通道
2 实验数据集
3 实验结果与分析
3.1 实验设置
3.2 消融实验
3.3 与主流算法比较
3.3.1 AgroScapes数据集实验
3.3.2 CRDLD数据集实验
3.3.3模型实时性