文件大小:2.11M
摘要:针对可见光图像目标在低光照等不良条件下特征不足的问题,研究提出了一种融合可见光图像和红外图像以增强目标特征的目标检测算法。该算法以Yolov11n为基线算法,通过构建双分支的图像多层级特征提取及融合的网络,提取目标可见光图像、红外图像的浅层特征和深层特征,按照特征级融合的方法实现同层级的特征融合;并引入了语义与细节注入模块,融合可见光图像、红外图像的不同尺度特征,实现两种图像的目标特征信息优势互补,提高了低光照条件下目标检测性能。在M3FD、 LLVIP和FLIR-aligned数据集上对所提算法进行验证,实验结果表明,较基线算法分别检测可见光图像和红外图像,该算法在M3FD数据集上,mAP@0.5精度分别提升了 10.2% 和12.4%,mAP@0.5:0.95精度分别提升了7.1% 和6%;在LLVIP数据集上,mAP@0.5精度分别提升了4.8% 和 0.3%,mAP@0.5:0.95精度分别提升了12.8% 和 1.8%;在FLIR-aligned数据集上,mAP@0.5精度分别提升了11.3%和3.5%,mAP@0.5:0.95精度分别提升了8.2%和2%。此外,该算法对比其他两种基于Transformer的图像融合目标检测算法,总体检测性能更高,证明了所提算法的先进性和有效性。
文章目录
1 算法总体框架
2 双分支特征提取融合骨干网络
3 跨层级特征增强颈部网络
3.1 跨层级特征融合增强策略
3.2 语义与细节注入模块
4 实验及结果分析
4.1 实验环境、数据集及评价指标
4.2 定量分析
4.3 消融实验
4.4 定性分析
4.5 局限性分析
5 结论