摘要:针对医学图像分割中存在多尺度感知不足、局部特征丢失等问题,提出一种基于改进SwinUNet的分割算法——CB-SwinUNet。首先,采用VSS替代原始Swin-Transformer,增强局部特征提取能力;其次,在编码器末端处设计优化空洞卷积金字塔特征融合(ACPFF)模块,利用并行的空洞卷积层提高多尺度感知能力;最后,提出迭代注意力特征融合(iAFF)跳跃连接机制,通过引入多尺度通道注意力模块和迭代融合,有效解决特征融合问题。在Synapse多器官数据集和ACDC心脏数据集上的实验表明,CB-SwinUNet在这两个数据集上的平均Dice分别达到80.01%和92.35%,分割性能均优于主流分割算法。
文章目录
0 引 言
1 本文方法
1.1 CB-SwinUNet模型
1.2 ACPFF与双注意力机制融合
1.2.1 多尺度空洞卷积建模
1.2.2 注意力引导特征增强
1.2.3 特征融合与非线性映射
1.3 基于VSS块的特征提取优化
1.4 iAFF注意力特征融合
1.4.1 多尺度通道注意力机制
1.4.2 级联融合策略
2 实 验
2.1 实验数据集
2.2 实验设置
2.2.1 实验平台与参数设置
2.2.2 评价指标
2.3 结果分析
2.3.1 Synapse数据集分割性能分析
2.3.2 ACDC心脏结构分割性能分析
2.4 消融实验
3 结 语