摘要:动态点云的压缩效率很大程度上依赖于对其时域特征的深入挖掘。然而,由于动态点云数据在空域上的稀疏性,结构上的不均匀性,以及时域上的不对齐性,使得难以对其实现高效的压缩。为捕捉相邻帧之间的时域相关性,以往的方法通常采用目标卷积的方式,基于当前帧的坐标在参考帧上进行卷积。但由于感受野的限制,这种方式在不规则或运动幅度较大的场景下性能严重受限。针对该问题,本文提出一种基于深度学习的动态点云几何压缩方案,在多尺度架构基础上引入融合K最近邻(K Nearest Neighbours, KNN)策略的时域注意力模块,通过在参考帧和当前帧之间应用时域注意力机制,实现对每个点的时域邻域的有效构建,从而准确地感知动态点云帧间的运动变化并进行表达。在Owlii数据集上的实验结果表明,与当前最新的点云标准编码方法GeS-TMv1和V-PCCv18相比,本文所提方法在PSNR D1(D2)指标上平均获得约92%(89%)和89%(75%)的BD-BR增益;与当前最先进的基于深度学习的Fan等人和Xia等人的方法对比,平均获得约11%(12%)和5%(28%)的BD-BR增益。上述结果有效地证明了本文方法在动态点云压缩领域的优越性和可靠性。
文章目录
1 相关工作
1.1 基于规则的点云压缩方法
1.2 基于深度学习的点云压缩方法
1.2.1 基于深度学习的静态点云压缩方法
1.2.2 基于深度学习的动态点云压缩方法
2 本文工作
2.1 整体架构
2.2 编码阶段
2.3 解码阶段
2.4 损失函数
3 实验结果与分析
3.1 数据集
3.2 实验设置
3.3 评价指标
3.4 实验对比
3.4.1 压缩性能对比
3.4.2 复杂度对比
3.5 消融实验
3.5.1 结构消融实验对比
3.5.2 不同K取值消融实验对比
4 结论