摘要:神经隐式表面纹理映射在高保真多视角重建中至关重要, 但现有方法在映射鲁棒性与细节表达方面仍存在不足. 为此, 基于神经符号距离函数(SDF)隐式表面重建, 提出一种联合学习表面参数化与纹理映射方法. 该方法首先在掩模内对光线进行采样并计算其与隐式表面的交点, 将三维交点坐标输入参数化网络F以估计参数化坐标, 同时通过逆映射网络G提升映射的鲁棒性; 然后通过共形损失与等面积损失对参数化过程进行约束, 以保证参数化的规整性和生成纹理的平滑性; 最后利用所得参数化坐标在神经纹理图中提取纹理特征, 在不增加模型计算复杂度的情况下提升纹理重建的高频细节捕捉能力. 在DTU数据集进行新视角合成实验, 所提方法相较于主流的NGF方法, 在峰值信噪比方面平均提升约12.21%, 结构相似度方面平均提升约6.51%, 验证了该方法的有效性和优越性.
文章目录
1 相关工作
1.1 神经隐式表面
1.2 参数化
1.3 神经外观编辑
2 本文方法
2.1 表面参数化
2.1.1 正向和逆向参数化
2.1.2 微分同构形状网络
2.1.3 参数化约束
2.2 纹 理
2.2.1 外观解耦
2.2.2 特征图
2.3 损失函数
3 实验及结果分析
3.1 实现细节
3.1.1 数据集和实验设置
3.1.2 网络结构
3.1.3 训练策略
3.2 对比实验
3.2.1 视角合成结果
3.2.2 纹理图结果
3.3 消融实验