自监督三维手部重建

强监督三维手部姿态估计方法在复杂真实环境下泛化能力有限,常面临时序抖动和精度下降问题。多样性高质量标注手部数据的缺失是导致现有模型泛化能力差的核心原因。自监督三维手部重建正旨在通过利用海量无标注数据自身蕴含的结构信息,构造伪标签和预测任务,使模型在无需人工标注的条件下自主学习鲁棒手部特征,从而有效缓解过拟合问题。我们的工作借助多视角自监督策略,构建跨视角共享的一致性潜在表征空间,实现知识迁移与互补优势的充分挖掘,不仅提升了对手部自遮挡、复杂姿态的识别能力,增强了系统在真实场景下的鲁棒性和精确度。我们的研究在无需任何标注数据的情况下,首次实现了10mm三维手部重建误差。