面向非受控场景的人脸图像正面化重建

Journal of Image and Graphics(2022)

引用 0|浏览0
暂无评分
摘要
目的 人脸正面化重建是当前视觉领域的热点问题.现有方法对于模型的训练数据具有较高的需求,如精确的输入输出图像配准、完备的人脸先验信息等.但该类数据采集成本较高,可应用的数据集规模较小,直接将现有方法应用于真实的非受控场景中往往难以取得理想表现.针对上述问题,提出了一种无图像配准和先验信息依赖的任意视角人脸图像正面化重建方法.方法 首先提出了一种具有双输入路径的人脸编码网络,分别用于学习输入人脸的视觉表征信息以及人脸的语义表征信息,两者联合构造出更加完备的人脸表征模型.随后建立了一种多类别表征融合的解码网络,通过以视觉表征为基础、以语义表征为引导的方式对两种表征信息进行融合,融合后的信息经过图像解码即可得到最终的正面化人脸图像重建结果.结果 首先在Multi-PIE(multi-pose,illumina-tion and expression)数据集上与8种较先进方法进行了性能评估.定量和定性的实验结果表明,所提方法在客观指标以及视觉质量方面均优于对比方法.此外,相较于当前性能先进的基于光流的特征翘曲模型(flow-based feature warping model,FFWM)方法,本文方法能够节省79%的参数量和42%的计算操作数.进一步基于CASIA-WebFace(Institute of Automation,Chinese Academy of Sciences—WebFace)数据集对所提出方法在真实非受控场景中的表现进行了评估,识别精度超过现有方法10%以上.结论 本文提出的双层级表征集成推理网络,能够挖掘并联合人脸图像的底层视觉特征以及高层语义特征,充分利用图像自身信息,不仅以更低的计算复杂度取得了更优的视觉质量和身份识别精度,而且在非受控的场景下同样展现出了出色的泛化性能.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要