Leveraging the Learnable Vertex-Vertex Relationship to Generalize Human Pose and Mesh Reconstruction for In-the-Wild Scenes

要約

我々は、1枚の画像から3次元人体ポーズとメッシュを再構成する強力な手法であるMeshLeTempを発表する。本手法では、人体の事前分布を符号化する際に、従来の手法で利用されている定数テンプレートの代わりに、学習可能なテンプレート人体メッシュを利用することを提案する。提案する学習可能なテンプレートは、頂点-頂点の相互作用だけでなく、人物の姿勢や体型も反映し、多様な画像に適応することが可能である。また、本手法の一般性を示すために、未知のシナリオに対する広範な実験を行った。

要約(オリジナル)

We present MeshLeTemp, a powerful method for 3D human pose and mesh reconstruction from a single image. In terms of human body priors encoding, we propose using a learnable template human mesh instead of a constant template as utilized by previous state-of-the-art methods. The proposed learnable template reflects not only vertex-vertex interactions but also the human pose and body shape, being able to adapt to diverse images. We conduct extensive experiments to show the generalizability of our method on unseen scenarios.

arxiv情報

著者 Trung Tran-Quang,Cuong Than-Cao,Hai Nguyen-Thanh,Hong Hoang Si
発行日 2022-11-08 05:52:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク