SPGNet: Spatial Projection Guided 3D Human Pose Estimation in Low Dimensional Space

要約

多次元再投影を教師あり学習に混合する3D人間の姿勢推定のための方法SPGNetを提案します。
この方法では、2Dから3Dへのリフティングネットワークが、3Dの人間のポーズのグローバルな位置と座標を予測します。
次に、推定された3Dポーズを、空間調整とともに2Dキーポイントに再投影します。
損失関数は、推定された3Dポーズを3Dポーズのグラウンドトゥルースと比較し、再投影された2Dポーズを入力された2Dポーズと比較します。
さらに、一定の人間の骨の長さで予測されるターゲットを制限するための運動学的制約を提案します。
データセットHuman3.6Mの推定結果に基づくと、私たちのアプローチは、定性的および定量的に多くの最先端の方法を上回っています。

要約(オリジナル)

We propose a method SPGNet for 3D human pose estimation that mixes multi-dimensional re-projection into supervised learning. In this method, the 2D-to-3D-lifting network predicts the global position and coordinates of the 3D human pose. Then, we re-project the estimated 3D pose back to the 2D key points along with spatial adjustments. The loss functions compare the estimated 3D pose with the 3D pose ground truth, and re-projected 2D pose with the input 2D pose. In addition, we propose a kinematic constraint to restrict the predicted target with constant human bone length. Based on the estimation results for the dataset Human3.6M, our approach outperforms many state-of-the-art methods both qualitatively and quantitatively.

arxiv情報

著者 Zihan Wang,Ruimin Chen,Mengxuan Liu,Guanfang Dong,Anup Basu
発行日 2022-06-04 00:51:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク