Learning to Estimate 3D Human Pose from Point Cloud

要約

3D 姿勢推定は、コンピューター ビジョンにおける困難な問題です。
既存のニューラル ネットワーク ベースのアプローチのほとんどは、畳み込みネットワーク (CNN) を介して色や深度の画像に対処します。
この論文では、深度画像からの3D人間の姿勢推定のタスクを研究します。
既存の CNN ベースの人間の姿勢推定方法とは異なり、複雑な人間の構造の表面をモデル化するための入力データとして点群データを使用することにより、3D 姿勢推定のための深い人間の姿勢ネットワークを提案します。
最初に、2D 深度画像から 3D 点群に 3D 人間の姿勢推定をキャストし、3D 関節位置を直接予測します。
2 つの公開データセットに対する私たちの実験は、私たちのアプローチが以前の最先端の方法よりも高い精度を達成することを示しています。
ITOP と EVAL の両方のデータセットで報告された結果は、対象タスクに対する私たちの方法の有効性を示しています。

要約(オリジナル)

3D pose estimation is a challenging problem in computer vision. Most of the existing neural-network-based approaches address color or depth images through convolution networks (CNNs). In this paper, we study the task of 3D human pose estimation from depth images. Different from the existing CNN-based human pose estimation method, we propose a deep human pose network for 3D pose estimation by taking the point cloud data as input data to model the surface of complex human structures. We first cast the 3D human pose estimation from 2D depth images to 3D point clouds and directly predict the 3D joint position. Our experiments on two public datasets show that our approach achieves higher accuracy than previous state-of-art methods. The reported results on both ITOP and EVAL datasets demonstrate the effectiveness of our method on the targeted tasks.

arxiv情報

著者 Yufan Zhou,Haiwei Dong,Abdulmotaleb El Saddik
発行日 2022-12-25 14:22:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.MM パーマリンク