VoxelKeypointFusion: Generalizable Multi-View Multi-Person Pose Estimation

要約

急速に進化するコンピュータ ビジョンの分野では、さまざまな視点から複数の個人のポーズを正確に推定する作業は、特に推定の信頼性が必要な場合には、大きな課題となります。
この研究では、目に見えないデータセットに対するマルチビュー複数人物姿勢推定器の一般化機能の広範な評価を示し、このタスクで強力なパフォーマンスを発揮する新しいアルゴリズムを提示します。
また、深度情報を追加することによる改善も検討します。
新しいアプローチは、目に見えないデータセットだけでなく、さまざまなキーポイントにもよく一般化できるため、最初のマルチビュー、複数人の全身推定器が提示されます。
これらのトピックに関するさらなる研究をサポートするために、すべての研究は公的にアクセス可能です。

要約(オリジナル)

In the rapidly evolving field of computer vision, the task of accurately estimating the poses of multiple individuals from various viewpoints presents a formidable challenge, especially if the estimations should be reliable as well. This work presents an extensive evaluation of the generalization capabilities of multi-view multi-person pose estimators to unseen datasets and presents a new algorithm with strong performance in this task. It also studies the improvements by additionally using depth information. Since the new approach can not only generalize well to unseen datasets, but also to different keypoints, the first multi-view multi-person whole-body estimator is presented. To support further research on those topics, all of the work is publicly accessible.

arxiv情報

著者 Daniel Bermuth,Alexander Poeppel,Wolfgang Reif
発行日 2024-10-24 13:28:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.HC パーマリンク