要約
堅牢、高速、正確な人間の状態 (6D ポーズと姿勢) の推定は依然として困難な問題です。
現実世界のアプリケーションでは、人間の状態をリアルタイムで推定できる機能が非常に望まれます。
この論文では、視覚慣性データに基づいた、高速、効率的、正確な人間とカメラの状態推定フレームワークである BodySLAM++ を紹介します。
BodySLAM++ は、既存の視覚慣性状態推定フレームワークである OKVIS2 を拡張し、カメラと人間の状態を同時に推定するという 2 つのタスクを解決します。
私たちのシステムは、人間とカメラの両方の状態推定の精度を、ベースライン手法に対してそれぞれ 26% と 12% 向上させ、Intel i7 モデル CPU 上で 15 フレーム/秒以上のリアルタイム パフォーマンスを達成します。
実験は、屋内モーション トラッキング システムで収集されたグラウンド トゥルースの人間とカメラのポーズの両方を含むカスタム データセットに対して行われました。
要約(オリジナル)
Robust, fast, and accurate human state – 6D pose and posture – estimation remains a challenging problem. For real-world applications, the ability to estimate the human state in real-time is highly desirable. In this paper, we present BodySLAM++, a fast, efficient, and accurate human and camera state estimation framework relying on visual-inertial data. BodySLAM++ extends an existing visual-inertial state estimation framework, OKVIS2, to solve the dual task of estimating camera and human states simultaneously. Our system improves the accuracy of both human and camera state estimation with respect to baseline methods by 26% and 12%, respectively, and achieves real-time performance at 15+ frames per second on an Intel i7-model CPU. Experiments were conducted on a custom dataset containing both ground truth human and camera poses collected with an indoor motion tracking system.
arxiv情報
著者 | Dorian F. Henning,Christopher Choi,Simon Schaefer,Stefan Leutenegger |
発行日 | 2023-09-03 18:09:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google