Ultra Inertial Poser: Scalable Motion Capture and Tracking from Sparse Inertial Sensors and Ultra-Wideband Ranging

要約

カメラベースのキャプチャ システムは依然として人間の動きを記録するためのゴールドスタンダードですが、まばらなウェアラブル センサーに基づく学習ベースの追跡システムが人気を集めています。
最も一般的には、慣性センサーが使用されますが、そのドリフトとジッターの傾向により、これまでのところ追跡精度が制限されています。
この論文では、センサー間距離を介して慣性追跡におけるドリフトとジッターを抑制する新しい 3D 全身姿勢推定手法である Ultra Inertial Poser を提案します。
私たちは、安価な既製の 6D 慣性測定ユニットを超広帯域無線ベースの測距で動的に、固定リファレンスアンカーを必要とせずに強化する軽量の組み込みトラッカーを使用して、まばらなセンサーセットアップ全体でこれらの距離を推定します。
次に、私たちの方法は、これらのセンサー間距離を各センサーから推定された 3D 状態と融合します。私たちのグラフベースの機械学習モデルは、3D 状態と距離を処理して、人の 3D 全身姿勢と移動を推定します。
モデルをトレーニングするために、モーション キャプチャ データベース AMASS からの慣性測定値と距離推定値を合成します。
評価のために、6 台のウェアラブル IMU+UWB トラッカーと光学モーション キャプチャ システムによってキャプチャされた、25 種類のモーションを実行した 10 人の参加者の新しいモーション データセットを提供します。合計 200 分の同期センサー データ (UIP-DB)。
当社の広範な実験により、PIP および TIP における当社の手法の最先端のパフォーマンスが示され、位置誤差が $13.62$ から $10.65cm$ ($22\%$ 向上) に減少し、ジッターが $1.56$ から $0.055km/s^3 に低下しました。
$ ($97\%$ の削減)。

要約(オリジナル)

While camera-based capture systems remain the gold standard for recording human motion, learning-based tracking systems based on sparse wearable sensors are gaining popularity. Most commonly, they use inertial sensors, whose propensity for drift and jitter have so far limited tracking accuracy. In this paper, we propose Ultra Inertial Poser, a novel 3D full body pose estimation method that constrains drift and jitter in inertial tracking via inter-sensor distances. We estimate these distances across sparse sensor setups using a lightweight embedded tracker that augments inexpensive off-the-shelf 6D inertial measurement units with ultra-wideband radio-based ranging$-$dynamically and without the need for stationary reference anchors. Our method then fuses these inter-sensor distances with the 3D states estimated from each sensor Our graph-based machine learning model processes the 3D states and distances to estimate a person’s 3D full body pose and translation. To train our model, we synthesize inertial measurements and distance estimates from the motion capture database AMASS. For evaluation, we contribute a novel motion dataset of 10 participants who performed 25 motion types, captured by 6 wearable IMU+UWB trackers and an optical motion capture system, totaling 200 minutes of synchronized sensor data (UIP-DB). Our extensive experiments show state-of-the-art performance for our method over PIP and TIP, reducing position error from $13.62$ to $10.65cm$ ($22\%$ better) and lowering jitter from $1.56$ to $0.055km/s^3$ (a reduction of $97\%$).

arxiv情報

著者 Rayan Armani,Changlin Qian,Jiaxi Jiang,Christian Holz
発行日 2024-04-30 13:14:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, 68T45, 68U01, cs.AI, cs.CV, cs.GR, eess.SP, I.2 パーマリンク