要約
外受容センサーを使用した相対状態推定には、視野 (FOV) の制限と誤検出があり、通常は固有受容センサー (IMU) データがそれを補うために使用されます。
最近では、慣性測定ユニット (IMU) の事前積分によって得られる自我運動制約が、計算負荷を軽減するために同時位置特定とマッピング (SLAM) で広く使用されています。
この論文では、相対状態の運動制約を定式化するために、2 つのプラットフォームの IMU 事前統合を組み込んだ拡張事前統合を紹介します。
この分析制約のメリットの 1 つは、統合グラフ最適化フレームワークにシームレスに統合して、高性能リアルタイム トラッキング スレッドで相対状態推定を実装できることです。もう 1 つの点は、この正確な制約を使用して完全にスムーズな設計を最適化できることです。
3D 調整を行い、リファインメント スレッドの状態をリファインします。
私たちは、提案されたアルゴリズムと 2 つの既存のアプローチをシミュレーションで徹底的に比較し、優れたパフォーマンスを確認しました。
提案された推定器を使用した実際の仮想現実 (VR) アプリケーション設計では、機能が欠落している困難な環境、光の突然変異、動的シーンなど、ほぼすべてのシナリオに適した 6 自由度 (6DoF) コントローラーの視覚追跡を適切に実現します。
デモビデオは https://www.youtube.com/watch?v=0idb9Ls2iAM にあります。
コミュニティの利益のために、ソースコードを公開します。
要約(オリジナル)
Relative state estimation using exteroceptive sensors suffers from limitations of the field of view (FOV) and false detection, that the proprioceptive sensor (IMU) data are usually engaged to compensate. Recently ego-motion constraint obtained by Inertial measurement unit (IMU) preintegration has been extensively used in simultaneous localization and mapping (SLAM) to alleviate the computation burden. This paper introduces an extended preintegration incorporating the IMU preintegration of two platforms to formulate the motion constraint of relative state. One merit of this analytic constraint is that it can be seamlessly integrated into the unified graph optimization framework to implement the relative state estimation in a high-performance real-time tracking thread, another point is a full smoother design with this precise constraint to optimize the 3D coordinate and refine the state for the refinement thread. We compare extensively in simulations the proposed algorithms with two existing approaches to confirm our outperformance. In the real virtual reality (VR) application design with the proposed estimator, we properly realize the visual tracking of the six degrees of freedom (6DoF) controller suitable for almost all scenarios, including the challenging environment with missing features, light mutation, dynamic scenes, etc. The demo video is at https://www.youtube.com/watch?v=0idb9Ls2iAM. For the benefit of the community, we make the source code public.
arxiv情報
著者 | Ruican Xia,Hailong Pei |
発行日 | 2023-08-15 11:55:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google