GPTR: Gaussian Process Trajectory Representation for Continuous-Time Motion Estimation

要約

連続時間軌跡表現は、従来の離散時間フレームワークの限界を克服し、より多くのセンサとセンシングモダリティの融合を可能にするエレガントな定式化を提供するため、近年大きな人気を集めている。連続時間パラダイムの採用を強化するために、我々は連続時間運動推定(CTME)タスクのための、いわゆるガウス過程軌跡表現(GPTR)フレームワークを提案する。我々のアプローチは、3次のランダムジャークモデルを採用することで際立っており、回転と並進の両方の状態微分の閉形式が特徴である。このモデルは、複雑な運動の正確な推定に不可欠な、滑らかで連続的な軌道表現を提供する。より広いロボット工学とコンピュータビジョンのコミュニティをサポートするために、GPTRのソースコードを軽量なヘッダのみのライブラリとして公開しました。この形式は、開発者が大規模なコード修正を必要とすることなく、既存のシステムにGPTRを組み込むことができる、統合の容易さを考慮して選択されました。さらに、提案するGPフレームワークの下で、LiDAR、カメラ、IMU、UWB因子、および閉形式の解析ヤコビアンを用いた最適化例も提供する。我々の実験は、様々な動き推定タスクにおけるGPベースの軌道表現の有効性と効率性を実証し、これらの例は、研究者がバッチ最適化、キャリブレーション、センサーフュージョン、軌道計画など、連続時間軌道表現を用いた将来のアプリケーションを迅速に開発するためのプロトタイプとして役立つ。私たちのプロジェクトは https://github.com/brytsknguyen/gptr でアクセス可能です。

要約(オリジナル)

Continuous-time trajectory representation has gained significant popularity in recent years, as it offers an elegant formulation that allows the fusion of a larger number of sensors and sensing modalities, overcoming limitations of traditional discrete-time frameworks. To bolster the adoption of the continuous-time paradigm, we propose a so-called Gaussian Process Trajectory Representation (GPTR) framework for continuous-time motion estimation (CTME) tasks. Our approach stands out by employing a third-order random jerk model, featuring closed-form expressions for both rotational and translational state derivatives. This model provides smooth, continuous trajectory representations that are crucial for precise estimation of complex motion. To support the wider robotics and computer vision communities, we have made the source code for GPTR available as a light-weight header-only library. This format was chosen for its ease of integration, allowing developers to incorporate GPTR into existing systems without needing extensive code modifications. Moreover, we also provide a set of optimization examples with LiDAR, camera, IMU, UWB factors, and closed-form analytical Jacobians under the proposed GP framework. Our experiments demonstrate the efficacy and efficiency of GP-based trajectory representation in various motion estimation tasks, and the examples can serve as the prototype to help researchers quickly develop future applications such as batch optimization, calibration, sensor fusion, trajectory planning, etc., with continuous-time trajectory representation. Our project is accessible at https://github.com/brytsknguyen/gptr .

arxiv情報

著者 Thien-Minh Nguyen,Ziyu Cao,Kailai Li,Shenghai Yuan,Lihua Xie
発行日 2024-11-02 06:09:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク