要約
連続時間軌跡表現は、従来の離散時間フレームワークの制限を克服し、より多くのセンサーとセンシングモダリティの融合を可能にするエレガントな定式化を提供するため、近年非常に人気が高まっています。
連続時間パラダイムの採用を強化するために、連続時間動き推定 (CTME) タスク用のいわゆるガウス過程軌道表現 (GPTR) フレームワークを提案します。
私たちのアプローチは、回転状態と並進状態の導関数の両方に対する閉形式の表現を特徴とする、3 次ランダム ジャーク モデルを採用することで際立っています。
このモデルは、複雑な動きを正確に推定するために重要な、滑らかで連続的な軌道表現を提供します。
より広範なロボット工学およびコンピューター ビジョン コミュニティをサポートするために、GPTR のソース コードを軽量のヘッダーのみのライブラリとして利用できるようにしました。
この形式は統合の容易さから選択され、開発者は大規模なコード変更を必要とせずに GPTR を既存のシステムに組み込むことができます。
さらに、提案された GP フレームワークの下で、LiDAR、カメラ、IMU、UWB 因子、および閉形式分析ヤコビアンを使用した一連の最適化例も提供します。
私たちの実験は、さまざまな動作推定タスクにおける GP ベースの軌道表現の有効性と効率性を実証しており、この例は、研究者がバッチ最適化、キャリブレーション、センサー フュージョン、軌道計画などの将来のアプリケーションを迅速に開発するのに役立つプロトタイプとして機能します。
連続時間の軌跡表現を備えています。
私たちのプロジェクトは https://github.com/brytsknguyen/gptr からアクセスできます。
要約(オリジナル)
Continuous-time trajectory representation has gained significant popularity in recent years, as it offers an elegant formulation that allows the fusion of a larger number of sensors and sensing modalities, overcoming limitations of traditional discrete-time frameworks. To bolster the adoption of the continuous-time paradigm, we propose a so-called Gaussian Process Trajectory Representation (GPTR) framework for continuous-time motion estimation (CTME) tasks. Our approach stands out by employing a third-order random jerk model, featuring closed-form expressions for both rotational and translational state derivatives. This model provides smooth, continuous trajectory representations that are crucial for precise estimation of complex motion. To support the wider robotics and computer vision communities, we have made the source code for GPTR available as a light-weight header-only library. This format was chosen for its ease of integration, allowing developers to incorporate GPTR into existing systems without needing extensive code modifications. Moreover, we also provide a set of optimization examples with LiDAR, camera, IMU, UWB factors, and closed-form analytical Jacobians under the proposed GP framework. Our experiments demonstrate the efficacy and efficiency of GP-based trajectory representation in various motion estimation tasks, and the examples can serve as the prototype to help researchers quickly develop future applications such as batch optimization, calibration, sensor fusion, trajectory planning, etc., with continuous-time trajectory representation. Our project is accessible at https://github.com/brytsknguyen/gptr .
arxiv情報
著者 | Thien-Minh Nguyen,Ziyu Cao,Kailai Li,Shenghai Yuan,Lihua Xie |
発行日 | 2024-10-30 11:37:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google