Semantic Geometric Fusion Multi-object Tracking and Lidar Odometry in Dynamic Environment

要約

静的なシーンの仮定に基づく SLAM システムでは、移動するオブジェクトが視野内に現れると、大きな推定エラーが発生します。
この論文では、この問題を解決するために、セマンティックオブジェクト検出技術に基づく新しいマルチオブジェクト動的ライダーオドメトリ (MLO) を提案します。
MLO システムは、ロボットとセマンティック オブジェクトの信頼性の高いローカリゼーションを提供し、複雑な動的シーンで長期的な静的マップを構築できます。
自我運動の推定では、抽出プロセスで意味論的および幾何学的な一貫性の制約を考慮に入れる環境機能を使用します。
フィルタリング機能は、セマンティックな可動オブジェクトおよび未知の動的オブジェクトに対して堅牢です。
同時に、セマンティック バウンディング ボックスとオブジェクト ポイント クラウドを使用した最小二乗推定器が提案され、フレーム間の正確で安定した複数オブジェクト追跡が実現されます。
マッピング モジュールでは、絶対軌跡追跡リスト (ATTTL) に基づく動的なセマンティック オブジェクト検出をさらに実現します。
次に、静的セマンティック オブジェクトと環境機能を使用して、蓄積されたローカリゼーション エラーを排除し、純粋な静的マップを構築できます。
公開されている KITTI データセットの実験では、提案されたシステムが、既存の技術と比較して、複雑なシーンでオブジェクトのより正確で堅牢な追跡と、より優れたリアルタイム位置特定精度を達成できることが示されています。

要約(オリジナル)

The SLAM system based on static scene assumption will introduce huge estimation errors when moving objects appear in the field of view. This paper proposes a novel multi-object dynamic lidar odometry (MLO) based on semantic object detection technology to solve this problem. The MLO system can provide reliable localization of robot and semantic objects and build long-term static maps in complex dynamic scenes. For ego-motion estimation, we use the environment features that take semantic and geometric consistency constraints into account in the extraction process. The filtering features are robust to semantic movable and unknown dynamic objects. At the same time, a least square estimator using the semantic bounding box and object point cloud is proposed to achieve accurate and stable multi-object tracking between frames. In the mapping module, we further realize dynamic semantic object detection based on the absolute trajectory tracking list (ATTL). Then, static semantic objects and environmental features can be used to eliminate accumulated localization errors and build pure static maps. Experiments on public KITTI data sets show that the proposed system can achieve more accurate and robust tracking of the object and better real-time localization accuracy in complex scenes compared with existing technologies.

arxiv情報

著者 Tingchen Ma,Yongsheng Ou
発行日 2023-03-02 15:54:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク