Moving Object Localization based on the Fusion of Ultra-WideBand and LiDAR with a Mobile Robot

要約

オブジェクトの位置特定は、ロボットとオブジェクトのインタラクションにとって不可欠です。
ロボット工学における光検出測距 (LiDAR) アプリケーションは、正確な距離測定、長距離、広い視野、さまざまな条件における堅牢性により、物体位置特定技術として新たに登場し、広く使用されています。
ただし、LiDAR は障害物に遮られると物体を識別できないため、位置特定の不正確さとノイズが発生します。
この問題に対処するために、物体の位置特定に LiDAR と超広帯域 (UWB) 測距を組み込んだアプローチを紹介します。
UWB は、軽量で消費電力が低いため、センサー フュージョン位置特定アルゴリズムで人気があります。
さらに、UWB は、物体が見通し線内にない場合でも測距測定値を返すことができます。
私たちのアプローチは、匿名光学センサー (LiDAR) と ID ベースの無線センサー (UWB) を組み合わせて、物体の位置特定精度を向上させる効率的なソリューションを提供します。
私たちのアプローチは 3 つのモジュールで構成されています。
最初のモジュールは、LiDAR からの連続スキャンを比較して環境内の移動物体を検出し、UWB 測距に最も近い距離の位置を返す物体識別アルゴリズムです。
2 番目のモジュールは、物体識別モジュールからの以前および現在の推定位置を使用して、移動物体の移動方向を推定します。
異常値の拒否基準を通じて疑わしい推定値を削除します。
最後に、ポーズ グラフ最適化 (PGO) で LiDAR、UWB 測距、オドメトリ測定を融合して、ロボットとオブジェクトの軌道全体を復元します。
提案されたアプローチのパフォーマンスを評価するために、広範な実験が実行されました。

要約(オリジナル)

Localization of objects is vital for robot-object interaction. Light Detection and Ranging (LiDAR) application in robotics is an emerging and widely used object localization technique due to its accurate distance measurement, long-range, wide field of view, and robustness in different conditions. However, LiDAR is unable to identify the objects when they are obstructed by obstacles, resulting in inaccuracy and noise in localization. To address this issue, we present an approach incorporating LiDAR and Ultra-Wideband (UWB) ranging for object localization. The UWB is popular in sensor fusion localization algorithms due to its low weight and low power consumption. In addition, the UWB is able to return ranging measurements even when the object is not within line-of-sight. Our approach provides an efficient solution to combine an anonymous optical sensor (LiDAR) with an identity-based radio sensor (UWB) to improve the localization accuracy of the object. Our approach consists of three modules. The first module is an object-identification algorithm that compares successive scans from the LiDAR to detect a moving object in the environment and returns the position with the closest range to UWB ranging. The second module estimates the moving object’s moving direction using the previous and current estimated position from our object-identification module. It removes the suspicious estimations through an outlier rejection criterion. Lastly, we fuse the LiDAR, UWB ranging, and odometry measurements in pose graph optimization (PGO) to recover the entire trajectory of the robot and object. Extensive experiments were performed to evaluate the performance of the proposed approach.

arxiv情報

著者 Muhammad Shalihan,Zhiqiang Cao,Khattiya Pongsirijinda,Lin Guo,Billy Pik Lik Lau,Ran Liu,Chau Yuen,U-Xuan Tan
発行日 2023-10-16 11:23:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク