要約
未知の環境におけるロボットナビゲーションのためのリアルタイムの透明障害物検出のための新しい方法である TOPGN を紹介します。
複数の重複しない高さ間隔にある LIDAR 点群の強度を合計することによって得られる、多層 2D グリッド マップ表現を使用します。
さまざまな 2D グリッド マップ レイヤーの強度を比較することにより、透明な障害物から反射された点の近傍を分離します。
近傍を使用して、接線セグメントを計算することで透明な障害物を線形外挿し、それを使用して安全なリアルタイムの衝突回避を実行します。
最後に、透明なオブジェクト分離が環境のマッピングに適用できることも示します。
私たちのアプローチは、照明条件が異なる現実世界の屋内および屋外のさまざまなシナリオにおいて、さまざまな素材 (ガラス、アクリル、PVC)、任意の形状、色、およびテクスチャで作られた透明なオブジェクトを検出することを実証します。
これらのベンチマーク シナリオで、私たちの方法を、RGB 画像、2D レーザー スキャンなどを使用する他のガラス/透明物体検出方法と比較します。
F スコアの少なくとも 12.74% の改善と平均絶対誤差 (MAE) の 38.46% の減少、ナビゲーションの成功率の向上 (2 番目に優れたものより少なくとも 2 倍優れている)、そして実際の
時間推論レート (モバイル CPU では約 50Hz)。
将来の評価のために、公開時にコードと困難なベンチマークを公開します。
要約(オリジナル)
We present TOPGN, a novel method for real-time transparent obstacle detection for robot navigation in unknown environments. We use a multi-layer 2D grid map representation obtained by summing the intensities of lidar point clouds that lie in multiple non-overlapping height intervals. We isolate a neighborhood of points reflected from transparent obstacles by comparing the intensities in the different 2D grid map layers. Using the neighborhood, we linearly extrapolate the transparent obstacle by computing a tangential line segment and use it to perform safe, real-time collision avoidance. Finally, we also demonstrate our transparent object isolation’s applicability to mapping an environment. We demonstrate that our approach detects transparent objects made of various materials (glass, acrylic, PVC), arbitrary shapes, colors, and textures in a variety of real-world indoor and outdoor scenarios with varying lighting conditions. We compare our method with other glass/transparent object detection methods that use RGB images, 2D laser scans, etc. in these benchmark scenarios. We demonstrate superior detection accuracy in terms of F-score improvement at least by 12.74% and 38.46% decrease in mean absolute error (MAE), improved navigation success rates (at least two times better than the second-best), and a real-time inference rate (~50Hz on a mobile CPU). We will release our code and challenging benchmarks for future evaluations upon publication.
arxiv情報
著者 | Kasun Weerakoon,Adarsh Jagan Sathyamoorthy,Mohamed Elnoor,Anuj Zore,Dinesh Manocha |
発行日 | 2024-08-10 18:22:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google