要約
自律型ロボットを混雑した屋内環境に導入するには、通常、正確な動的な障害物認識が必要です。
自動運転分野におけるこれまでの多くの研究で 3D 物体検出問題が調査されてきましたが、重い光検出測距 (LiDAR) センサーからの高密度点群の使用と、学習ベースのデータ処理のための高い計算コストにより、これらの方法は使用できません。
小型オンボードコンピュータを搭載したビジョンベースの UAV などの小型ロボットに適用できます。
この問題に対処するために、我々は、RGB-D カメラに基づく軽量の 3D 動的障害物検出および追跡 (DODT) 手法を提案します。この手法は、限られたコンピューティング能力を持つ低電力ロボット向けに設計されています。
私たちの方法は、新しいアンサンブル検出戦略を採用しており、計算効率は高いが精度が低い複数の検出器を組み合わせて、リアルタイムの高精度障害物検出を実現します。
さらに、点群の統計的特徴を利用して不一致を防ぐための新しい特徴ベースのデータ関連付けと追跡方法を導入します。
さらに、当社のシステムには、障害物の検出範囲と動的障害物の識別を強化するための、オプションの補助的な学習ベースのモジュールが含まれています。
提案された方法は小型クアッドコプターに実装されており、結果は、私たちの方法がロボットのオンボードコンピューターで実行されるベンチマークアルゴリズム全体で最小の位置誤差(0.11m)と同等の速度誤差(0.23m/s)を達成できることを示しています。
飛行実験は、提案された方法による追跡結果により、ロボットが動的環境をナビゲートするためにその軌道を効率的に変更できることを証明しました。
当社のソフトウェアは、オープンソース ROS パッケージとして GitHub で入手できます。
要約(オリジナル)
Deploying autonomous robots in crowded indoor environments usually requires them to have accurate dynamic obstacle perception. Although plenty of previous works in the autonomous driving field have investigated the 3D object detection problem, the usage of dense point clouds from a heavy Light Detection and Ranging (LiDAR) sensor and their high computation cost for learning-based data processing make those methods not applicable to small robots, such as vision-based UAVs with small onboard computers. To address this issue, we propose a lightweight 3D dynamic obstacle detection and tracking (DODT) method based on an RGB-D camera, which is designed for low-power robots with limited computing power. Our method adopts a novel ensemble detection strategy, combining multiple computationally efficient but low-accuracy detectors to achieve real-time high-accuracy obstacle detection. Besides, we introduce a new feature-based data association and tracking method to prevent mismatches utilizing point clouds’ statistical features. In addition, our system includes an optional and auxiliary learning-based module to enhance the obstacle detection range and dynamic obstacle identification. The proposed method is implemented in a small quadcopter, and the results show that our method can achieve the lowest position error (0.11m) and a comparable velocity error (0.23m/s) across the benchmarking algorithms running on the robot’s onboard computer. The flight experiments prove that the tracking results from the proposed method can make the robot efficiently alter its trajectory for navigating dynamic environments. Our software is available on GitHub as an open-source ROS package.
arxiv情報
著者 | Zhefan Xu,Xiaoyang Zhan,Yumeng Xiu,Christopher Suzuki,Kenji Shimada |
発行日 | 2023-11-17 04:31:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google