要約
動的障害の正確な認識は、屋内環境での自律的なロボットナビゲーションに不可欠です。
洗練された3Dオブジェクトの検出方法と追跡方法は、コンピュータービジョンと自律運転の分野で徹底的に調査および開発されていますが、高価で高精査センサーのセットアップに対する要求と、大規模なニューラルネットワークからの実質的な計算リソースにより、屋内ロボット工学に不適切になります。
最近、オンボードカメラまたはライダーセンサーを活用するより軽量の認識アルゴリズムが、有望な選択肢として浮上しています。
ただし、単一のセンサーに依存すると大きな制限があります。カメラには視野が限られており、高いノイズに苦しむ可能性がありますが、ライダーセンサーはより低い周波数で動作し、視覚的特徴の豊かさを欠いています。
この制限に対処するために、オンボードカメラとLIDARデータの両方を使用して、軽量で正確な知覚を可能にする動的な障害物の検出と追跡フレームワークを提案します。
提案された方法は、以前のアンサンブル検出アプローチを拡張します。これは、複数の低精度であるが計算効率の高い検出器からの出力を統合して、オンボードコンピューターでのリアルタイムパフォーマンスを確保します。
この作業では、LIDARデータと視覚データの両方を統合して、検出の精度をさらに強化するより堅牢な融合戦略を提案します。
次に、特徴ベースのオブジェクトアソシエーションを採用する追跡モジュールとKalmanフィルターを使用して、検出された障害物状態を追跡および推定します。
また、動的な障害物分類アルゴリズムは、移動するオブジェクトを堅牢に識別するように設計されています。
データセット評価は、ベンチマーク方法と比較して、より良い知覚パフォーマンスを示しています。
Quadcopterロボットの物理実験は、実際のナビゲーションの実現可能性を確認します。
要約(オリジナル)
Accurate perception of dynamic obstacles is essential for autonomous robot navigation in indoor environments. Although sophisticated 3D object detection and tracking methods have been investigated and developed thoroughly in the fields of computer vision and autonomous driving, their demands on expensive and high-accuracy sensor setups and substantial computational resources from large neural networks make them unsuitable for indoor robotics. Recently, more lightweight perception algorithms leveraging onboard cameras or LiDAR sensors have emerged as promising alternatives. However, relying on a single sensor poses significant limitations: cameras have limited fields of view and can suffer from high noise, whereas LiDAR sensors operate at lower frequencies and lack the richness of visual features. To address this limitation, we propose a dynamic obstacle detection and tracking framework that uses both onboard camera and LiDAR data to enable lightweight and accurate perception. Our proposed method expands on our previous ensemble detection approach, which integrates outputs from multiple low-accuracy but computationally efficient detectors to ensure real-time performance on the onboard computer. In this work, we propose a more robust fusion strategy that integrates both LiDAR and visual data to enhance detection accuracy further. We then utilize a tracking module that adopts feature-based object association and the Kalman filter to track and estimate detected obstacles’ states. Besides, a dynamic obstacle classification algorithm is designed to robustly identify moving objects. The dataset evaluation demonstrates a better perception performance compared to benchmark methods. The physical experiments on a quadcopter robot confirms the feasibility for real-world navigation.
arxiv情報
| 著者 | Zhefan Xu,Haoyu Shen,Xinming Han,Hanyu Jin,Kanlong Ye,Kenji Shimada |
| 発行日 | 2025-02-28 00:12:35+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google