要約
リアルタイムの動的な環境認識は、混雑した空間での自律ロボットにとって不可欠になっています。
一般的なボクセルベースのマッピング手法は、任意の複雑な形状を持つ 3D 障害物を効率的に表現できますが、静的な障害物と動的な障害物を区別することがほとんどできないため、障害物回避のパフォーマンスが制限されます。
自動運転には高度な学習ベースの動的障害物検出アルゴリズムが多数存在しますが、クアッドコプターの限られた計算リソースでは、これらのアプローチを使用してリアルタイムのパフォーマンスを達成することはできません。
これらの問題に対処するために、RGB-D カメラを使用したクアッドコプター障害物回避のためのリアルタイム動的障害物追跡およびマッピング システムを提案します。
提案されたシステムは、まず、占有ボクセル マップを持つ深度画像を利用して、潜在的な動的障害物領域を提案として生成します。
障害物領域の提案では、カルマン フィルターと連続性フィルターが適用され、各動的障害物が追跡されます。
最後に,追跡された動的障害物の状態を使用したマルコフ連鎖に基づいて,環境を考慮した軌道予測方法を提案した。
私たちは、カスタム クアッドコプターとナビゲーション プランナーを使用して、提案されたシステムを実装しました。
シミュレーションと物理実験は、私たちの方法が動的環境内の障害物をリアルタイムで首尾よく追跡および表現し、障害物を安全に回避できることを示しています。
要約(オリジナル)
The real-time dynamic environment perception has become vital for autonomous robots in crowded spaces. Although the popular voxel-based mapping methods can efficiently represent 3D obstacles with arbitrarily complex shapes, they can hardly distinguish between static and dynamic obstacles, leading to the limited performance of obstacle avoidance. While plenty of sophisticated learning-based dynamic obstacle detection algorithms exist in autonomous driving, the quadcopter’s limited computation resources cannot achieve real-time performance using those approaches. To address these issues, we propose a real-time dynamic obstacle tracking and mapping system for quadcopter obstacle avoidance using an RGB-D camera. The proposed system first utilizes a depth image with an occupancy voxel map to generate potential dynamic obstacle regions as proposals. With the obstacle region proposals, the Kalman filter and our continuity filter are applied to track each dynamic obstacle. Finally, the environment-aware trajectory prediction method is proposed based on the Markov chain using the states of tracked dynamic obstacles. We implemented the proposed system with our custom quadcopter and navigation planner. The simulation and physical experiments show that our methods can successfully track and represent obstacles in dynamic environments in real-time and safely avoid obstacles.
arxiv情報
著者 | Zhefan Xu,Xiaoyang Zhan,Baihan Chen,Yumeng Xiu,Chenhao Yang,Kenji Shimada |
発行日 | 2023-08-23 13:50:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google