Learning Perception-Aware Agile Flight in Cluttered Environments

要約

近年、ニューラルネットワーク制御は、乱雑な環境下でクワッドローターを自律的に最小限の時間でナビゲートするために、既存のモデルベースの計画・制御手法を凌駕しています。しかし、カメラの視野が狭く、クワッドローターの動きが鈍いため、ビジョンベースのナビゲーションでは重要な要件である知覚を認識することができない。我々は、乱雑な環境下で知覚を意識した俊敏な飛行を実現する、学習ベースのシステムを提案する。本手法は、模倣学習と強化学習(RL)を組み合わせたもので、特権的な学習-by-cheatingフレームワークを活用する。RLを用いて、まず、散乱した環境を最短時間で飛行するために、全状態情報を用いて知覚を考慮した教師ポリシーを学習する。次に、模倣学習を用いて、カメラを通してのみ環境を認識する視覚ベースの生徒の方針にその知識を抽出する。我々のアプローチは、知覚と制御を緊密に連携させ、計算速度(10倍速)と成功率において大きな優位性を示している。また、HIL(Hardware-in-the-Loop)シミュレーションにより、閉ループ制御の性能を実証しています。

要約(オリジナル)

Recently, neural control policies have outperformed existing model-based planning-and-control methods for autonomously navigating quadrotors through cluttered environments in minimum time. However, they are not perception aware, a crucial requirement in vision-based navigation due to the camera’s limited field of view and the underactuated nature of a quadrotor. We propose a learning-based system that achieves perception-aware, agile flight in cluttered environments. Our method combines imitation learning with reinforcement learning (RL) by leveraging a privileged learning-by-cheating framework. Using RL, we first train a perception-aware teacher policy with full-state information to fly in minimum time through cluttered environments. Then, we use imitation learning to distill its knowledge into a vision-based student policy that only perceives the environment via a camera. Our approach tightly couples perception and control, showing a significant advantage in computation speed (10 times faster) and success rate. We demonstrate the closed-loop control performance using hardware-in-the-loop simulation.

arxiv情報

著者 Yunlong Song,Kexin Shi,Robert Penicka,Davide Scaramuzza
発行日 2023-03-03 09:14:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO パーマリンク