Deep-PANTHER: Learning-Based Perception-Aware Trajectory Planner in Dynamic Environments

要約

この論文では、動的環境における無人航空機 (UAV) のための学習ベースの知覚認識軌道プランナーである Deep-PANTHER を紹介します。
UAV の現在の状態と、予測される軌道と障害物のサイズを考慮して、Deep-PANTHER は動的な障害物を回避すると同時に、搭載カメラの視野 (FOV) 内での存在を最大化するために複数の軌道を生成します。
計算上扱いやすいリアルタイム ソリューションを取得するために、模倣学習を活用して、マルチモーダル最適化ベースのエキスパートによって提供されるデモンストレーションを使用して Deep-PANTHER ポリシーをトレーニングします。
大規模なシミュレーションにより、最適化ベースのエキスパートよりも 2 桁速い再計画時間が示されていますが、同様のコストが達成されています。
各専門家の軌跡が損失関数の 1 つの異なる学生の軌跡に割り当てられるようにすることで、Deep-PANTHER は問題のマルチモダリティを捉え、専門家に関して最大​​ 18 倍の平均二乗誤差 (MSE) 損失を達成することもできます。
最先端の(リラックスした)Winner-Takes-Allアプローチよりも小さい。
Deep-PANTHER は、トレーニングで使用されたものとは異なる障害物の軌道にうまく一般化することも示されています。

要約(オリジナル)

This paper presents Deep-PANTHER, a learning-based perception-aware trajectory planner for unmanned aerial vehicles (UAVs) in dynamic environments. Given the current state of the UAV, and the predicted trajectory and size of the obstacle, Deep-PANTHER generates multiple trajectories to avoid a dynamic obstacle while simultaneously maximizing its presence in the field of view (FOV) of the onboard camera. To obtain a computationally tractable real-time solution, imitation learning is leveraged to train a Deep-PANTHER policy using demonstrations provided by a multimodal optimization-based expert. Extensive simulations show replanning times that are two orders of magnitude faster than the optimization-based expert, while achieving a similar cost. By ensuring that each expert trajectory is assigned to one distinct student trajectory in the loss function, Deep-PANTHER can also capture the multimodality of the problem and achieve a mean squared error (MSE) loss with respect to the expert that is up to 18 times smaller than state-of-the-art (Relaxed) Winner-Takes-All approaches. Deep-PANTHER is also shown to generalize well to obstacle trajectories that differ from the ones used in training.

arxiv情報

著者 Jesus Tordesillas,Jonathan P. How
発行日 2023-02-14 15:05:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク