要約
この論文では、ドローンが複数の移動ターゲットを分類するために意味情報を収集する必要があるという問題を検討します。
特に、深層学習ニューラルネットワークなどの「ブラックボックス」分類器を使用して情報が抽出される場合に、ドローンを有益な視点、位置、方向に移動させる制御入力を計算するという課題に取り組みます。
これらのアルゴリズムには通常、視点とそれに関連する出力間の分析的関係が欠如しており、情報収集スキームでの使用が妨げられています。
このギャップを埋めるために、強化学習 (RL) によって訓練された新しい注意ベースのアーキテクチャを提案します。これは、ドローンの次の視点を出力し、できるだけ多くの未分類のターゲットからの証拠の取得を促進しながら、ターゲットの動き、向き、
そして閉塞。
次に、低レベルの MPC コントローラーを使用して、実際のダイナミクスを考慮してドローンを目的の視点に移動します。
私たちのアプローチがさまざまなベースラインを上回るだけでなく、トレーニング中には見られなかったシナリオにも一般化できることを示します。
さらに、ネットワークが多数のターゲットに合わせてスケールし、ターゲットのさまざまな動きのダイナミクスによく一般化することを示します。
要約(オリジナル)
In this paper, we consider the problem where a drone has to collect semantic information to classify multiple moving targets. In particular, we address the challenge of computing control inputs that move the drone to informative viewpoints, position and orientation, when the information is extracted using a ‘black-box’ classifier, e.g., a deep learning neural network. These algorithms typically lack of analytical relationships between the viewpoints and their associated outputs, preventing their use in information-gathering schemes. To fill this gap, we propose a novel attention-based architecture, trained via Reinforcement Learning (RL), that outputs the next viewpoint for the drone favoring the acquisition of evidence from as many unclassified targets as possible while reasoning about their movement, orientation, and occlusions. Then, we use a low-level MPC controller to move the drone to the desired viewpoint taking into account its actual dynamics. We show that our approach not only outperforms a variety of baselines but also generalizes to scenarios unseen during training. Additionally, we show that the network scales to large numbers of targets and generalizes well to different movement dynamics of the targets.
arxiv情報
著者 | Álvaro Serra-Gómez,Eduardo Montijano,Wendelin Böhmer,Javier Alonso-Mora |
発行日 | 2023-09-27 09:48:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google