Learning Continuous Control Policies for Information-Theoretic Active Perception

要約

この論文は、情報理論コストを使用して、アクティブなランドマーク位置特定と探索のための連続制御ポリシーを学習する方法を提案します。
限られたセンシング範囲内でランドマークを検出する移動ロボットを考え、ランドマークの状態とセンサの観測値との間の相互情報を最大化する制御方針を学習するという問題に取り組みます。
ランドマーク状態で部分的に観察可能な問題をマルコフ決定プロセス (MDP) に変換するカルマン フィルター、報酬を形成する微分可能な視野、および制御ポリシーを表す注意ベースのニューラル ネットワークを採用します。
このアプローチはアクティブ ボリューム マッピングとさらに統合されており、ランドマークの位置特定に加えて探索を促進します。
パフォーマンスは、ベンチマーク手法と比較して、いくつかのシミュレートされたランドマーク位置特定タスクで実証されます。

要約(オリジナル)

This paper proposes a method for learning continuous control policies for active landmark localization and exploration using an information-theoretic cost. We consider a mobile robot detecting landmarks within a limited sensing range, and tackle the problem of learning a control policy that maximizes the mutual information between the landmark states and the sensor observations. We employ a Kalman filter to convert the partially observable problem in the landmark state to Markov decision process (MDP), a differentiable field of view to shape the reward, and an attention-based neural network to represent the control policy. The approach is further unified with active volumetric mapping to promote exploration in addition to landmark localization. The performance is demonstrated in several simulated landmark localization tasks in comparison with benchmark methods.

arxiv情報

著者 Pengzhi Yang,Yuhan Liu,Shumon Koga,Arash Asgharivaskasi,Nikolay Atanasov
発行日 2023-05-16 19:11:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク