要約
カバレッジ パス プランニング (CPP) は、狭いエリアの空きスペース全体をカバーするパスを見つける問題であり、ロボットによる芝刈りから捜索救助まで幅広い用途に使用されます。
環境が不明な場合は、環境をマッピングしながらオンラインでパスを計画する必要がありますが、これは柔軟なパス空間を許可しないオフラインの計画方法では対処できません。
私たちは、強化学習がこの困難な問題にどの程度適しているかを調査し、アクション空間、入力特徴表現、ニューラル ネットワーク アーキテクチャ、報酬関数など、カバレッジ パスを効率的に学習するために必要な関連コンポーネントを分析します。
我々は、フロンティアに基づいた計算上実現可能な自己中心的なマップ表現と、完全なカバレッジを促進するための総変動に基づいた新しい報酬条件を提案します。
広範な実験を通じて、私たちのアプローチは、以前の RL ベースのアプローチと、複数の CPP バリエーションにわたる高度に特殊化された方法の両方のパフォーマンスを上回っていることを示しています。
要約(オリジナル)
Coverage path planning (CPP) is the problem of finding a path that covers the entire free space of a confined area, with applications ranging from robotic lawn mowing to search-and-rescue. When the environment is unknown, the path needs to be planned online while mapping the environment, which cannot be addressed by offline planning methods that do not allow for a flexible path space. We investigate how suitable reinforcement learning is for this challenging problem, and analyze the involved components required to efficiently learn coverage paths, such as action space, input feature representation, neural network architecture, and reward function. We propose a computationally feasible egocentric map representation based on frontiers, and a novel reward term based on total variation to promote complete coverage. Through extensive experiments, we show that our approach surpasses the performance of both previous RL-based approaches and highly specialized methods across multiple CPP variations.
arxiv情報
著者 | Arvi Jonnarth,Jie Zhao,Michael Felsberg |
発行日 | 2024-02-09 15:09:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google