要約
深層強化学習 (DRL) 手法は、最近、経路計画タスクにおいて有望であることが示されています。
ただし、グローバルな計画タスクを扱う場合、これらの方法は収束性や一般化が不十分であるなどの深刻な課題に直面します。
この目的を達成するために、本論文では LOPA (Learn Once Plan Arbitrarily) と呼ばれる注意を強化した DRL 手法を提案します。
まず、DRL の観察の観点からこれらの問題の原因を分析し、従来の設計が DRL に無関係な地図情報による干渉を引き起こしていることを明らかにしました。
第二に、観測の重要な情報に対する注意力を向上させる新しい注意力強化メカニズムを利用する LOPA を開発します。
このようなメカニズムは 2 つのステップによって実現されます。(1) DRL の観察をローカルとグローバルの 2 つの動的なビューに変換する注意モデルが構築され、指定されたマップ上の重要な情報に焦点を当てるように LOPA を大幅に導きます。
(2) これら 2 つのビューを処理し統合して推論能力を向上させるために、デュアル チャネル ネットワークが構築されます。
LOPA は、多目的のグローバル パス プランニング実験を通じて検証されます。
この結果は、LOPA が収束と汎化のパフォーマンスを向上させるだけでなく、パス計画の効率も向上させることを示唆しています。
要約(オリジナル)
Deep reinforcement learning (DRL) methods have recently shown promise in path planning tasks. However, when dealing with global planning tasks, these methods face serious challenges such as poor convergence and generalization. To this end, we propose an attention-enhanced DRL method called LOPA (Learn Once Plan Arbitrarily) in this paper. Firstly, we analyze the reasons of these problems from the perspective of DRL’s observation, revealing that the traditional design causes DRL to be interfered by irrelevant map information. Secondly, we develop the LOPA which utilizes a novel attention-enhanced mechanism to attain an improved attention capability towards the key information of the observation. Such a mechanism is realized by two steps: (1) an attention model is built to transform the DRL’s observation into two dynamic views: local and global, significantly guiding the LOPA to focus on the key information on the given maps; (2) a dual-channel network is constructed to process these two views and integrate them to attain an improved reasoning capability. The LOPA is validated via multi-objective global path planning experiments. The result suggests the LOPA has improved convergence and generalization performance as well as great path planning efficiency.
arxiv情報
著者 | Guoming Huang,Mingxin Hou,Xiaofang Yuan,Shuqiao Huang,Yaonan Wang |
発行日 | 2024-01-08 02:27:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google