要約
自動運転車の従来の軌道計画方法には、いくつかの制限があります。
ヒューリスティックで明示的な単純なルールにより、軌道に一般性がなくなり、複雑な動きが生じます。
従来の軌道計画手法の上記の制限を解決するアプローチの 1 つは、強化学習を使用した軌道計画です。
しかし、強化学習には学習の不安定性があり、強化学習を使用した軌道計画のこれまでの研究では不確実性が考慮されていませんでした。
本稿では、強化学習を用いた自動運転車の軌道計画手法を提案する。
提案手法には、学習プロセスを安定化する反復報酬予測手法と、強化学習エージェントに不確実性を認識させる不確実性伝播手法が含まれます。
提案された手法は CARLA シミュレータで実験されます。
ベースライン手法と比較して、衝突率が 60.17% 減少し、平均報酬が 30.82 倍に増加しました。
要約(オリジナル)
Traditional trajectory planning methods for autonomous vehicles have several limitations. Heuristic and explicit simple rules make trajectory lack generality and complex motion. One of the approaches to resolve the above limitations of traditional trajectory planning methods is trajectory planning using reinforcement learning. However, reinforcement learning suffers from instability of learning and prior works of trajectory planning using reinforcement learning didn’t consider the uncertainties. In this paper, we propose a trajectory planning method for autonomous vehicles using reinforcement learning. The proposed method includes iterative reward prediction method that stabilizes the learning process, and uncertainty propagation method that makes the reinforcement learning agent to be aware of the uncertainties. The proposed method is experimented in the CARLA simulator. Compared to the baseline method, we have reduced the collision rate by 60.17%, and increased the average reward to 30.82 times.
arxiv情報
著者 | Hyunwoo Park |
発行日 | 2024-04-18 11:02:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google