DRNet: A Decision-Making Method for Autonomous Lane Changingwith Deep Reinforcement Learning

要約

機械学習技術は、自律走行車における意思決定において、多くのルールベースの手法を凌駕している。最近の取り組みにもかかわらず、車線変更は、複雑な走行シナリオと変化しやすい周辺車両の社会的行動のために、依然として大きな課題となっています。このような現状を改善するために、我々は強化学習(DRL)アプロー チを活用することを提案します。本論文では、DRLエージェントが任意の車線数を持つ高速道路上で合理的な車線変更を実行し、周辺車両の運転スタイルを考慮してより良い判断を行うことで、運転学習を行うことができる新規かつ高効率なDRLベースのフレームワーク「DRNet」を提案する。さらに、DRNetは安全な意思決定方針を実現するために、自律走行の最も重要な要素である安全検証の考え方を取り入れ、常に安全な行動のみが選択されるようにしています。我々の状態表現と報酬関数の設定により、訓練されたエージェントは実世界に近いシミュレータで適切な行動を取ることができます。我々のDRLエージェントは衝突を起こさずに目的のタスクを学習する能力を持ち、DDQNや他のベースラインモデルを凌駕している。

要約(オリジナル)

Machine learning techniques have outperformed numerous rule-based methods for decision-making in autonomous vehicles. Despite recent efforts, lane changing remains a major challenge, due to the complex driving scenarios and changeable social behaviors of surrounding vehicles. To help improve the state of the art, we propose to leveraging the emerging \underline{D}eep \underline{R}einforcement learning (DRL) approach for la\underline{NE} changing at the \underline{T}actical level. To this end, we present ‘DRNet’, a novel and highly efficient DRL-based framework that enables a DRL agent to learn to drive by executing reasonable lane changing on simulated highways with an arbitrary number of lanes, and considering driving style of surrounding vehicles to make better decisions. Furthermore, to achieve a safe policy for decision-making, DRNet incorporates ideas from safety verification, the most important component of autonomous driving, to ensure that only safe actions are chosen at any time. The setting of our state representation and reward function enables the trained agent to take appropriate actions in a real-world-like simulator. Our DRL agent has the ability to learn the desired task without causing collisions and outperforms DDQN and other baseline models.

arxiv情報

著者 Kunpeng Xu,Lifei Chen,Shengrui Wang
発行日 2023-11-02 21:17:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO パーマリンク