DRNet: A Decision-Making Method for Autonomous Lane Changingwith Deep Reinforcement Learning

要約

機械学習技術は、自動運転車における意思決定において、数多くのルールベースの方法を上回っています。
最近の取り組みにもかかわらず、複雑な運転シナリオと周囲の車両の変わりやすい社会的行動により、車線変更は依然として大きな課題です。
最先端技術の向上を支援するために、\underline{T}実践レベルで変化する la\underline{NE} に対して、新たな \underline{D}eep \underline{R} 強化学習 (DRL) アプローチを活用することを提案します。
この目的を達成するために、我々は、任意の車線数の模擬高速道路上で合理的な車線変更を実行し、周囲の車両の運転スタイルを考慮して、DRL エージェントが運転を学習できる、斬新で高効率な DRL ベースのフレームワーク「DRNet」を提案します。
より良い意思決定をするために。
さらに、意思決定のための安全なポリシーを実現するために、DRNet には自動運転の最も重要な要素である安全性検証のアイデアが組み込まれており、いつでも安全な行動のみが選択されるようになります。
状態表現と報酬関数を設定すると、訓練を受けたエージェントが現実世界のようなシミュレーターで適切なアクションを実行できるようになります。
当社の DRL エージェントは、衝突を引き起こすことなく目的のタスクを学習する能力を備えており、DDQN や他のベースライン モデルよりも優れたパフォーマンスを発揮します。

要約(オリジナル)

Machine learning techniques have outperformed numerous rule-based methods for decision-making in autonomous vehicles. Despite recent efforts, lane changing remains a major challenge, due to the complex driving scenarios and changeable social behaviors of surrounding vehicles. To help improve the state of the art, we propose to leveraging the emerging \underline{D}eep \underline{R}einforcement learning (DRL) approach for la\underline{NE} changing at the \underline{T}actical level. To this end, we present ‘DRNet’, a novel and highly efficient DRL-based framework that enables a DRL agent to learn to drive by executing reasonable lane changing on simulated highways with an arbitrary number of lanes, and considering driving style of surrounding vehicles to make better decisions. Furthermore, to achieve a safe policy for decision-making, DRNet incorporates ideas from safety verification, the most important component of autonomous driving, to ensure that only safe actions are chosen at any time. The setting of our state representation and reward function enables the trained agent to take appropriate actions in a real-world-like simulator. Our DRL agent has the ability to learn the desired task without causing collisions and outperforms DDQN and other baseline models.

arxiv情報

著者 Kunpeng Xu,Lifei Chen,Shengrui Wang
発行日 2024-02-19 00:16:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク