要約
強化学習は、将来が期待される非常に活発な研究分野です。
ただし、自動運転の分野では、非常に単純なシナリオが検討されることがよくあります。
一般的なアプローチでは、アクション空間として解釈不可能な制御コマンドと、構造を持たない非構造化報酬設計が使用されます。
この研究では、構造化されたルールブックが知識源として統合される情報強化学習を紹介します。
私たちは軌跡を学習し、状況を認識した報酬設計でそれらを評価し、エージェントが制御された交通ルールの例外を必要とする状況を学習できるようにする動的な報酬をもたらします。
私たちの方法は任意の RL モデルに適用できます。
最新のモデルベースのエージェントを使用して、複雑なシナリオの高い完了率を実証することに成功しました。
要約(オリジナル)
Reinforcement Learning is a highly active research field with promising advancements. In the field of autonomous driving, however, often very simple scenarios are being examined. Common approaches use non-interpretable control commands as the action space and unstructured reward designs which lack structure. In this work, we introduce Informed Reinforcement Learning, where a structured rulebook is integrated as a knowledge source. We learn trajectories and asses them with a situation-aware reward design, leading to a dynamic reward which allows the agent to learn situations which require controlled traffic rule exceptions. Our method is applicable to arbitrary RL models. We successfully demonstrate high completion rates of complex scenarios with recent model-based agents.
arxiv情報
著者 | Daniel Bogdoll,Jing Qin,Moritz Nekolla,Ahmed Abouelazm,Tim Joseph,J. Marius Zöllner |
発行日 | 2024-02-06 17:24:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google