要約
近年、自律運転は人気のある研究分野になりました。
緊急時にはタイヤのグリップ制限が不可欠であるため、レースカー向けに開発されたアルゴリズムはロードカーにも役立ちます。
このホワイトペーパーでは、シミュレートされた環境での握り制限の問題を解決するために、ディープ補強学習(DRL)の使用を検討します。
近位ポリシー最適化(PPO)メソッドを使用して、エージェントをトレーニングして、視覚入力のみを使用してプロの人間のラップタイムを達成するために、車両のステアリングホイールとペダルを制御します。
この論文は、レーストラックでの時間最適な運転のタスクの定式化の概要を概説し、深い補強学習問題として、選択した観察、行動、報酬機能を説明します。
結果は、最大のタイヤグリップの可能性を利用する人間のような学習と運転行動を示しています。
要約(オリジナル)
In recent years, autonomous driving has become a popular field of study. As control at tire grip limit is essential during emergency situations, algorithms developed for racecars are useful for road cars too. This paper examines the use of Deep Reinforcement Learning (DRL) to solve the problem of grip limit driving in a simulated environment. Proximal Policy Optimization (PPO) method is used to train an agent to control the steering wheel and pedals of the vehicle, using only visual inputs to achieve professional human lap times. The paper outlines the formulation of the task of time optimal driving on a race track as a deep reinforcement learning problem, and explains the chosen observations, actions, and reward functions. The results demonstrate human-like learning and driving behavior that utilize maximum tire grip potential.
arxiv情報
著者 | Gergely Bári,László Palkovics |
発行日 | 2025-04-14 14:29:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google