要約
世界中のフォーミュラ:自動車技術者協会 (F:SAE) 競技会に自動運転イベントが継続的に導入されているため、各チームは自動運転車スタックのあらゆる側面を調査しています。
この論文では、深層強化学習 (DRL) と逆強化学習 (IRL) を使用して、局所的に観察されたコーンの位置をレース トラック追従のための望ましいステアリング角度にマッピングする方法について説明します。
このコンテキストではこれまでテストされていなかった 2 つの最先端のアルゴリズム、ソフト アクター クリティカル (SAC) と敵対的逆強化学習 (AIRL) が、代表的なシミュレーションでモデルをトレーニングするために使用されます。
自律的なレースのコンテキストで RL アルゴリズムによって使用される 3 つの新しい報酬関数についても説明します。
シミュレーションと現実世界で実行されたテストは、両方のアルゴリズムがローカル パス フォローイングのモデルを正常にトレーニングできることを示唆しています。
これらのモデルを完全な F:SAE 車両に拡張できるようにするための将来の作業に関する提案が示されています。
要約(オリジナル)
With the continued introduction of driverless events to Formula:Society of Automotive Engineers (F:SAE) competitions around the world, teams are investigating all aspects of the autonomous vehicle stack. This paper presents the use of Deep Reinforcement Learning (DRL) and Inverse Reinforcement Learning (IRL) to map locally-observed cone positions to a desired steering angle for race track following. Two state-of-the-art algorithms not previously tested in this context: soft actor critic (SAC) and adversarial inverse reinforcement learning (AIRL), are used to train models in a representative simulation. Three novel reward functions for use by RL algorithms in an autonomous racing context are also discussed. Tests performed in simulation and the real world suggest that both algorithms can successfully train models for local path following. Suggestions for future work are presented to allow these models to scale to a full F:SAE vehicle.
arxiv情報
著者 | Harvey Merton,Thomas Delamore,Karl Stol,Henry Williams |
発行日 | 2024-01-05 17:04:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google