要約
強化学習(RL)は、オートメーションやロボティクスの領域において、従来の手法では対応困難な複雑な問題に対する強力なソリューションを提供する、革新的なアプローチとして登場した。問題の定義がとらえどころがなく、定量化が困難なシナリオでは、RLのような学習ベースのソリューションが特に価値を持つ。このような複雑さの一例は、高度な意思決定アルゴリズムが要求されるダイナミックで予測不可能な環境であるカーレースの領域に見出すことができる。本研究では、シミュレーションされた状況において、フィードフォワードの生のライダーデータと速度データのみを用いてレース環境をナビゲートするRLエージェントの開発と訓練に焦点を当てる。シミュレーション環境で訓練したエージェントの性能を、実際のレースシナリオで実験的に評価する。この調査により、特に事前の地図情報が利用できない環境において、RLアルゴリズムが自律的なレースパフォーマンスを向上させる実現可能性と潜在的な利点を強調する。
要約(オリジナル)
Reinforcement Learning (RL) has emerged as a transformative approach in the domains of automation and robotics, offering powerful solutions to complex problems that conventional methods struggle to address. In scenarios where the problem definitions are elusive and challenging to quantify, learning-based solutions such as RL become particularly valuable. One instance of such complexity can be found in the realm of car racing, a dynamic and unpredictable environment that demands sophisticated decision-making algorithms. This study focuses on developing and training an RL agent to navigate a racing environment solely using feedforward raw lidar and velocity data in a simulated context. The agent’s performance, trained in the simulation environment, is then experimentally evaluated in a real-world racing scenario. This exploration underlines the feasibility and potential benefits of RL algorithm enhancing autonomous racing performance, especially in the environments where prior map information is not available.
arxiv情報
著者 | Meraj Mammadov |
発行日 | 2023-09-01 07:03:05+00:00 |
arxivサイト | arxiv_id(pdf) |