要約
深層強化学習 (DRL) は、さまざまな研究分野にわたる複雑なタスクの解決において目覚ましい成功を収めています。
ただし、シミュレーションと現実の間には大きな差異があるため、DRL エージェントを現実世界に転送することは依然として困難です。
この問題に対処するために、プラットフォーム依存の認識モジュールを活用してタスク関連情報を抽出し、車線追従および追い越しエージェントをシミュレーションでトレーニングする堅牢な DRL フレームワークを提案します。
このフレームワークにより、最小限の労力で DRL エージェントを新しいシミュレート環境や現実世界にシームレスに転送できます。
シミュレーションと現実世界の両方でさまざまな運転シナリオにおけるエージェントのパフォーマンスを評価し、それを人間のプレイヤーおよびシミュレーションにおける PID ベースラインと比較します。
私たちが提案したフレームワークは、異なるプラットフォーム間のギャップと Sim2Real ギャップを大幅に削減し、訓練されたエージェントがシミュレーションと現実世界の両方で同様のパフォーマンスを達成し、車両を効果的に運転できるようにします。
要約(オリジナル)
Deep Reinforcement Learning (DRL) has shown remarkable success in solving complex tasks across various research fields. However, transferring DRL agents to the real world is still challenging due to the significant discrepancies between simulation and reality. To address this issue, we propose a robust DRL framework that leverages platform-dependent perception modules to extract task-relevant information and train a lane-following and overtaking agent in simulation. This framework facilitates the seamless transfer of the DRL agent to new simulated environments and the real world with minimal effort. We evaluate the performance of the agent in various driving scenarios in both simulation and the real world, and compare it to human players and the PID baseline in simulation. Our proposed framework significantly reduces the gaps between different platforms and the Sim2Real gap, enabling the trained agent to achieve similar performance in both simulation and the real world, driving the vehicle effectively.
arxiv情報
著者 | Dianzhao Li,Ostap Okhrin |
発行日 | 2024-04-30 08:17:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google