要約
進化する交通環境における交通ダイナミクスの最適化は、特にさまざまなレベルの自律性を持つ自動運転車 (AV) と人間が運転する車が共存するシナリオでは非常に重要です。
この論文では、強化学習アルゴリズムである Proximal Policy Optimization (PPO) を使用して AV の選択を最適化する新しいアプローチを紹介します。
私たちは、イタリアのミラノにあるラウンドアバウトで交通渋滞を最小限に抑え (つまり、シナリオを通過する時間を最小限に抑え)、汚染を最小限に抑えるためのポリシーを学習しました。
実証分析を通じて、私たちのアプローチが時間と汚染レベルを削減できることを実証します。
さらに、最先端のコックピットを使用して学習したポリシーを定性的に評価し、現実世界に近い状況でのパフォーマンスを評価します。
政策の実用性と受け入れ可能性を評価するために、交通のスムーズさや安全認識などのさまざまな指標に焦点を当て、シミュレーターを使用して人間の参加者による評価を実施しました。
一般に、私たちの調査結果は、人間が運転する車両が AV ダイナミクスを最適化することで恩恵を受けることを示しています。
また、研究の参加者は、AV が 80% のシナリオは 20% のシナリオよりも安全であると認識されていることを強調しました。
交通のスムーズさの認識についても同じ結果が得られます。
要約(オリジナル)
Optimizing traffic dynamics in an evolving transportation landscape is crucial, particularly in scenarios where autonomous vehicles (AVs) with varying levels of autonomy coexist with human-driven cars. This paper presents a novel approach to optimizing choices of AVs using Proximal Policy Optimization (PPO), a reinforcement learning algorithm. We learned a policy to minimize traffic jams (i.e., minimize the time to cross the scenario) and to minimize pollution in a roundabout in Milan, Italy. Through empirical analysis, we demonstrate that our approach can reduce time and pollution levels. Furthermore, we qualitatively evaluate the learned policy using a cutting-edge cockpit to assess its performance in near-real-world conditions. To gauge the practicality and acceptability of the policy, we conducted evaluations with human participants using the simulator, focusing on a range of metrics like traffic smoothness and safety perception. In general, our findings show that human-driven vehicles benefit from optimizing AVs dynamics. Also, participants in the study highlighted that the scenario with 80\% AVs is perceived as safer than the scenario with 20\%. The same result is obtained for traffic smoothness perception.
arxiv情報
著者 | Laura Ferrarotti,Massimiliano Luca,Gabriele Santin,Giorgio Previati,Gianpiero Mastinu,Elena Campi,Lorenzo Uccello,Antonino Albanese,Praveen Zalaya,Alessandro Roccasalva,Bruno Lepri |
発行日 | 2023-09-15 09:02:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google