A Deep Reinforcement Learning Based Motion Cueing Algorithm for Vehicle Driving Simulation

要約

モーションキューイングアルゴリズム(MCA)を使用して、モーションシミュレーションプラットフォーム(MSP)の動きを制御して、MSPのワークスペースの制限を超えることなく、実際の車両ドライバーのモーション認識を可能な限り正確に再現します。
既存のアプローチは、フィルタリング、線形化、または単純化による非最適な結果を生成するか、必要な計算時間を閉ループアプリケーションのリアルタイム要件を超えています。
この作業は、MCAの原理を指定する人間のデザイナーの代わりに、人工知能(AI)がMSPとの相互作用の試行錯誤によって最適な動きを学習するモーションキューイング問題に対する新しいソリューションを提示します。
これを達成するために、十分に確立されたディープ強化学習(RL)アルゴリズムが適用されます。エージェントが環境と対話し、シミュレートされたMSPを直接制御してパフォーマンスに関するフィードバックを得ることができます。
使用されるRLアルゴリズムは近位ポリシー最適化(PPO)であり、制御戦略に対応する値関数とポリシーは、人工ニューラルネットワーク(ANN)で学習およびマッピングされます。
このアプローチはPythonで実装されており、機能は事前に録音された横方向の操作の実用的な例によって実証されています。
その後の検証は、RLアルゴリズムが制御戦略を学習し、確立された方法と比較して浸漬の品質を改善できることを示しています。
それにより、前庭系のモデルによって決定される知覚されるモーション信号がより正確に再現され、MSPのリソースがより経済的に使用されます。

要約(オリジナル)

Motion cueing algorithms (MCA) are used to control the movement of motion simulation platforms (MSP) to reproduce the motion perception of a real vehicle driver as accurately as possible without exceeding the limits of the workspace of the MSP. Existing approaches either produce non-optimal results due to filtering, linearization, or simplifications, or the computational time required exceeds the real-time requirements of a closed-loop application. This work presents a new solution to the motion cueing problem, where instead of a human designer specifying the principles of the MCA, an artificial intelligence (AI) learns the optimal motion by trial and error in interaction with the MSP. To achieve this, a well-established deep reinforcement learning (RL) algorithm is applied, where an agent interacts with an environment, allowing him to directly control a simulated MSP to obtain feedback on its performance. The RL algorithm used is proximal policy optimization (PPO), where the value function and the policy corresponding to the control strategy are both learned and mapped in artificial neural networks (ANN). This approach is implemented in Python and the functionality is demonstrated by the practical example of pre-recorded lateral maneuvers. The subsequent validation shows that the RL algorithm is able to learn the control strategy and improve the quality of the immersion compared to an established method. Thereby, the perceived motion signals determined by a model of the vestibular system are more accurately reproduced, and the resources of the MSP are used more economically.

arxiv情報

著者 Hendrik Scheidel,Houshyar Asadi,Tobias Bellmann,Andreas Seefried,Shady Mohamed,Saeid Nahavandi
発行日 2025-03-19 13:49:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク