A nonlinear real time capable motion cueing algorithm based on deep reinforcement learning

要約

モーションシミュレーションでは、モーションキューイングアルゴリズムがモーションシミュレータープラットフォームの軌跡計画に使用されます。ここでは、ワークスペースの制限により、参照軌跡の直接的な再現が妨げられます。
これらの設定では、プラットフォームを中心に戻すモーションウォッシュアウトなどの戦略が重要です。
高度に非線形のワークスペースを備えたシリアルロボットMSPの場合、MSPSキネマティックおよびダイナミック機能の効率的な利用を最大化することが不可欠です。
古典的なウォッシュアウトフィルタリングや線形モデル予測制御を含む従来のアプローチは、プラットフォーム固有の非線形特性を考慮していませんが、非線形モデル予測制御は、包括的ではありますが、さらなる単純化なしにリアルタイムのパイロットアプリケーションを妨げる高い計算要求を課します。
これらの制限を克服するために、MSPS運動の非線形性を完全に考慮して、6度のフリードーム設定で初めてここで実証されたモーションキューイングの深い補強学習を使用して、新しいアプローチを導入します。
著者による以前の研究では、運動学的または動的な制約を考慮していない単純化された2-DOFセットアップへのDRLの適用を成功裏に実証しました。
このアプローチは、MSPの完全な運動学モデルをアルゴリズムに組み込むことにより、6 DOFすべてに拡張されました。これは、実際のモーションシミュレーターでアプリケーションを有効にするための重要なステップです。
DRL-MCAのトレーニングは、自動化されたハイパーパラメーターの最適化と組み合わせた、アクタークリティックの実装における近位政策最適化に基づいています。
必要なトレーニングフレームワークとアルゴリズム自体を詳述した後、包括的な検証を提供し、DRL MCAが確立されたアルゴリズムに対して競争力のあるパフォーマンスを達成することを実証します。
さらに、すべてのシステムの制約を尊重することにより、実行可能な軌跡を生成し、低いものですべてのリアルタイムの要件を満たしています…

要約(オリジナル)

In motion simulation, motion cueing algorithms are used for the trajectory planning of the motion simulator platform, where workspace limitations prevent direct reproduction of reference trajectories. Strategies such as motion washout, which return the platform to its center, are crucial in these settings. For serial robotic MSPs with highly nonlinear workspaces, it is essential to maximize the efficient utilization of the MSPs kinematic and dynamic capabilities. Traditional approaches, including classical washout filtering and linear model predictive control, fail to consider platform-specific, nonlinear properties, while nonlinear model predictive control, though comprehensive, imposes high computational demands that hinder real-time, pilot-in-the-loop application without further simplification. To overcome these limitations, we introduce a novel approach using deep reinforcement learning for motion cueing, demonstrated here for the first time in a 6-degree-of-freedom setting with full consideration of the MSPs kinematic nonlinearities. Previous work by the authors successfully demonstrated the application of DRL to a simplified 2-DOF setup, which did not consider kinematic or dynamic constraints. This approach has been extended to all 6 DOF by incorporating a complete kinematic model of the MSP into the algorithm, a crucial step for enabling its application on a real motion simulator. The training of the DRL-MCA is based on Proximal Policy Optimization in an actor-critic implementation combined with an automated hyperparameter optimization. After detailing the necessary training framework and the algorithm itself, we provide a comprehensive validation, demonstrating that the DRL MCA achieves competitive performance against established algorithms. Moreover, it generates feasible trajectories by respecting all system constraints and meets all real-time requirements with low…

arxiv情報

著者 Hendrik Scheidel,Camilo Gonzalez,Houshyar Asadi,Tobias Bellmann,Andreas Seefried,Shady Mohamed,Saeid Nahavandi
発行日 2025-03-13 14:39:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク