要約
モーションシミュレーションでは、モーションシミュレータのプラットフォームの軌道計画にモーションキューイングアルゴリズムが使用されます。このような状況では、プラットフォームを中心に戻すモーションウォッシュアウトなどの戦略が重要です。非線形性の高い作業空間を持つ直列ロボットMSPでは、MSPの運動学的および動的能力を最大限に効率的に利用することが不可欠です。古典的なウォッシュアウトフィルタリングや線形モデル予測制御を含む従来のアプローチでは、プラットフォーム固有の非線形特性を考慮することができません。一方、非線形モデル予測制御は、包括的ではあるものの、計算負荷が高く、さらに単純化しないとリアルタイムのパイロットインザループの適用を妨げます。これらの限界を克服するために、我々は、MSPの運動学的非線形性を完全に考慮した6自由度設定で初めて実証された、モーションキューイングのための深層強化学習を用いた新しいアプローチを紹介する。著者らによる以前の研究では、運動学的・動的制約を考慮しない単純化された2自由度セットアップにDRLを適用することに成功した。このアプローチは、MSPの完全な運動学モデルをアルゴリズムに組み込むことで、6自由度すべてに拡張されました。DRL-MCAのトレーニングは、自動ハイパーパラメータ最適化と組み合わせたアクター・クリティック実装のProximal Policy Optimizationに基づいています。必要なトレーニングフレームワークとアルゴリズム自体を詳細に説明した後、包括的な検証を行い、DRL MCAが既存のアルゴリズムに対して競争力のある性能を達成することを実証する。さらに、DRL MCAは、全てのシステム制約を尊重して実行可能な軌道を生成し、全てのリアルタイム要件を低…
要約(オリジナル)
In motion simulation, motion cueing algorithms are used for the trajectory planning of the motion simulator platform, where workspace limitations prevent direct reproduction of reference trajectories. Strategies such as motion washout, which return the platform to its center, are crucial in these settings. For serial robotic MSPs with highly nonlinear workspaces, it is essential to maximize the efficient utilization of the MSPs kinematic and dynamic capabilities. Traditional approaches, including classical washout filtering and linear model predictive control, fail to consider platform-specific, nonlinear properties, while nonlinear model predictive control, though comprehensive, imposes high computational demands that hinder real-time, pilot-in-the-loop application without further simplification. To overcome these limitations, we introduce a novel approach using deep reinforcement learning for motion cueing, demonstrated here for the first time in a 6-degree-of-freedom setting with full consideration of the MSPs kinematic nonlinearities. Previous work by the authors successfully demonstrated the application of DRL to a simplified 2-DOF setup, which did not consider kinematic or dynamic constraints. This approach has been extended to all 6 DOF by incorporating a complete kinematic model of the MSP into the algorithm, a crucial step for enabling its application on a real motion simulator. The training of the DRL-MCA is based on Proximal Policy Optimization in an actor-critic implementation combined with an automated hyperparameter optimization. After detailing the necessary training framework and the algorithm itself, we provide a comprehensive validation, demonstrating that the DRL MCA achieves competitive performance against established algorithms. Moreover, it generates feasible trajectories by respecting all system constraints and meets all real-time requirements with low…
arxiv情報
| 著者 | Hendrik Scheidel,Camilo Gonzalez,Houshyar Asadi,Tobias Bellmann,Andreas Seefried,Shady Mohamed,Saeid Nahavandi |
| 発行日 | 2025-04-03 13:13:56+00:00 |
| arxivサイト | arxiv_id(pdf) |