DRIFT: Deep Reinforcement Learning for Intelligent Floating Platforms Trajectories

要約

この調査では、シミュレーション環境と現実世界の両方の環境でフローティング プラットフォームを制御するための、新しい深層強化学習ベースのスイートを導入します。
浮遊プラットフォームは、地球上の微小重力環境をエミュレートする多用途のテストベッドとして機能し、宇宙アプリケーションの自律ナビゲーション システムをテストするのに役立ちます。
私たちのアプローチは、動的で予測不可能な状況の中で正確な操作が可能なポリシーを訓練することによって、そのようなプラットフォームを制御する際のシステムと環境の不確実性に対処します。
深層強化学習 (DRL) 技術を活用することで、当社のスイートは堅牢性、適応性、シミュレーションから現実への良好な移行性を実現します。
当社の深層強化学習フレームワークは、高速トレーニング時間、大規模テスト機能、豊富な視覚化オプション、現実世界のロボット システムと統合するための ROS バインディングなどの利点を提供します。
オープンアクセスである当社のスイートは、独自のシミュレート環境やラボで同様の研究を再現したいと考えている実務者のための包括的なプラットフォームとして機能します。

要約(オリジナル)

This investigation introduces a novel deep reinforcement learning-based suite to control floating platforms in both simulated and real-world environments. Floating platforms serve as versatile test-beds to emulate micro-gravity environments on Earth, useful to test autonomous navigation systems for space applications. Our approach addresses the system and environmental uncertainties in controlling such platforms by training policies capable of precise maneuvers amid dynamic and unpredictable conditions. Leveraging Deep Reinforcement Learning (DRL) techniques, our suite achieves robustness, adaptability, and good transferability from simulation to reality. Our deep reinforcement learning framework provides advantages such as fast training times, large-scale testing capabilities, rich visualization options, and ROS bindings for integration with real-world robotic systems. Being open access, our suite serves as a comprehensive platform for practitioners who want to replicate similar research in their own simulated environments and labs.

arxiv情報

著者 Matteo El-Hariry,Antoine Richard,Vivek Muralidharan,Matthieu Geist,Miguel Olivares-Mendez
発行日 2024-09-16 09:16:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク