Safe Hierarchical Reinforcement Learning for CubeSat Task Scheduling Based on Energy Consumption

要約

この論文では、地球低軌道 (LEO) での CubeSat タスク スケジューリングを最適化するために調整された階層型強化学習方法論を紹介します。
グローバルなタスク分散のための高レベルのポリシーと安全メカニズムとしてのリアルタイム適応のための低レベルのポリシーを組み込んだ当社のアプローチは、タスクの優先順位付けのための類似性注意ベースのエンコーダ (SABE) とエネルギー消費予測のための MLP 推定器を統合します。
このメカニズムを統合すると、CubeSat タスク スケジューリング用の安全でフォールト トレラントなシステムが作成されます。
シミュレーション結果では、階層強化学習の優れた収束性とタスク成功率が検証され、複数の CubeSat 構成にわたって MADDPG モデルと従来のランダム スケジューリングの両方を上回っています。

要約(オリジナル)

This paper presents a Hierarchical Reinforcement Learning methodology tailored for optimizing CubeSat task scheduling in Low Earth Orbits (LEO). Incorporating a high-level policy for global task distribution and a low-level policy for real-time adaptations as a safety mechanism, our approach integrates the Similarity Attention-based Encoder (SABE) for task prioritization and an MLP estimator for energy consumption forecasting. Integrating this mechanism creates a safe and fault-tolerant system for CubeSat task scheduling. Simulation results validate the Hierarchical Reinforcement Learning superior convergence and task success rate, outperforming both the MADDPG model and traditional random scheduling across multiple CubeSat configurations.

arxiv情報

著者 Mahya Ramezani,M. Amin Alandihallaj,Jose Luis Sanchez-Lopez,Andreas Hein
発行日 2023-09-21 12:22:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA パーマリンク