要約
ますます混雑し、争われている空間環境があるため、安全で効果的な衛星操作がますます困難になっています。
その結果、自律的な衛星能力への関心が高まっており、一般的な機械学習技術は、宇宙ドメインでの複雑な意思決定に対処する可能性に注意を向けています。
ただし、これらの方法の多くの「ブラックボックス」の性質は、モデルの入出力と出力の関係、より具体的には環境障害、センサーノイズ、および制御介入に対する感度をより具体的に理解することが困難になります。
このペーパーでは、マルチエージェント検査タスクにおける衛星制御のためのディープ補強学習(DRL)の使用について説明します。
コラボレーション衛星(LINC)ラボのローカルインテリジェントネットワークは、シミュレーションから実際の四肢装置UAVハードウェアまで、さまざまな環境にわたるこれらの制御アルゴリズムのパフォーマンスをテストし、トレーニング環境を超えて展開されたときのパフォーマンスの潜在的な劣化を理解することに特に焦点を当てています。
要約(オリジナル)
With the increasingly congested and contested space environment, safe and effective satellite operation has become increasingly challenging. As a result, there is growing interest in autonomous satellite capabilities, with common machine learning techniques gaining attention for their potential to address complex decision-making in the space domain. However, the ‘black-box’ nature of many of these methods results in difficulty understanding the model’s input/output relationship and more specifically its sensitivity to environmental disturbances, sensor noise, and control intervention. This paper explores the use of Deep Reinforcement Learning (DRL) for satellite control in multi-agent inspection tasks. The Local Intelligent Network of Collaborative Satellites (LINCS) Lab is used to test the performance of these control algorithms across different environments, from simulations to real-world quadrotor UAV hardware, with a particular focus on understanding their behavior and potential degradation in performance when deployed beyond the training environment.
arxiv情報
| 著者 | Henry Lei,Joshua Aurand,Zachary S. Lippay,Sean Phillips |
| 発行日 | 2025-02-27 21:53:52+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google