Explaining Strategic Decisions in Multi-Agent Reinforcement Learning for Aerial Combat Tactics

要約

人工知能(AI)は、複雑なシナリオで自律エージェント間の調整を可能にするマルチエージェント強化学習(MARL)を使用して、戦略的計画を再構築しています。
ただし、デリケートな軍事的文脈における実際の展開は、説明可能性の欠如によって制約されています。これは、人間の戦略との信頼、安全性、および整合の重要な要因です。
この作業は、シミュレートされた空気戦闘シナリオに焦点を当てて、MARLの説明可能性方法の現在の進歩をレビューおよび評価します。
さまざまな説明可能性の手法をさまざまな空中戦闘シナリオに適応させて、モデルの動作に関する説明的な洞察を得ることに進みます。
AIに生成された戦術を人間に理解できない推論とリンクすることにより、信頼できる展開と意味のある人間の相互作用を確保するための透明性の必要性を強調します。
運用上の防御のためにMARLを前進させる際の説明可能性の重要な重要性を明らかにすることにより、私たちの仕事は戦略的計画だけでなく、洞察に満ちた包括的な分析で軍人の訓練もサポートしています。

要約(オリジナル)

Artificial intelligence (AI) is reshaping strategic planning, with Multi-Agent Reinforcement Learning (MARL) enabling coordination among autonomous agents in complex scenarios. However, its practical deployment in sensitive military contexts is constrained by the lack of explainability, which is an essential factor for trust, safety, and alignment with human strategies. This work reviews and assesses current advances in explainability methods for MARL with a focus on simulated air combat scenarios. We proceed by adapting various explainability techniques to different aerial combat scenarios to gain explanatory insights about the model behavior. By linking AI-generated tactics with human-understandable reasoning, we emphasize the need for transparency to ensure reliable deployment and meaningful human-machine interaction. By illuminating the crucial importance of explainability in advancing MARL for operational defense, our work supports not only strategic planning but also the training of military personnel with insightful and comprehensible analyses.

arxiv情報

著者 Ardian Selmonaj,Alessandro Antonucci,Adrian Schneider,Michael Rüegsegger,Matthias Sommer
発行日 2025-05-16 14:36:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA パーマリンク