Evaluating and Improving Graph-based Explanation Methods for Multi-Agent Coordination

要約

グラフ学習コミュニティによって開発されたグラフニューラルネットワーク(GNNS)は採用されており、マルチロボットおよびマルチエージェント学習に非常に効果的であることが示されています。
この成功した殺人に触発されて、私たちは、マルチエージェントの調整を説明するための既存のGNN説明方法の適合性を調査し、特徴付けます。
これらの方法には、チームの行動に影響を与える最も影響力のあるコミュニケーションチャネルを特定する可能性があることがわかります。
最初の分析から通知されて、GATベースのポリシーを既存のグラフベースの説明担当者により適したものにする注意エントロピー正規化用語を提案します。
直感的に、注意を最小限に抑えるエントロピーは、エージェントをインセンティブにして、最も影響力のあるエージェントまたはインパクトのあるエージェントへの注意を制限し、それにより説明者が直面する課題を緩和します。
私たちは、注意エントロピーを最小限に抑えることで、説明者が生成したサブグラフとその補体との格差を増加させることを示すことにより、理論的にはこの直感を根絶します。
3つのタスクと3つのチームサイズにわたる評価i)は、既存の説明担当者の有効性に関する洞察を提供し、ii)提案された正規化により、タスクのパフォーマンスを犠牲にすることなく説明の品質が一貫して改善されることが示されています。

要約(オリジナル)

Graph Neural Networks (GNNs), developed by the graph learning community, have been adopted and shown to be highly effective in multi-robot and multi-agent learning. Inspired by this successful cross-pollination, we investigate and characterize the suitability of existing GNN explanation methods for explaining multi-agent coordination. We find that these methods have the potential to identify the most-influential communication channels that impact the team’s behavior. Informed by our initial analyses, we propose an attention entropy regularization term that renders GAT-based policies more amenable to existing graph-based explainers. Intuitively, minimizing attention entropy incentivizes agents to limit their attention to the most influential or impactful agents, thereby easing the challenge faced by the explainer. We theoretically ground this intuition by showing that minimizing attention entropy increases the disparity between the explainer-generated subgraph and its complement. Evaluations across three tasks and three team sizes i) provides insights into the effectiveness of existing explainers, and ii) demonstrates that our proposed regularization consistently improves explanation quality without sacrificing task performance.

arxiv情報

著者 Siva Kailas,Shalin Jain,Harish Ravichandar
発行日 2025-02-14 03:25:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA, cs.RO パーマリンク