要約
機械学習モデルの敵対的な攻撃に対する脆弱性は、近年かなりの注目を集めています。
ほとんどの既存の研究は、スタンドアロンのシングルエージェント学習者の行動に焦点を当てています。
それに比べて、この作業は、個々のエージェントが空間全体のさまざまな強度レベルの摂動にさらされるグラフ上の敵対的なトレーニングを研究しています。
リンクされたエージェントによる相互作用、およびグラフ上で可能な攻撃モデルの不均一性は、グループの配位能力を考慮して堅牢性を高めるのに役立つと予想されます。
分散学習のMin-MAX定式化を使用して、マルチエージェントシステム向けの分散型敵対的なトレーニングフレームワークを開発します。
具体的には、2つの一般的な分散学習戦略(拡散とコンセンサス)に依存することにより、2つの分散型敵対的訓練アルゴリズムを考案します。
強く凸型、凸型、および非凸環境のための提案されたフレームワークの収束特性を分析し、敵対的な攻撃に対する強化された堅牢性を示します。
要約(オリジナル)
The vulnerability of machine learning models to adversarial attacks has been attracting considerable attention in recent years. Most existing studies focus on the behavior of stand-alone single-agent learners. In comparison, this work studies adversarial training over graphs, where individual agents are subjected to perturbations of varied strength levels across space. It is expected that interactions by linked agents, and the heterogeneity of the attack models that are possible over the graph, can help enhance robustness in view of the coordination power of the group. Using a min-max formulation of distributed learning, we develop a decentralized adversarial training framework for multi-agent systems. Specifically, we devise two decentralized adversarial training algorithms by relying on two popular decentralized learning strategies–diffusion and consensus. We analyze the convergence properties of the proposed framework for strongly-convex, convex, and non-convex environments, and illustrate the enhanced robustness to adversarial attacks.
arxiv情報
著者 | Ying Cao,Elsa Rizk,Stefan Vlaski,Ali H. Sayed |
発行日 | 2025-03-04 17:56:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google