要約
敵対的攻撃に対する機械学習モデルの脆弱性は、近年かなりの注目を集めています。
ほとんどの既存の研究は、スタンドアロンの単一エージェント学習者の行動に焦点を当てています。
対照的に、この研究では、個々のエージェントが空間全体でさまざまな強度レベルの摂動にさらされる、グラフに対する敵対的トレーニングを研究しています。
リンクされたエージェントによる相互作用、およびグラフ上で可能な攻撃モデルの異質性は、グループの調整力を考慮して堅牢性を高めるのに役立つことが期待されます。
拡散学習の最小最大定式化を使用して、マルチエージェント システム用の分散型敵対的トレーニング フレームワークを開発します。
凸環境と非凸環境の両方に対して提案されたスキームの収束特性を分析し、敵対的攻撃に対する強化された堅牢性を示します。
要約(オリジナル)
The vulnerability of machine learning models to adversarial attacks has been attracting considerable attention in recent years. Most existing studies focus on the behavior of stand-alone single-agent learners. In comparison, this work studies adversarial training over graphs, where individual agents are subjected to perturbations of varied strength levels across space. It is expected that interactions by linked agents, and the heterogeneity of the attack models that are possible over the graph, can help enhance robustness in view of the coordination power of the group. Using a min-max formulation of diffusion learning, we develop a decentralized adversarial training framework for multi-agent systems. We analyze the convergence properties of the proposed scheme for both convex and non-convex environments, and illustrate the enhanced robustness to adversarial attacks.
arxiv情報
著者 | Ying Cao,Elsa Rizk,Stefan Vlaski,Ali H. Sayed |
発行日 | 2023-03-23 15:05:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google