要約
分散学習では、エージェントはグローバルな学習問題を協力して解決することを目的としています。
ネットワークのサイズが大きくなるにつれて、個々のエージェントに悪意があるか欠陥がある可能性がますます高くなります。
これは学習プロセスの退化または完全な崩壊につながります。
古典的な集計スキームは汚染率が低いと機能不全に陥る傾向があるため、堅牢な集計スキームが求められています。
堅牢な集約スキームは一般に、より大きな汚染率を許容できますが、その多くは慎重に作成された悪意のある攻撃の影響を受けやすいことが示されています。
この研究では、堅牢な統計から得られる古典的なツールである感度曲線 (SC) を使用して、任意の堅牢なアグリゲーターに対する最適な攻撃パターンを体系的に導き出し、ほとんどの場合それらを無効にする方法を示します。
提案された攻撃の有効性を複数のシミュレーションで示します。
要約(オリジナル)
In distributed learning agents aim at collaboratively solving a global learning problem. It becomes more and more likely that individual agents are malicious or faulty with an increasing size of the network. This leads to a degeneration or complete breakdown of the learning process. Classical aggregation schemes are prone to breakdown at small contamination rates, therefore robust aggregation schemes are sought for. While robust aggregation schemes can generally tolerate larger contamination rates, many have been shown to be susceptible to carefully crafted malicious attacks. In this work, we show how the sensitivity curve (SC), a classical tool from robust statistics, can be used to systematically derive optimal attack patterns against arbitrary robust aggregators, in most cases rendering them ineffective. We show the effectiveness of the proposed attack in multiple simulations.
arxiv情報
著者 | Christian A. Schroth,Stefan Vlaski,Abdelhak M. Zoubir |
発行日 | 2024-12-23 17:44:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google