Attacks on Robust Distributed Learning Schemes via Sensitivity Curve Maximization

要約

タイトル:感度曲線最大化による頑健な分散学習スキーム攻撃

要約:
– 分散学習は、一連のエージェントが限られた地元的な相互作用を通じて、グローバルな学習問題や最適化問題を解決することを可能にする。
– 多くの分散学習戦略は、ピア間や中央融合センターでのローカルな適応と集約の混合に依存している。
– 分散学習での集約は統計的に効率的であるが、少数の悪意のあるエージェントに攻撃される可能性がある。
– 応用最大化に基づく新しい攻撃を提示し、小さいが効果的な摂動を注入することで既存の頑健な集約スキームを妨害することができることを示す。

要約(オリジナル)

Distributed learning paradigms, such as federated or decentralized learning, allow a collection of agents to solve global learning and optimization problems through limited local interactions. Most such strategies rely on a mixture of local adaptation and aggregation steps, either among peers or at a central fusion center. Classically, aggregation in distributed learning is based on averaging, which is statistically efficient, but susceptible to attacks by even a small number of malicious agents. This observation has motivated a number of recent works, which develop robust aggregation schemes by employing robust variations of the mean. We present a new attack based on sensitivity curve maximization (SCM), and demonstrate that it is able to disrupt existing robust aggregation schemes by injecting small, but effective perturbations.

arxiv情報

著者 Christian A. Schroth,Stefan Vlaski,Abdelhak M. Zoubir
発行日 2023-04-27 08:41:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.LG, eess.SP パーマリンク