要約
この論文では、選択した連合学習モデルに対する敵対的攻撃を実証的に分析します。
考慮される具体的な学習モデルは、多項ロジスティック回帰 (MLR)、サポート ベクター分類器 (SVC)、多層パーセプトロン (MLP)、畳み込みニューラル ネットワーク (CNN)、%リカレント ニューラル ネットワーク (RNN)、ランダム フォレスト、XGBoost、Long Short です。
用語記憶 (LSTM)。
各モデルについて、ラベル反転攻撃をシミュレートし、10 個のフェデレーション クライアントと 100 個のフェデレーション クライアントを使用して広範囲に実験しました。
敵対的クライアントの割合を 10% から 100% まで変化させ、同時に、各敵対的クライアントによって反転されるラベルの割合も 10% から 100% まで変化させます。
他の結果の中でも、ラベル反転攻撃における 2 つのベクトルに対するモデルの固有の堅牢性、つまり、敵対的なクライアントの割合と、各敵対的なクライアントによって反転されるラベルの割合が異なることがわかりました。
私たちは、結果の潜在的な実際的な意味について議論します。
要約(オリジナル)
In this paper, we empirically analyze adversarial attacks on selected federated learning models. The specific learning models considered are Multinominal Logistic Regression (MLR), Support Vector Classifier (SVC), Multilayer Perceptron (MLP), Convolution Neural Network (CNN), %Recurrent Neural Network (RNN), Random Forest, XGBoost, and Long Short-Term Memory (LSTM). For each model, we simulate label-flipping attacks, experimenting extensively with 10 federated clients and 100 federated clients. We vary the percentage of adversarial clients from 10% to 100% and, simultaneously, the percentage of labels flipped by each adversarial client is also varied from 10% to 100%. Among other results, we find that models differ in their inherent robustness to the two vectors in our label-flipping attack, i.e., the percentage of adversarial clients, and the percentage of labels flipped by each adversarial client. We discuss the potential practical implications of our results.
arxiv情報
著者 | Kunal Bhatnagar,Sagana Chattanathan,Angela Dang,Bhargav Eranki,Ronnit Rana,Charan Sridhar,Siddharth Vedam,Angie Yao,Mark Stamp |
発行日 | 2024-12-24 15:47:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google