要約
トレーニング データセットのクラスの不均衡は、機械学習モデルの偏りや汎化の低下につながる可能性があります。
集中学習環境ではトレーニング データセットの前処理によってこれらの両方の問題に効率的に対処できますが、フェデレーテッド ラーニングなどの分散学習環境ではこれらの問題を検出して対処するのは困難です。
この論文では、フェデレーテッド ラーニングにおけるグローバルなクラスの不均衡に関連する問題に対処するプライバシー保護フレームワークである FLICKER を提案します。
私たちの貢献の中心となるのは、人気のある CKKS 準同型暗号化スキームです。これは、クライアントがデータ属性をプライベートに共有し、その後 FL スキームを実装する前にデータセットのバランスをとるために使用されます。
広範な実験結果は、私たちが提案した方法を一般的なデータセットおよび関連するベースラインとともに使用すると、FL 精度の数値が大幅に向上することを示しています。
要約(オリジナル)
Class imbalance in training datasets can lead to bias and poor generalization in machine learning models. While pre-processing of training datasets can efficiently address both these issues in centralized learning environments, it is challenging to detect and address these issues in a distributed learning environment such as federated learning. In this paper, we propose FLICKER, a privacy preserving framework to address issues related to global class imbalance in federated learning. At the heart of our contribution lies the popular CKKS homomorphic encryption scheme, which is used by the clients to privately share their data attributes, and subsequently balance their datasets before implementing the FL scheme. Extensive experimental results show that our proposed method significantly improves the FL accuracy numbers when used along with popular datasets and relevant baselines.
arxiv情報
著者 | Arpit Guleria,J. Harshan,Ranjitha Prasad,B. N. Bharath |
発行日 | 2024-10-28 16:35:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google