A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning

要約

フェデレーテッド ラーニングは、分散型デバイスまたはサーバー上でモデルのトレーニングをサポートする機械学習手法です。分散型デバイスまたはサーバーでは、それぞれがローカル データを保持するため、データ交換の必要がなくなります。
このアプローチは、機密データを共有することなくトレーニングできるため、医療分野で特に役立ちます。
フェデレーション ラーニングの性質上、通信中のデータ漏洩の懸念があるため、堅牢なセキュリティ予防措置が必要です。
この問題に対処するために、選択的暗号化、準同型暗号化、差分プライバシー、およびビット単位のスクランブルを採用して、良好な実行パフォーマンスを達成しながらデータ漏洩を最小限に抑える新しいアプローチを提案します。
当社の技術である FAS (高速かつ安全なフェデレーテッド ラーニング) は、医療画像データに関する深層学習モデルをトレーニングするために使用されます。
Flower フレームワークを使用して手法を実装し、同じく選択的準同型暗号化を使用する最先端のフェデレーテッド ラーニング アプローチと比較しました。
私たちの実験は 11 台の物理マシンのクラスターで実行され、さまざまなデータセット上で現実世界のフェデレーテッド ラーニング シナリオが作成されました。
私たちのアプローチは、モデルの重みに完全準同型暗号化を適用するよりも最大 90\% 高速であることがわかりました。
さらに、競合他社が必要とする事前トレーニング手順を回避でき、合計実行時間を最大 20\% 節約できます。
私たちのアプローチはより高速でしたが、競合他社と同様のセキュリティ結果が得られました。

要約(オリジナル)

Federated learning is a machine learning method that supports training models on decentralized devices or servers, where each holds its local data, removing the need for data exchange. This approach is especially useful in healthcare, as it enables training on sensitive data without needing to share them. The nature of federated learning necessitates robust security precautions due to data leakage concerns during communication. To address this issue, we propose a new approach that employs selective encryption, homomorphic encryption, differential privacy, and bit-wise scrambling to minimize data leakage while achieving good execution performance. Our technique , FAS (fast and secure federated learning) is used to train deep learning models on medical imaging data. We implemented our technique using the Flower framework and compared with a state-of-the-art federated learning approach that also uses selective homomorphic encryption. Our experiments were run in a cluster of eleven physical machines to create a real-world federated learning scenario on different datasets. We observed that our approach is up to 90\% faster than applying fully homomorphic encryption on the model weights. In addition, we can avoid the pretraining step that is required by our competitor and can save up to 20\% in terms of total execution time. While our approach was faster, it obtained similar security results as the competitor.

arxiv情報

著者 Abdulkadir Korkmaz,Praveen Rao
発行日 2025-01-22 14:37:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: C.2.4, cs.CR, cs.DC, cs.LG パーマリンク