要約
従来のAI手法では、集中的なデータ収集が必要であったが、ネットワーク通信、データプライバシー、ストレージ容量の問題に直面した場合、これは現実的ではない。Federated Learning(FL)は、生データを収集することなく分散型AIモデルのトレーニングを可能にするパラダイムを提供する。FL学習中にプライバシーを提供するためのさまざまな選択肢がある。一般的な手法の1つは、同型暗号化(Homomorphic Encryption:HE)を採用することである。HEは、暗号学によるプライバシー保持計算のブレークスルーである。しかし、これらの方法には余分な計算とメモリフットプリントという代償がある。これらの問題を解決するために、我々は、古典暗号を採用することはFLの文脈では不可能であると考えられていたにもかかわらず、順列ベースの圧縮器と古典暗号を相乗させる革新的なフレームワークを提案する。本フレームワークは、HEをより安価な古典暗号プリミティブで置き換える方法を提供し、トレーニングプロセスの安全性を確保する。非同期通信を促進し、様々な通信トポロジーへの柔軟な展開オプションを提供する。
要約(オリジナル)
Traditional AI methodologies necessitate centralized data collection, which becomes impractical when facing problems with network communication, data privacy, or storage capacity. Federated Learning (FL) offers a paradigm that empowers distributed AI model training without collecting raw data. There are different choices for providing privacy during FL training. One of the popular methodologies is employing Homomorphic Encryption (HE) – a breakthrough in privacy-preserving computation from Cryptography. However, these methods have a price in the form of extra computation and memory footprint. To resolve these issues, we propose an innovative framework that synergizes permutation-based compressors with Classical Cryptography, even though employing Classical Cryptography was assumed to be impossible in the past in the context of FL. Our framework offers a way to replace HE with cheaper Classical Cryptography primitives which provides security for the training process. It fosters asynchronous communication and provides flexible deployment options in various communication topologies.
arxiv情報
著者 | Konstantin Burlachenko,Abdulmajeed Alrowithi,Fahad Ali Albalawi,Peter Richtarik |
発行日 | 2023-12-04 17:37:41+00:00 |
arxivサイト | arxiv_id(pdf) |