$\mathsf{OPA}$: One-shot Private Aggregation with Single Client Interaction and its Applications to Federated Learning

要約

私たちの取り組みは、特に多くのクライアントが存在するシナリオでは、通信ラウンドに伴うコストと課題が高くなるため、安全な計算におけるインタラクションを最小限に抑えることを目的としています。
この作業では、単一サーバー設定での安全な集約の問題を再検討します。単一サーバー設定では、単一の評価サーバーがクライアントが保持する個別の入力を安全に集約できます。
私たちの主な貢献は、クライアントが集計評価ごとに 1 回だけ発言する (または発言しないことを選択することもできる) ワンショット プライベート集約 ($\mathsf{OPA}$) の導入です。
各クライアントはアグリゲーションごとに 1 回だけ通信するため、マルチラウンド プロトコルとは対照的に、ドロップアウトと動的参加の管理が簡素化され、クライアントが 1 回だけ対話するプレーンテキストのセキュア アグリゲーションと連携します。
私たちは、LWR、LWE、クラスグループ、DCR に基づいて $\mathsf{OPA}$ を構築し、クライアントが \emph{1 回だけ話す}プライバシーを保護するフェデレーテッド ラーニング (FL) へのアプリケーションを実証します。
これは、Bonawitz らによって研究が開始された以前のマルチラウンド FL プロトコルとは大きく異なります。
(CCS、2017)。
さらに、一般的な安全な計算のための YOSO (You Only Speak Once) モデルとは異なり、$\mathsf{OPA}$ は複雑な委員会選択プロトコルを排除して適応型セキュリティを実現します。
$\mathsf{OPA}$ は漸近的な改善を超えて実用的であり、最先端のソリューションを上回ります。
2 つのデータセットのロジスティック回帰分類器のベンチマークを行うと同時に、MNIST、CIFAR-10、および CIFAR-100 データセットでトレーニングするための MLP 分類器も構築します。
$\caps$ の 2 つのフレーバーを構築します (1) (しきい値) キー準同型 PRF から、(2) シード準同型 PRG と秘密共有から。

要約(オリジナル)

Our work aims to minimize interaction in secure computation due to the high cost and challenges associated with communication rounds, particularly in scenarios with many clients. In this work, we revisit the problem of secure aggregation in the single-server setting where a single evaluation server can securely aggregate client-held individual inputs. Our key contribution is the introduction of One-shot Private Aggregation ($\mathsf{OPA}$) where clients speak only once (or even choose not to speak) per aggregation evaluation. Since each client communicates only once per aggregation, this simplifies managing dropouts and dynamic participation, contrasting with multi-round protocols and aligning with plaintext secure aggregation, where clients interact only once. We construct $\mathsf{OPA}$ based on LWR, LWE, class groups, DCR and demonstrate applications to privacy-preserving Federated Learning (FL) where clients \emph{speak once}. This is a sharp departure from prior multi-round FL protocols whose study was initiated by Bonawitz et al. (CCS, 2017). Moreover, unlike the YOSO (You Only Speak Once) model for general secure computation, $\mathsf{OPA}$ eliminates complex committee selection protocols to achieve adaptive security. Beyond asymptotic improvements, $\mathsf{OPA}$ is practical, outperforming state-of-the-art solutions. We benchmark logistic regression classifiers for two datasets, while also building an MLP classifier to train on MNIST, CIFAR-10, and CIFAR-100 datasets. We build two flavors of $\caps$ (1) from (threshold) key homomorphic PRF and (2) from seed homomorphic PRG and secret sharing.

arxiv情報

著者 Harish Karthikeyan,Antigoni Polychroniadou
発行日 2024-10-29 17:50:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG, I.2 パーマリンク