FedVS: Straggler-Resilient and Privacy-Preserving Vertical Federated Learning for Split Models

要約

タイトル:Splitモデル用のStraggler耐性とプライバシー保護が可能なFedVSを提案

要約:
– 中央サーバーと分散クライアントから構成されるVertical Federated Learning(VFL)システムでは、トレーニングデータは異なるクライアントにそれぞれプライベートに保持される。
– Split VFLにおける課題は、サーバーとクライアントに分かれてモデルをトレーニングすることである。
– この論文は、Split VFLにおける2つの主要な課題、つまりトレーニング中のStragglerクライアントによる性能低下とクライアントのプライバシー漏洩を解決するためのFedVSを提案する。
– FedVSのキーとなるアイデアは、クライアントの共同作業や興味本位のサーバーに対して情報理論上のプライバシーが保証されるローカルデータとモデルの秘密共有スキームを設計し、非Stragglerクライアントから計算共有を復号化してすべてのクライアントの埋め込みを損失なく集約することである。
– Tabular、CV、およびマルチビューなどの様々なVFLデータセット上での詳細な実験結果は、FedVSがベースラインプロトコルよりもStraggler対策とプライバシー保護の普遍的な利点を示している。

要約(オリジナル)

In a vertical federated learning (VFL) system consisting of a central server and many distributed clients, the training data are vertically partitioned such that different features are privately stored on different clients. The problem of split VFL is to train a model split between the server and the clients. This paper aims to address two major challenges in split VFL: 1) performance degradation due to straggling clients during training; and 2) data and model privacy leakage from clients’ uploaded data embeddings. We propose FedVS to simultaneously address these two challenges. The key idea of FedVS is to design secret sharing schemes for the local data and models, such that information-theoretical privacy against colluding clients and curious server is guaranteed, and the aggregation of all clients’ embeddings is reconstructed losslessly, via decrypting computation shares from the non-straggling clients. Extensive experiments on various types of VFL datasets (including tabular, CV, and multi-view) demonstrate the universal advantages of FedVS in straggler mitigation and privacy protection over baseline protocols.

arxiv情報

著者 Songze Li,Duanyi Yao,Jin Liu
発行日 2023-04-26 09:41:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT パーマリンク