Sequential Informed Federated Unlearning: Efficient and Provable Client Unlearning in Federated Optimization

要約

タイトル:シーケンシャルインフォームドフェデレーテッドアンラーニング:効率的で証明可能なクライアントアンラーニング

要約:
– 機械アンラーニング(MU)の目的は、トレーニング手順から特定のデータポイントの寄与を削除することに関する理論的保証を提供することです。
– フェデレーテッドアンラーニング(FU)は、フェデレーテッドトレーニング手順から特定のクライアントの寄与を削除するMUを拡張することです。
– 現在のFUアプローチは一般的に拡張性がなく、アンラーニングの効果の証明された理論的量化がないことが多い。
– 本研究では、効率的かつ量化可能なFUアプローチであるInformed Federated Unlearning(IFU)を提供する。
– 特定のクライアントからのアンラーニング要求に応じて、IFUはランダムパーティクルメカニズムを用いてアンラーニングが必要なFL反復回数を特定し、アンラーニングの保証を得ます。
– IFUの理論は、シーケンシャルなアンラーニング要求を考慮して拡張されています。
– 異なるタスクとデータセットでの実験結果は、IFUが基本的な再トレーニングと最先端のFUアプローチよりも効率的なアンラーニング手順につながることを示しています。

要約(オリジナル)

The aim of Machine Unlearning (MU) is to provide theoretical guarantees on the removal of the contribution of a given data point from a training procedure. Federated Unlearning (FU) consists in extending MU to unlearn a given client’s contribution from a federated training routine. Current FU approaches are generally not scalable, and do not come with sound theoretical quantification of the effectiveness of unlearning. In this work we present Informed Federated Unlearning (IFU), a novel efficient and quantifiable FU approach. Upon unlearning request from a given client, IFU identifies the optimal FL iteration from which FL has to be reinitialized, with unlearning guarantees obtained through a randomized perturbation mechanism. The theory of IFU is also extended to account for sequential unlearning requests. Experimental results on different tasks and dataset show that IFU leads to more efficient unlearning procedures as compared to basic re-training and state-of-the-art FU approaches.

arxiv情報

著者 Yann Fraboni,Richard Vidal,Laetitia Kameni,Marco Lorenzi
発行日 2023-04-18 07:26:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク