Fair Machine Unlearning: Data Removal while Mitigating Disparities

要約

企業による個人情報の収集と使用に対する国民の意識が高まるにつれ、消費者が企業データセットのキュレーションに積極的に参加することがますます重要になっています。
これを考慮して、一般データ保護規則 (GDPR) などのデータ ガバナンス フレームワークでは、個人が組織が使用するデータベースやモデルから個人データを削除するよう要求できるようにする重要な原則として、忘れられる権利について概説しています。
実際に忘却を実現するために、各再学習要求ごとにモデルを最初から再トレーニングする計算の非効率性に対処するために、いくつかの機械の再学習方法が提案されています。
再トレーニングに代わる効率的なオンライン代替手段ですが、これらの方法が公平性など、実世界のアプリケーションにとって重要な他の特性にどのような影響を与えるかは不明です。
この研究では、グループの公平性を維持しながらデータ インスタンスを証明可能かつ効率的にアンラーニングできる、最初の公平なマシンのアンラーニング手法を提案します。
私たちは、公平性の目標を維持しながら、私たちの方法がデータインスタンスを学習解除できることを実証する理論的結果を導き出しました。
実世界のデータセットを使った広範な実験により、公平性を維持しながらデータ インスタンスを学習解除する際のこの手法の有効性が明らかになりました。

要約(オリジナル)

As public consciousness regarding the collection and use of personal information by corporations grows, it is of increasing importance that consumers be active participants in the curation of corporate datasets. In light of this, data governance frameworks such as the General Data Protection Regulation (GDPR) have outlined the right to be forgotten as a key principle allowing individuals to request that their personal data be deleted from the databases and models used by organizations. To achieve forgetting in practice, several machine unlearning methods have been proposed to address the computational inefficiencies of retraining a model from scratch with each unlearning request. While efficient online alternatives to retraining, it is unclear how these methods impact other properties critical to real-world applications, such as fairness. In this work, we propose the first fair machine unlearning method that can provably and efficiently unlearn data instances while preserving group fairness. We derive theoretical results which demonstrate that our method can provably unlearn data instances while maintaining fairness objectives. Extensive experimentation with real-world datasets highlight the efficacy of our method at unlearning data instances while preserving fairness.

arxiv情報

著者 Alex Oesterling,Jiaqi Ma,Flavio P. Calmon,Hima Lakkaraju
発行日 2023-07-27 10:26:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク