On the Trade-Off between Actionable Explanations and the Right to be Forgotten

要約

機械学習 (ML) モデルが一か八かのアプリケーションに導入されることが増えているため、政策立案者はより厳格なデータ保護規制 (GDPR、CCPA など) を提案しています。
重要な原則の 1 つは、ユーザーにデータを削除してもらう権利を与える「忘れられる権利」です。
もう 1 つの重要な原則は、ユーザーが不利な決定を覆すことを可能にする、アルゴリズム的救済とも呼ばれる実用的な説明に対する権利です。
現在までのところ、これら 2 つの原則を同時に運用できるかどうかは不明です。
したがって、私たちはデータ削除要求の文脈における求償権無効化の問題を紹介し、研究します。
より具体的には、私たちは、人気のある最先端のアルゴリズムの動作を理論的および経験的に分析し、少数のデータ削除リクエスト (例: 1 つまたは 2 つ) が正当な場合、これらのアルゴリズムによって生成された手段が無効になる可能性が高いことを実証します。
予測モデルの更新。
微分可能なモデルの設定については、削除されたときに無効化されたリソースの割合を最大化する重要なトレーニング ポイントの最小限のサブセットを特定するフレームワークを提案します。
私たちのフレームワークを使用すると、トレーニング セットからわずか 2 つのデータ インスタンスを削除するだけで、一般的な最先端のアルゴリズムによって出力されるすべてのリソースの最大 95 パーセントが無効になる可能性があることが経験的に示されています。
したがって、私たちの研究は、「忘れられる権利」の文脈における「実行可能な説明に対する権利」の適合性に関する根本的な疑問を提起すると同時に、求償権の堅牢性の決定要因に関する建設的な洞察を提供します。

要約(オリジナル)

As machine learning (ML) models are increasingly being deployed in high-stakes applications, policymakers have suggested tighter data protection regulations (e.g., GDPR, CCPA). One key principle is the ‘right to be forgotten’ which gives users the right to have their data deleted. Another key principle is the right to an actionable explanation, also known as algorithmic recourse, allowing users to reverse unfavorable decisions. To date, it is unknown whether these two principles can be operationalized simultaneously. Therefore, we introduce and study the problem of recourse invalidation in the context of data deletion requests. More specifically, we theoretically and empirically analyze the behavior of popular state-of-the-art algorithms and demonstrate that the recourses generated by these algorithms are likely to be invalidated if a small number of data deletion requests (e.g., 1 or 2) warrant updates of the predictive model. For the setting of differentiable models, we suggest a framework to identify a minimal subset of critical training points which, when removed, maximize the fraction of invalidated recourses. Using our framework, we empirically show that the removal of as little as 2 data instances from the training set can invalidate up to 95 percent of all recourses output by popular state-of-the-art algorithms. Thus, our work raises fundamental questions about the compatibility of ‘the right to an actionable explanation’ in the context of the ‘right to be forgotten’, while also providing constructive insights on the determining factors of recourse robustness.

arxiv情報

著者 Martin Pawelczyk,Tobias Leemann,Asia Biega,Gjergji Kasneci
発行日 2023-10-11 15:34:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク