Private Counterfactual Retrieval

要約

透明性と説明可能性は、リスクの高いアプリケーションでブラックボックス機械学習モデルを採用する際に考慮すべき非常に重要な 2 つの側面です。
反事実の説明を提供することは、この要件を満たす 1 つの方法です。
しかし、これは説明を行う機関と説明を求める利用者の両方のプライバシーを脅かすものでもあります。
この研究では、反事実の説明を取得するときに \emph{ユーザーのプライバシー} を確保する個人情報検索 (PIR) 技術に触発された複数のスキームを提案します。
私たちは、ユーザーの完全な (情報理論的) プライバシーを達成しながら、受け入れられた点のデータベースから \emph{正確な} 最近傍の反事実的説明を取得するスキームを提示します。
このスキームはユーザーに対して完全なプライバシーを実現しますが、データベース上でのある程度の漏洩は避けられません。相互情報ベースのメトリクスを使用して定量化します。
さらに、高度なデータベース プライバシーを達成するために、この漏洩を削減する戦略を提案します。
これらのスキームを拡張して、属性の変換に関するユーザーの好みを組み込むことで、より実用的な説明を受け取ることができます。
私たちのスキームは有限体の演算に依存しているため、精度と有限体のサイズの間のトレードオフを理解するために、実際のデータセットでスキームを経験的に検証します。

要約(オリジナル)

Transparency and explainability are two extremely important aspects to be considered when employing black-box machine learning models in high-stake applications. Providing counterfactual explanations is one way of catering this requirement. However, this also poses a threat to the privacy of both the institution that is providing the explanation as well as the user who is requesting it. In this work, we propose multiple schemes inspired by private information retrieval (PIR) techniques which ensure the \emph{user’s privacy} when retrieving counterfactual explanations. We present a scheme which retrieves the \emph{exact} nearest neighbor counterfactual explanation from a database of accepted points while achieving perfect (information-theoretic) privacy for the user. While the scheme achieves perfect privacy for the user, some leakage on the database is inevitable which we quantify using a mutual information based metric. Furthermore, we propose strategies to reduce this leakage to achieve an advanced degree of database privacy. We extend these schemes to incorporate user’s preference on transforming their attributes, so that a more actionable explanation can be received. Since our schemes rely on finite field arithmetic, we empirically validate our schemes on real datasets to understand the trade-off between the accuracy and the finite field sizes.

arxiv情報

著者 Mohamed Nomeir,Pasan Dissanayake,Shreya Meel,Sanghamitra Dutta,Sennur Ulukus
発行日 2024-10-17 17:45:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.IT, cs.LG, eess.SP, math.IT パーマリンク