XAudit : A Theoretical Look at Auditing with Explanations

要約

機械学習を責任を持って使用するには、モデルに望ましくない特性がないか監査する必要があります。
一連の研究では、監査に説明を使用することが提案されていますが、その方法とその理由は比較的よく理解されていません。
この研究では、監査における説明の役割を形式化し、モデルの説明が監査に役立つかどうか、またどのように役立つかを調査します。
具体的には、特徴感度の線形分類器と決定木を監査するための説明ベースのアルゴリズムを提案します。
私たちの結果は、反事実の説明が監査に非常に役立つことを示しています。
アンカーと意思決定パスは、最悪の場合にはそれほど有益ではないかもしれませんが、平均的な場合には大いに役立ちます。

要約(オリジナル)

Responsible use of machine learning requires models to be audited for undesirable properties. While a body of work has proposed using explanations for auditing, how to do so and why has remained relatively ill-understood. This work formalizes the role of explanations in auditing and investigates if and how model explanations can help audits. Specifically, we propose explanation-based algorithms for auditing linear classifiers and decision trees for feature sensitivity. Our results illustrate that Counterfactual explanations are extremely helpful for auditing. While Anchors and decision paths may not be as beneficial in the worst-case, in the average-case they do aid a lot.

arxiv情報

著者 Chhavi Yadav,Michal Moshkovitz,Kamalika Chaudhuri
発行日 2023-06-05 15:38:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク