要約
分類器を棄権するには、分類が困難なインスタンスの予測の提供を控えるオプションがあります。
棄権メカニズムは、最小数の予測を確保しながら、受け入れられたデータでの分類器のパフォーマンスをトレードオフするように設計されています。
この設定では、多くの場合、棄権メカニズムがデータの大多数グループのエラーを減らすだけで、人口統計グループ全体でパフォーマンスの違いが増加すると、公平性の懸念が生じます。
棄権するときに差別を減らすことを目的とする多くの方法が存在しますが、説明可能な方法でそうすることができるメカニズムはありません。
このホワイトペーパーでは、このギャップを埋めて、不確実性と不公平の両方に基づいて予測を拒否できるアルゴリズムである解釈可能で公正な分類器IFACを導入します。
おそらく不公平な予測を拒否することにより、私たちの方法は、拒否されていないデータの人口統計グループ間のエラーと正の決定率の差を減らします。
不公平に基づいた拒否は、解釈可能な設計方法、つまりルールベースの公正チェックと状況テストに基づいているため、人間の意思決定者が不公平な予測をレビューし、より正当な意思決定を行うことができる透明なプロセスを作成します。
この説明可能な側面は、最近のAI規制に照らして特に重要であり、差別のリスクを減らすために人間の専門家が高リスクの決定タスクを監督すべきであることを義務付けています。
要約(オリジナル)
Abstaining classifiers have the option to refrain from providing a prediction for instances that are difficult to classify. The abstention mechanism is designed to trade off the classifier’s performance on the accepted data while ensuring a minimum number of predictions. In this setting, often fairness concerns arise when the abstention mechanism solely reduces errors for the majority groups of the data, resulting in increased performance differences across demographic groups. While there exist a bunch of methods that aim to reduce discrimination when abstaining, there is no mechanism that can do so in an explainable way. In this paper, we fill this gap by introducing Interpretable and Fair Abstaining Classifier IFAC, an algorithm that can reject predictions both based on their uncertainty and their unfairness. By rejecting possibly unfair predictions, our method reduces error and positive decision rate differences across demographic groups of the non-rejected data. Since the unfairness-based rejections are based on an interpretable-by-design method, i.e., rule-based fairness checks and situation testing, we create a transparent process that can empower human decision-makers to review the unfair predictions and make more just decisions for them. This explainable aspect is especially important in light of recent AI regulations, mandating that any high-risk decision task should be overseen by human experts to reduce discrimination risks.
arxiv情報
著者 | Daphne Lenders,Andrea Pugnana,Roberto Pellungrini,Toon Calders,Dino Pedreschi,Fosca Giannotti |
発行日 | 2025-03-24 16:06:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google