要約
ナレッジ ベースは情報管理に広く使用されており、Web 検索、質問応答、自然言語処理などの影響力の高いアプリケーションを可能にします。
また、医療診断や信用スコアリングなどの自動決定システムのバックボーンとしても機能します。
これらの決定によって影響を受ける利害関係者は、自らの状況を理解し、決定がどれほど公平であるかを検証したいと考えているため、多くの説明アプローチが提案されています。
本質的に透過的な分類方法は、記述ロジックで概念を使用することです。
ただし、これらの概念は、たとえ言語化されたとしても、長くなり、専門家以外の人にとって理解するのが困難になる場合があります。
1 つの解決策は、「別の分類を取得するには、特徴値をどのように変更する必要がありますか?」という質問に答えるために反事実を使用することです。最小限の特徴変更に焦点を当てることで、説明は短く、人に優しく、明確な道筋を提供します。
予測の変化に対するアクション。
以前の研究では表形式データの反事実を調査しましたが、この論文では、反事実の概念を知識ベースと記述ロジック $\mathcal{ELH}$ に移します。
私たちのアプローチは、概念から反事実の候補を生成することから始まり、次に機能の変更が最も少ない候補を反事実として選択します。
複数の反事実が存在する場合、特徴の組み合わせの可能性に基づいてそれらをランク付けします。
私たちは、ユーザー調査を実施して、参加者がどの反事実候補の説明を好むかを決定することによって私たちの方法を評価します。
要約(オリジナル)
Knowledge bases are widely used for information management, enabling high-impact applications such as web search, question answering, and natural language processing. They also serve as the backbone for automatic decision systems, e.g., for medical diagnostics and credit scoring. As stakeholders affected by these decisions would like to understand their situation and verify how fair the decisions are, a number of explanation approaches have been proposed. An intrinsically transparent way to do classification is by using concepts in description logics. However, these concepts can become long and difficult to fathom for non-experts, even when verbalized. One solution is to employ counterfactuals to answer the question, “How must feature values be changed to obtain a different classification?” By focusing on the minimal feature changes, the explanations are short, human-friendly, and provide a clear path of action regarding the change in prediction. While previous work investigated counterfactuals for tabular data, in this paper, we transfer the notion of counterfactuals to knowledge bases and the description logic $\mathcal{ELH}$. Our approach starts by generating counterfactual candidates from concepts, followed by selecting the candidates requiring the fewest feature changes as counterfactuals. When multiple counterfactuals exist, we rank them based on the likeliness of their feature combinations. We evaluate our method by conducting a user survey to determine which counterfactual candidates participants prefer for explanation.
arxiv情報
著者 | Leonie Nora Sieger,Stefan Heindorf,Yasir Mahmood,Lukas Blübaum,Axel-Cyrille Ngonga Ngomo |
発行日 | 2023-10-04 14:33:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google