要約
近年、議論的説明可能 AI が提唱されており、議論フレームワーク (AF) の推論結果の説明に対する関心が高まっています。
\emph{拡張ベースの意味論} の精神に基づいた議論/論争/対話による AF の推論結果を定性的に説明する研究は数多くありますが、\emph{段階的意味論} に基づく AF の定量的推論結果の説明は、
アプリケーションで広く使用されているにもかかわらず、あまり注目されていません。
この論文では、量的双極議論フレームワーク (QBAF) のコンテキストで機械学習からの特徴帰属の精神を組み込むことにより、 \emph{引数帰属説明 (AAE)} の新しい理論を提案することで、このギャップを埋めることに貢献します。
アトリビューションは機械学習モデルの出力に対する特徴の影響を判断するために使用され、AAE は対象の \emph{トピック引数} に対する引数の影響を判断するために使用されます。
私たちは、いくつかの新しいものや文献から私たちの設定に部分的に適応したものを含む、AAE の望ましい特性を研究しています。
実際の AAE の適用可能性を実証するために、最後に、フェイク ニュース検出と映画レコメンダー システムのシナリオで 2 つのケース スタディを実行します。
要約(オリジナル)
Argumentative explainable AI has been advocated by several in recent years, with an increasing interest on explaining the reasoning outcomes of Argumentation Frameworks (AFs). While there is a considerable body of research on qualitatively explaining the reasoning outcomes of AFs with debates/disputes/dialogues in the spirit of \emph{extension-based semantics}, explaining the quantitative reasoning outcomes of AFs under \emph{gradual semantics} has not received much attention, despite widespread use in applications. In this paper, we contribute to filling this gap by proposing a novel theory of \emph{Argument Attribution Explanations (AAEs)} by incorporating the spirit of feature attribution from machine learning in the context of Quantitative Bipolar Argumentation Frameworks (QBAFs): whereas feature attribution is used to determine the influence of features towards outputs of machine learning models, AAEs are used to determine the influence of arguments towards \emph{topic argument}s of interest. We study desirable properties of AAEs, including some new ones and some partially adapted from the literature to our setting. To demonstrate the applicability of our AAEs in practice, we conclude by carrying out two case studies in the scenarios of fake news detection and movie recommender systems.
arxiv情報
著者 | Xiang Yin,Nico Potyka,Francesca Toni |
発行日 | 2023-07-25 15:36:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google