要約
Explainable AI (XAI) の分野が成熟するにつれて、AI モデル (の出力) に対するインタラクティブな説明を求める声が高まっていますが、最先端技術は主に静的な説明に焦点を当てています。
この論文では、代わりに、計算論的議論を活用することによる、エージェント (つまり、AI モデルおよび/または人間) 間の競合解決として構成された対話型の説明に焦点を当てます。
具体的には、エージェント間の対立を解決するために、個々のエージェントの定量的双極議論フレームワークに含まれる情報をマルチエージェントシステムで動的に共有するための議論交換 (AX) を定義します。
次に、マシンと人間がマシンの予測について対話する XAI 設定に AX をデプロイします。
XAI に適した AX を特徴付けるいくつかの理論的特性を特定し、評価します。
最後に、さまざまなエージェントの動作を定義して、XAI の AX をインスタンス化します。
機械における反事実的な推論パターンを捉え、人間における認知バイアスの影響を浮き彫りにします。
私たちは、競合解決の観点からこれらの行動の比較上の利点を実験的に (シミュレートされた環境で) 示し、最も強力な議論が常に最も効果的であるとは限らないことを示します。
要約(オリジナル)
As the field of explainable AI (XAI) is maturing, calls for interactive explanations for (the outputs of) AI models are growing, but the state-of-the-art predominantly focuses on static explanations. In this paper, we focus instead on interactive explanations framed as conflict resolution between agents (i.e. AI models and/or humans) by leveraging on computational argumentation. Specifically, we define Argumentative eXchanges (AXs) for dynamically sharing, in multi-agent systems, information harboured in individual agents’ quantitative bipolar argumentation frameworks towards resolving conflicts amongst the agents. We then deploy AXs in the XAI setting in which a machine and a human interact about the machine’s predictions. We identify and assess several theoretical properties characterising AXs that are suitable for XAI. Finally, we instantiate AXs for XAI by defining various agent behaviours, e.g. capturing counterfactual patterns of reasoning in machines and highlighting the effects of cognitive biases in humans. We show experimentally (in a simulated environment) the comparative advantages of these behaviours in terms of conflict resolution, and show that the strongest argument may not always be the most effective.
arxiv情報
著者 | Antonio Rago,Hengzhi Li,Francesca Toni |
発行日 | 2023-06-09 16:20:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google