Natural Language Counterfactual Explanations for Graphs Using Large Language Models

要約

説明可能な人工知能(XAI)は、(深い)機械学習モデルの不透明な内部論理を解明するための研究の重要な分野として浮上しています。
文献で提案されているさまざまなXai技術の中で、反事実的な説明は、最も有望なアプローチの1つとして際立っています。
しかし、これらの「what-if」の説明はしばしば複雑で技術的であり、非専門家が理解するのが難しく、より広く、人間が解釈するのは困難です。
このギャップを埋めるために、この作業では、オープンソースの大規模な言語モデルの力を活用して、グラフベースのモデルの最先端の説明者によって生成された有効な反事実的インスタンスで促された場合、自然言語の説明を生成します。
いくつかのグラフデータセットと反事実的説明者の実験は、主要なパフォーマンスメトリックによって示されるように、私たちのアプローチが反事実的インスタンスの正確な自然言語表現を効果的に生成することを示しています。

要約(オリジナル)

Explainable Artificial Intelligence (XAI) has emerged as a critical area of research to unravel the opaque inner logic of (deep) machine learning models. Among the various XAI techniques proposed in the literature, counterfactual explanations stand out as one of the most promising approaches. However, these ‘what-if’ explanations are frequently complex and technical, making them difficult for non-experts to understand and, more broadly, challenging for humans to interpret. To bridge this gap, in this work, we exploit the power of open-source Large Language Models to generate natural language explanations when prompted with valid counterfactual instances produced by state-of-the-art explainers for graph-based models. Experiments across several graph datasets and counterfactual explainers show that our approach effectively produces accurate natural language representations of counterfactual instances, as demonstrated by key performance metrics.

arxiv情報

著者 Flavio Giorgi,Cesare Campagnano,Fabrizio Silvestri,Gabriele Tolomei
発行日 2025-01-27 13:30:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク