Intrinsic Subgraph Generation for Interpretable Graph based Visual Question Answering

要約

Visual Question Answering (VQA) における深層学習ベースの手法が大成功を収めたことにより、同時に説明可能な手法への需要も高まっています。
Explainable Artificial Intelligence (XAI) のほとんどのメソッドは、本質的なアプローチを取るのではなく、事後的な説明を生成することに焦点を当てており、後者は解釈可能なモデルを特徴づけます。
この研究では、グラフベースの VQA に対する解釈可能なアプローチを導入し、GQA データセット上で競争力のあるパフォーマンスを実証します。
このアプローチは、解釈可能性とパフォーマンスの間のギャップを埋めます。
私たちのモデルは、本質的に質問応答プロセス中にその説明としてサブグラフを生成し、意思決定への洞察を提供するように設計されています。
これらの生成されたサブグラフの品質を評価するために、それらをグラフ ニューラル ネットワーク用の確立された事後説明可能性手法と比較し、人間による評価を実行します。
さらに、人間の評価者の評価と相関する定量的メトリクスを提示し、生成された説明サブグラフの自動メトリクスとして機能します。
私たちの実装は https://github.com/DigitalPhonetics/Intrinsic-Subgraph-Generation-for-VQA で入手できます。

要約(オリジナル)

The large success of deep learning based methods in Visual Question Answering (VQA) has concurrently increased the demand for explainable methods. Most methods in Explainable Artificial Intelligence (XAI) focus on generating post-hoc explanations rather than taking an intrinsic approach, the latter characterizing an interpretable model. In this work, we introduce an interpretable approach for graph-based VQA and demonstrate competitive performance on the GQA dataset. This approach bridges the gap between interpretability and performance. Our model is designed to intrinsically produce a subgraph during the question-answering process as its explanation, providing insight into the decision making. To evaluate the quality of these generated subgraphs, we compare them against established post-hoc explainability methods for graph neural networks, and perform a human evaluation. Moreover, we present quantitative metrics that correlate with the evaluations of human assessors, acting as automatic metrics for the generated explanatory subgraphs. Our implementation is available at https://github.com/DigitalPhonetics/Intrinsic-Subgraph-Generation-for-VQA.

arxiv情報

著者 Pascal Tilli,Ngoc Thang Vu
発行日 2024-03-27 10:07:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク