要約
深層学習アルゴリズムの台頭により、コンピューター ビジョン タスクは大幅に進歩しましたが、その「ブラック ボックス」の性質により、解釈可能性に関する懸念が生じています。
Explainable AI (XAI) は、この「ブラック ボックス」をオープンにし、AI モデルの意思決定プロセスに光を当てることを目的とした重要な研究分野として浮上しました。
Explainable Artificial Intelligence (XAI) のサブセットとしての視覚的な説明は、入力画像内の影響力のある領域を強調表示することで、視覚データを処理する AI モデルの意思決定プロセスに対する直感的な洞察を提供します。
視覚的な説明に関して広範な研究が行われているにもかかわらず、画像データのコンテキストでは、グラウンドトゥルースの説明を備えた対応する現実世界のデータセットの利用可能性が乏しいため、ほとんどの評価はモデル中心です。
このギャップを埋めるために、画像のクラス ラベルと対応する説明アノテーションの両方を提供する、さまざまなトピックからのデータセット コレクションで構成される XAI ベンチマークを導入します。
私たちは、統一された視覚的説明フレームワークに合わせて、さまざまなドメインからのデータを処理しました。
データの読み込み、前処理、実験セットアップ、モデル評価のプロセスを統合する、包括的な視覚的説明パイプラインを導入します。
この構造により、研究者はさまざまな視覚的説明手法を公平に比較することができます。
さらに、研究者が収集したデータセットを効果的に活用できるよう、視覚的に説明するための 10 を超える評価方法の包括的なレビューを提供します。
既存の視覚的説明手法のパフォーマンスをさらに評価するために、モデル中心およびグラウンド トゥルース中心のさまざまな評価指標を使用して、選択したデータセットに対して実験を実施します。
私たちは、このベンチマークが視覚的説明モデルの進歩を促進できると考えています。
XAI データセット コレクションと評価用の使いやすいコードは、https://xaidataset.github.io で公開されています。
要約(オリジナル)
The rise of deep learning algorithms has led to significant advancements in computer vision tasks, but their ‘black box’ nature has raised concerns regarding interpretability. Explainable AI (XAI) has emerged as a critical area of research aiming to open this ‘black box’, and shed light on the decision-making process of AI models. Visual explanations, as a subset of Explainable Artificial Intelligence (XAI), provide intuitive insights into the decision-making processes of AI models handling visual data by highlighting influential areas in an input image. Despite extensive research conducted on visual explanations, most evaluations are model-centered since the availability of corresponding real-world datasets with ground truth explanations is scarce in the context of image data. To bridge this gap, we introduce an XAI Benchmark comprising a dataset collection from diverse topics that provide both class labels and corresponding explanation annotations for images. We have processed data from diverse domains to align with our unified visual explanation framework. We introduce a comprehensive Visual Explanation pipeline, which integrates data loading, preprocessing, experimental setup, and model evaluation processes. This structure enables researchers to conduct fair comparisons of various visual explanation techniques. In addition, we provide a comprehensive review of over 10 evaluation methods for visual explanation to assist researchers in effectively utilizing our dataset collection. To further assess the performance of existing visual explanation methods, we conduct experiments on selected datasets using various model-centered and ground truth-centered evaluation metrics. We envision this benchmark could facilitate the advancement of visual explanation models. The XAI dataset collection and easy-to-use code for evaluation are publicly accessible at https://xaidataset.github.io.
arxiv情報
著者 | Yifei Zhang,Siyi Gu,James Song,Bo Pan,Liang Zhao |
発行日 | 2023-10-12 17:26:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google