I-CEE: Tailoring Explanations of Image Classifications Models to User Expertise

要約

ブラックボックス機械学習モデルの決定を効果的に説明することは、ブラックボックス機械学習モデルに依存する AI システムの責任ある展開にとって重要です。
それらの重要性を認識して、Explainable AI (XAI) の分野では、これらの説明を生成するためのいくつかの手法が提供されています。
しかし、この増え続ける一連の作業ではユーザー (説明対象者) は比較的重視されておらず、ほとんどの XAI 技術は「万能の」説明を生成します。
このギャップを埋め、人間中心の XAI に一歩近づくために、ユーザーの専門知識に合わせた画像分類の説明を提供するフレームワークである I-CEE を紹介します。
既存の研究に基づいて、I-CEE は、トレーニング データの有益なサブセット (つまり、サンプル画像)、対応するローカルな説明、およびモデルの決定をユーザーに提供することにより、画像分類モデルの決定を説明します。
ただし、以前の研究とは異なり、I-CEE はユーザーの専門知識に応じてサンプル画像の有益性をモデル化するため、ユーザーごとに異なるサンプルが生成されます。
I-CEE は、サンプル セットをユーザーの専門知識に合わせて調整することで、ユーザーのモデルの理解とシミュレーション可能性をさらに促進できると考えています。
私たちのアプローチを評価するために、シミュレーションと人間の参加者 (N = 100) の両方で複数のデータセットに対して詳細な実験を実施します。
シミュレートされたユーザーを使った実験では、I-CEE がモデルの決定を正確に予測するユーザーの能力 (シミュレーション可能性) がベースラインと比較して向上し、有望な暫定結果が得られることが示されています。
人間の参加者を使った実験では、私たちの方法がユーザーのシミュレーション可能性の精度を大幅に向上させることが実証され、人間中心の XAI の重要性が強調されています。

要約(オリジナル)

Effectively explaining decisions of black-box machine learning models is critical to responsible deployment of AI systems that rely on them. Recognizing their importance, the field of explainable AI (XAI) provides several techniques to generate these explanations. Yet, there is relatively little emphasis on the user (the explainee) in this growing body of work and most XAI techniques generate ‘one-size-fits-all’ explanations. To bridge this gap and achieve a step closer towards human-centered XAI, we present I-CEE, a framework that provides Image Classification Explanations tailored to User Expertise. Informed by existing work, I-CEE explains the decisions of image classification models by providing the user with an informative subset of training data (i.e., example images), corresponding local explanations, and model decisions. However, unlike prior work, I-CEE models the informativeness of the example images to depend on user expertise, resulting in different examples for different users. We posit that by tailoring the example set to user expertise, I-CEE can better facilitate users’ understanding and simulatability of the model. To evaluate our approach, we conduct detailed experiments in both simulation and with human participants (N = 100) on multiple datasets. Experiments with simulated users show that I-CEE improves users’ ability to accurately predict the model’s decisions (simulatability) compared to baselines, providing promising preliminary results. Experiments with human participants demonstrate that our method significantly improves user simulatability accuracy, highlighting the importance of human-centered XAI

arxiv情報

著者 Yao Rong,Peizhu Qian,Vaibhav Unhelkar,Enkelejda Kasneci
発行日 2023-12-19 12:26:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG パーマリンク