要約
この論文では、データとユーザー要件の両方を考慮して意味のある説明を生成するための最適な条件を特定することを目的として、既にデプロイされている機械学習モデルのローカルな説明の生成について調査します。
主な目標は、あらゆるモデルの説明を生成する方法を開発すると同時に、これらの説明が基礎となるモデルに忠実であり、ユーザーが理解しやすいものであることを保証することです。
論文は 2 つの部分に分かれています。
1 つ目は、広く使用されているルールベースの説明方法を強化するものです。
次に、モデルを近似するための線形説明の適合性を評価するための新しいアプローチを紹介します。
さらに、反事実の説明方法の 2 つのファミリー間の比較実験を実施し、一方の利点を他方と比較して分析します。
2 番目の部分では、3 つの説明方法と 2 つの異なる表現の影響を評価するためのユーザー実験に焦点を当てます。
これらの実験は、説明と表現に応じて、ユーザーが理解と信頼の観点からモデルとの対話をどのように認識するかを測定します。
この研究は、より良い説明の生成に貢献し、導入された AI システムの透明性、信頼性、使いやすさの向上に潜在的な影響を及ぼします。
要約(オリジナル)
This thesis explores the generation of local explanations for already deployed machine learning models, aiming to identify optimal conditions for producing meaningful explanations considering both data and user requirements. The primary goal is to develop methods for generating explanations for any model while ensuring that these explanations remain faithful to the underlying model and comprehensible to the users. The thesis is divided into two parts. The first enhances a widely used rule-based explanation method. It then introduces a novel approach for evaluating the suitability of linear explanations to approximate a model. Additionally, it conducts a comparative experiment between two families of counterfactual explanation methods to analyze the advantages of one over the other. The second part focuses on user experiments to assess the impact of three explanation methods and two distinct representations. These experiments measure how users perceive their interaction with the model in terms of understanding and trust, depending on the explanations and representations. This research contributes to a better explanation generation, with potential implications for enhancing the transparency, trustworthiness, and usability of deployed AI systems.
arxiv情報
著者 | julien Delaunay |
発行日 | 2024-02-16 18:44:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google