要約
人工知能システムが日常生活にますます統合されるにつれて、説明可能性の分野が大きな注目を集めています。
この傾向は、特に最新の AI モデルとその意思決定プロセスの複雑さによって促進されています。
広範な一般化機能と新たな用途を特徴とする基礎モデルの出現により、この状況はさらに複雑になりました。
基礎モデルは、説明可能性の領域においてあいまいな位置を占めています。その複雑さにより本質的に解釈が困難ですが、説明可能なモデルを構築するツールとして活用されることが増えています。
この調査では、ビジョン領域における基盤モデルと eXplainable AI (XAI) の交差点を調査します。
私たちは、これらの分野の橋渡しとなる論文の包括的なコーパスを編集することから始めます。
次に、これらの作品を建築上の特徴に基づいて分類します。
次に、基礎モデル内に XAI を統合する際の現在の研究が直面する課題について説明します。
さらに、これらの組み合わせたアプローチの一般的な評価方法を検討します。
最後に、調査からの重要な観察結果と洞察を示し、この急速に進化する分野における将来の研究の方向性を示します。
要約(オリジナル)
As artificial intelligence systems become increasingly integrated into daily life, the field of explainability has gained significant attention. This trend is particularly driven by the complexity of modern AI models and their decision-making processes. The advent of foundation models, characterized by their extensive generalization capabilities and emergent uses, has further complicated this landscape. Foundation models occupy an ambiguous position in the explainability domain: their complexity makes them inherently challenging to interpret, yet they are increasingly leveraged as tools to construct explainable models. In this survey, we explore the intersection of foundation models and eXplainable AI (XAI) in the vision domain. We begin by compiling a comprehensive corpus of papers that bridge these fields. Next, we categorize these works based on their architectural characteristics. We then discuss the challenges faced by current research in integrating XAI within foundation models. Furthermore, we review common evaluation methodologies for these combined approaches. Finally, we present key observations and insights from our survey, offering directions for future research in this rapidly evolving field.
arxiv情報
著者 | Rémi Kazmierczak,Eloïse Berthier,Goran Frehse,Gianni Franchi |
発行日 | 2025-01-21 15:18:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google