要約
ニューラルネットワークが必須システムで支配的になるにつれて、説明可能な人工知能(XAI)は、不透明モデルの信頼を促進し、潜在的な不正行為を検出する上で重要な役割を果たします。
LIME(ローカル解釈可能なモデルに依存しない説明)は、最も顕著なモデルに依存しないアプローチの1つであり、特定のインスタンスの周りのブラックボックスモデルの挙動を近似することにより説明を生成します。
その人気にもかかわらず、ライムは忠実さ、安定性、およびドメイン固有の問題に対する適用性に関連する課題に直面しています。
これらの問題に対処するために多数の適応と強化が提案されていますが、増加する開発の数は、ライム関連の研究をナビゲートするための努力を複雑にしている可能性があります。
私たちの知る限り、これは、ライムの基本的な概念と既知の制限を包括的に探求し、収集する最初の調査です。
さまざまな機能強化を分類して比較し、中間の手順と重要な問題に基づいて構造化された分類法を提供します。
私たちの分析は、石灰の進歩の全体的な概要を提供し、将来の研究を導き、実務家が適切なアプローチを特定するのを支援します。
さらに、継続的に更新されたインタラクティブなWebサイト(https://patrick-knab.github.io/which-lime-to-trust/)を提供し、調査の簡潔でアクセス可能な概要を提供します。
要約(オリジナル)
As neural networks become dominant in essential systems, Explainable Artificial Intelligence (XAI) plays a crucial role in fostering trust and detecting potential misbehavior of opaque models. LIME (Local Interpretable Model-agnostic Explanations) is among the most prominent model-agnostic approaches, generating explanations by approximating the behavior of black-box models around specific instances. Despite its popularity, LIME faces challenges related to fidelity, stability, and applicability to domain-specific problems. Numerous adaptations and enhancements have been proposed to address these issues, but the growing number of developments can be overwhelming, complicating efforts to navigate LIME-related research. To the best of our knowledge, this is the first survey to comprehensively explore and collect LIME’s foundational concepts and known limitations. We categorize and compare its various enhancements, offering a structured taxonomy based on intermediate steps and key issues. Our analysis provides a holistic overview of advancements in LIME, guiding future research and helping practitioners identify suitable approaches. Additionally, we provide a continuously updated interactive website (https://patrick-knab.github.io/which-lime-to-trust/), offering a concise and accessible overview of the survey.
arxiv情報
著者 | Patrick Knab,Sascha Marton,Udo Schlegel,Christian Bartelt |
発行日 | 2025-03-31 17:44:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google