Explain to Question not to Justify

要約

説明可能な人工知能 (XAI) は、若いながらも非常に有望な研究分野です。
残念ながら、現在、この分野の進歩は、矛盾した矛盾した目標によって遅れています。
この論文では、XAI の領域内で絡み合うさまざまなスレッドを、人間/価値指向の説明 (BLUE XAI) とモデル/検証指向の説明 (RED XAI) という 2 つの相補的な文化に分離します。
また、RED XAI の分野は現在あまり探索されておらず、AI システムの安全性を確保するために必要な重要な研究の大きな機会と可能性が隠されていると主張します。
この分野における有望な課題を提示してこの文書を締めくくります。

要約(オリジナル)

Explainable Artificial Intelligence (XAI) is a young but very promising field of research. Unfortunately, the progress in this field is currently slowed down by divergent and incompatible goals. In this paper, we separate various threads tangled within the area of XAI into two complementary cultures of human/value-oriented explanations (BLUE XAI) and model/validation-oriented explanations (RED XAI). We also argue that the area of RED XAI is currently under-explored and hides great opportunities and potential for important research necessary to ensure the safety of AI systems. We conclude this paper by presenting promising challenges in this area.

arxiv情報

著者 Przemyslaw Biecek,Wojciech Samek
発行日 2024-02-21 16:30:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク