How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey

要約

eXplainable Artificial Intelligence (XAI) の研究は、技術的な進歩にもかかわらず、ユーザーが必要とする{\em 効果的な説明} を生成することに限定的な成功を収めています。
実際のユーザーに対する XAI システムの使いやすさ、実用的な解釈可能性、有効性を向上させるために、{\em Explainable Interfaces} (EI) の新興分野は、XAI のユーザー インターフェイスとユーザー エクスペリエンス設計の側面に焦点を当てています。
この論文では、人間と XAI の相互作用の現在の傾向と EI の設計と開発の有望な方向性を特定するために、53 の出版物を体系的に調査しました。
これは、EI 研究の最初の体系的な調査の 1 つです。

要約(オリジナル)

Despite its technological breakthroughs, eXplainable Artificial Intelligence (XAI) research has limited success in producing the {\em effective explanations} needed by users. In order to improve XAI systems’ usability, practical interpretability, and efficacy for real users, the emerging area of {\em Explainable Interfaces} (EIs) focuses on the user interface and user experience design aspects of XAI. This paper presents a systematic survey of 53 publications to identify current trends in human-XAI interaction and promising directions for EI design and development. This is among the first systematic survey of EI research.

arxiv情報

著者 Thu Nguyen,Alessandro Canossa,Jichen Zhu
発行日 2024-03-21 15:44:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC パーマリンク