Exploring Commonalities in Explanation Frameworks: A Multi-Domain Survey Analysis

要約

この研究では、3つのドメインの専門家との調査と議論から集められた洞察を提示し、これらおよび他の同様のユースケースに適用できる普遍的な説明フレームワークの重要な要素を見つけることを目指しています。
洞察は、解釈可能性で知られているGPアルゴリズムを利用するソフトウェアツールに組み込まれています。
分析されたアプリケーションには、医療シナリオ(予測MLを含む)、小売ユースケース(規定のMLを含む)、およびエネルギーユースケース(予測MLも関与)が含まれます。
私たちは各セクターの専門家にインタビューし、さらなる分析のために会話を書き起こしました。
さらに、これらの分野の専門家と非専門家は、説明方法のさまざまな側面を調査するために設計されたアンケートに記入しました。
調査結果は、より大きな説明可能性を支持して、ある程度の精度を犠牲にすることに対する普遍的な好みを示しています。
さらに、このようなフレームワークの重要なコンポーネントとしての機能の重要性と反事実的説明の重要性を強調します。
私たちのアンケートは、Xaiの分野での知識の普及を促進するために公開されています。

要約(オリジナル)

This study presents insights gathered from surveys and discussions with specialists in three domains, aiming to find essential elements for a universal explanation framework that could be applied to these and other similar use cases. The insights are incorporated into a software tool that utilizes GP algorithms, known for their interpretability. The applications analyzed include a medical scenario (involving predictive ML), a retail use case (involving prescriptive ML), and an energy use case (also involving predictive ML). We interviewed professionals from each sector, transcribing their conversations for further analysis. Additionally, experts and non-experts in these fields filled out questionnaires designed to probe various dimensions of explanatory methods. The findings indicate a universal preference for sacrificing a degree of accuracy in favor of greater explainability. Additionally, we highlight the significance of feature importance and counterfactual explanations as critical components of such a framework. Our questionnaires are publicly available to facilitate the dissemination of knowledge in the field of XAI.

arxiv情報

著者 Eduard Barbu,Marharyta Domnich,Raul Vicente,Nikos Sakkas,André Morim
発行日 2025-04-21 12:22:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.LG パーマリンク