Adding Why to What? Analyses of an Everyday Explanation

要約

XAI では、専門家向けの説明とは対照的に、素人向けの説明では共通の専門知識を想定できないことを考慮することが重要です。
しかし、人間の間でそのような説明は大きく異なるため、説明間の共通点を研究することが困難になります。
私たちはこれらの課題に対処するために、技術哲学的アプローチである二重性理論を使用しました。
それによると、例えば XAI の決定は、その二重の性質に対処することによって説明できます。つまり、アーキテクチャ (アルゴリズムのロジックなど) または関連性 (決定の重大度、決定の影響など) に焦点を当てることによって説明できます。
おすすめ)。
この理論を分析フレームワークとして使用して、20 のゲームの説明を調査しました。
技術的成果物の説明を迅速に構造化し、比較するために理論をどのように使用したかについて詳しく説明します。
説明内容の分析結果とビデオリコールの結果を補足し、説明者がどのように説明を正当化したかを調査しました。
説明者が最初にゲームの物理的側面 (アーキテクチャ) に焦点を当て、その後で関連性の側面に焦点を当てていることがわかりました。
ビデオ リコールの推論は、EX が、より複雑で無形の側面に焦点を当てる前に、最初に基本コンポーネントを説明することで説明を構成するために、アーキテクチャに焦点を当てることが重要であるとみなしていることを示していました。
双方の立場への対応を切り替えることは、説明の目的、新たな誤解、説明を受ける側の知識ニーズによって正当化されました。
私たちは、さらなる一般化が可能であれば、総合的な説明を構築するための最初のアイデアを提供する、将来の研究上の疑問を引き起こすいくつかの共通点を発見しました。

要約(オリジナル)

In XAI it is important to consider that, in contrast to explanations for professional audiences, one cannot assume common expertise when explaining for laypeople. But such explanations between humans vary greatly, making it difficult to research commonalities across explanations. We used the dual nature theory, a techno-philosophical approach, to cope with these challenges. According to it, one can explain, for example, an XAI’s decision by addressing its dual nature: by focusing on the Architecture (e.g., the logic of its algorithms) or the Relevance (e.g., the severity of a decision, the implications of a recommendation). We investigated 20 game explanations using the theory as an analytical framework. We elaborate how we used the theory to quickly structure and compare explanations of technological artifacts. We supplemented results from analyzing the explanation contents with results from a video recall to explore how explainers justified their explanation. We found that explainers were focusing on the physical aspects of the game first (Architecture) and only later on aspects of the Relevance. Reasoning in the video recalls indicated that EX regarded the focus on the Architecture as important for structuring the explanation initially by explaining the basic components before focusing on more complex, intangible aspects. Shifting between addressing the two sides was justified by explanation goals, emerging misunderstandings, and the knowledge needs of the explainee. We discovered several commonalities that inspire future research questions which, if further generalizable, provide first ideas for the construction of synthetic explanations.

arxiv情報

著者 Lutz Terfloth,Michael Schaffer,Heike M. Buhl,Carsten Schulte
発行日 2023-08-08 11:17:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク