Justification vs. Transparency: Why and How Visual Explanations in a Scientific Literature Recommender System

要約

ユーザーが情報に基づいた意思決定を行い、RS に対する信頼と満足度を高めるのに役立つ説明機能を備えたレコメンダー システム (RS) の強化には、多大な注意が払われています。
正当化と透明性は、説明可能な推奨事項における 2 つの重要な目標を表します。
推奨メカニズムの背後にある推論を忠実に公開する透明性とは異なり、正当化は、基礎となるアルゴリズムのモデルとは異なる可能性がある概念モデルを伝えます。
説明は質問に対する答えです。
説明可能な推奨では、ユーザーは RS によって与えられた結果を理解するために質問 (理解度タイプと呼ばれます) をしたいと考えます。
この論文では、「なぜ」と「どのように」の説明の分かりやすさのタイプと、説明の目的である正当化と透明性との関係を特定します。
私たちは人間中心設計 (HCD) アプローチに従い、What-Why-How 視覚化フレームワークを活用して、透明な Recommendation and Interest Modeling Application (RIMA) での Why と How の視覚的な説明を体系的に設計および実装しました。
さらに、質的ユーザー調査 (N=12) を実施し、説明可能な RS で「なぜ」と「どのように」の説明を一緒に提供することが、透明性、信頼、満足度に関するユーザーの認識に及ぼす潜在的な影響を調査しました。
私たちの調査では、説明のわかりやすさのタイプの選択が説明の目的とユーザーのタイプに依存することを裏付ける定性的な証拠が示されました。

要約(オリジナル)

Significant attention has been paid to enhancing recommender systems (RS) with explanation facilities to help users make informed decisions and increase trust in and satisfaction with the RS. Justification and transparency represent two crucial goals in explainable recommendation. Different from transparency, which faithfully exposes the reasoning behind the recommendation mechanism, justification conveys a conceptual model that may differ from that of the underlying algorithm. An explanation is an answer to a question. In explainable recommendation, a user would want to ask questions (referred to as intelligibility types) to understand results given by the RS. In this paper, we identify relationships between Why and How explanation intelligibility types and the explanation goals of justification and transparency. We followed the Human-Centered Design (HCD) approach and leveraged the What-Why-How visualization framework to systematically design and implement Why and How visual explanations in the transparent Recommendation and Interest Modeling Application (RIMA). Furthermore, we conducted a qualitative user study (N=12) to investigate the potential effects of providing Why and How explanations together in an explainable RS on the users’ perceptions regarding transparency, trust, and satisfaction. Our study showed qualitative evidence confirming that the choice of the explanation intelligibility types depends on the explanation goal and user type.

arxiv情報

著者 Mouadh Guesmi,Mohamed Amine Chatti,Shoeb Joarder,Qurat Ul Ain,Clara Siepmann,Hoda Ghanbarzadeh,Rawaa Alatrash
発行日 2023-05-26 15:40:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.IR パーマリンク