Interactive Explanation with Varying Level of Details in an Explainable Scientific Literature Recommender System

要約

説明可能なレコメンダー システム (RS) は従来、画一的なアプローチに従っており、個々のニーズや目標を考慮することなく、各ユーザーに同じ詳細レベルの説明を提供してきました。
さらに、RS での説明はこれまでのところ、主に静的かつ非対話的な方法で提示されてきました。
これらの研究のギャップを埋めるために、この論文では、さまざまな詳細レベルの説明を提供し、ユーザーがニーズや好みに基づいて説明を操作、制御、カスタマイズできるようにする、ユーザー中心の対話型説明モデルを採用することを目指しています。
私たちは、ユーザー中心のアプローチに従って、3 つの詳細レベル (基本、中級、上級) でインタラクティブな説明を設計し、それらを透過的な Recommendation and Interest Modeling Application (RIMA) に実装しました。
さまざまな詳細レベルのインタラクティブな説明を提供することが、説明可能な RS に対するユーザーの認識に及ぼす影響を調査するために、定性的なユーザー調査 (N=14) を実施しました。
私たちの調査では、インタラクションを促進し、どの説明を見たいかを決定する際にユーザーにコントロールを与えることで、さまざまなニーズ、好み、目標を持つユーザーの要求を満たすことができ、その結果、説明可能な推奨事項のさまざまな重要な側面にプラスの効果をもたらすことができるという定性的な証拠が示されました。
透明性、信頼、満足度、ユーザーエクスペリエンスが含まれます。

要約(オリジナル)

Explainable recommender systems (RS) have traditionally followed a one-size-fits-all approach, delivering the same explanation level of detail to each user, without considering their individual needs and goals. Further, explanations in RS have so far been presented mostly in a static and non-interactive manner. To fill these research gaps, we aim in this paper to adopt a user-centered, interactive explanation model that provides explanations with different levels of detail and empowers users to interact with, control, and personalize the explanations based on their needs and preferences. We followed a user-centered approach to design interactive explanations with three levels of detail (basic, intermediate, and advanced) and implemented them in the transparent Recommendation and Interest Modeling Application (RIMA). We conducted a qualitative user study (N=14) to investigate the impact of providing interactive explanations with varying level of details on the users’ perception of the explainable RS. Our study showed qualitative evidence that fostering interaction and giving users control in deciding which explanation they would like to see can meet the demands of users with different needs, preferences, and goals, and consequently can have positive effects on different crucial aspects in explainable recommendation, including transparency, trust, satisfaction, and user experience.

arxiv情報

著者 Mouadh Guesmi,Mohamed Amine Chatti,Shoeb Joarder,Qurat Ul Ain,Rawaa Alatrash,Clara Siepmann,Tannaz Vahidi
発行日 2023-06-09 10:48:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC, cs.IR パーマリンク