ReasoningRec: Bridging Personalized Recommendations and Human-Interpretable Explanations through LLM Reasoning

要約

このペーパーでは、大規模言語モデル (LLM) を活用して推奨事項と人間が解釈可能な説明の間のギャップを埋める推論ベースの推奨フレームワークである ReasoningRec について説明します。
暗黙的なユーザーとアイテムの相互作用に依存する従来のレコメンデーション システムとは対照的に、ReasoningRec は LLM を採用してユーザーとアイテムをモデル化し、好み、嫌悪感、および説明的推論に焦点を当てます。
このフレームワークは、より大きな LLM を利用してユーザーの好みの合成説明を生成し、その後、より小さな LLM を微調整して推奨精度と人間が解釈可能な説明を強化します。
私たちの実験研究では、パーソナライズされた推奨事項に対する推論とコンテキスト情報の影響を調査し、コンテキスト データとパーソナライズされたデータの品質が、もっともらしい説明を生成する LLM の能力に大きく影響することが明らかになりました。
経験的評価により、ReasoningRec は人間に理解できる説明を同時に提供しながら、推奨予測において最先端の手法を最大 12.5% 上回っていることが実証されています。
コードはここから入手できます: https://github.com/millenniumbismay/reasoningrec。

要約(オリジナル)

This paper presents ReasoningRec, a reasoning-based recommendation framework that leverages Large Language Models (LLMs) to bridge the gap between recommendations and human-interpretable explanations. In contrast to conventional recommendation systems that rely on implicit user-item interactions, ReasoningRec employs LLMs to model users and items, focusing on preferences, aversions, and explanatory reasoning. The framework utilizes a larger LLM to generate synthetic explanations for user preferences, subsequently used to fine-tune a smaller LLM for enhanced recommendation accuracy and human-interpretable explanation. Our experimental study investigates the impact of reasoning and contextual information on personalized recommendations, revealing that the quality of contextual and personalized data significantly influences the LLM’s capacity to generate plausible explanations. Empirical evaluations demonstrate that ReasoningRec surpasses state-of-the-art methods by up to 12.5\% in recommendation prediction while concurrently providing human-intelligible explanations. The code is available here: https://github.com/millenniumbismay/reasoningrec.

arxiv情報

著者 Millennium Bismay,Xiangjue Dong,James Caverlee
発行日 2024-10-30 16:37:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク