Unlocking the Potential of Large Language Models for Explainable Recommendations

要約

言語生成技術の進歩により、オンラインサービスを利用する際に、ユーザーの信頼を高め、より多くの情報に基づいた意思決定を促進することができる。しかし、既存の説明可能なレコメンデーションシステムは、小さなサイズの言語モデルを使用することに焦点を当てている。説明ジェネレーターを最近登場した大型言語モデル(LLM)に置き換えることで、どのような効果が得られるかはまだ不明である。前例のない結果が期待できるのだろうか? 本研究では、LLMを採用することで説明の質をさらに高めることを目的とした、シンプルかつ効果的な2段階の説明可能推薦フレームワークであるLLMXRecを提案する。LLMXRecの主な特徴は、既存の多くのLLMを用いた推薦手法とは異なり、従来の推薦モデルとLLMを用いた説明生成手法との緊密な連携に重点を置いていることである。具体的には、パラメータ効率的な指示チューニングやパーソナライズされたプロンプト技術など、いくつかの重要な微調整技術を採用することで、説明推薦の目標を達成するために、制御可能で流暢な説明をうまく生成することができる。最も重要な点は、説明の有効性を評価するための3つの異なる視点を提供することである。最後に、いくつかのベンチマーク推薦モデルと一般に利用可能なデータセットに対して広範な実験を行う。実験結果は、有効性と効率性の点で肯定的な結果をもたらすだけでなく、これまで知られていなかった結果も明らかにする。この分野でのさらなる探求を促進するために、完全なコードと詳細なオリジナル結果は https://github.com/GodFire66666/LLM_rec_explanation/ でオープンソース化されている。

要約(オリジナル)

Generating user-friendly explanations regarding why an item is recommended has become increasingly common, largely due to advances in language generation technology, which can enhance user trust and facilitate more informed decision-making when using online services. However, existing explainable recommendation systems focus on using small-size language models. It remains uncertain what impact replacing the explanation generator with the recently emerging large language models (LLMs) would have. Can we expect unprecedented results? In this study, we propose LLMXRec, a simple yet effective two-stage explainable recommendation framework aimed at further boosting the explanation quality by employing LLMs. Unlike most existing LLM-based recommendation works, a key characteristic of LLMXRec is its emphasis on the close collaboration between previous recommender models and LLM-based explanation generators. Specifically, by adopting several key fine-tuning techniques, including parameter-efficient instructing tuning and personalized prompt techniques, controllable and fluent explanations can be well generated to achieve the goal of explanation recommendation. Most notably, we provide three different perspectives to evaluate the effectiveness of the explanations. Finally, we conduct extensive experiments over several benchmark recommender models and publicly available datasets. The experimental results not only yield positive results in terms of effectiveness and efficiency but also uncover some previously unknown outcomes. To facilitate further explorations in this area, the full code and detailed original results are open-sourced at https://github.com/GodFire66666/LLM_rec_explanation/.

arxiv情報

著者 Yucong Luo,Mingyue Cheng,Hao Zhang,Junyu Lu,Qi Liu,Enhong Chen
発行日 2024-01-03 08:06:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.IR パーマリンク