MAPLE: Enhancing Review Generation with Multi-Aspect Prompt LEarning in Explainable Recommendation

要約

Explainable Recommendation タスクは、ユーザーとアイテムのペアを受け取り、アイテムがユーザーに推奨される理由を正当化する説明を出力するように設計されています。
多くのモデルは、説明可能な推奨事項の代理としてレビューの生成を扱います。
彼らは流暢で文法的な文章を生成することができますが、一般性と幻覚の問題に悩まされています。
我々は、Multi-Aspect Prompt LEarner (MAPLE) と呼ばれるパーソナライズされたアスペクト制御モデルを提案します。このモデルでは、アスペクト カテゴリを別の入力ディメンションとして統合して、きめの細かいアスペクト用語の記憶を容易にします。
レストラン分野における 2 つの現実世界のレビュー データセットの実験では、MAPLE が優れた一貫性と事実の関連性を維持しながら、テキストと特徴の多様性の点でベースラインのレビュー生成モデルよりも優れていることが示されました。
さらに、MAPLEを取得者-リーダーフレームワークの取得者コンポーネントとして扱い、リーダーとして大言語モデル(LLM)を採用し、MAPLEの説明とLLMの理解能力が結果として豊かで個別化された説明につながることを示します。
承認され次第、この http 内のコードとデータを公開します。

要約(オリジナル)

Explainable Recommendation task is designed to receive a pair of user and item and output explanations to justify why an item is recommended to a user. Many models treat review-generation as a proxy of explainable recommendation. Although they are able to generate fluent and grammatical sentences, they suffer from generality and hallucination issues. We propose a personalized, aspect-controlled model called Multi-Aspect Prompt LEarner (MAPLE), in which it integrates aspect category as another input dimension to facilitate the memorization of fine-grained aspect terms. Experiments on two real-world review datasets in restaurant domain show that MAPLE outperforms the baseline review-generation models in terms of text and feature diversity while maintaining excellent coherence and factual relevance. We further treat MAPLE as a retriever component in the retriever-reader framework and employ a Large-Language Model (LLM) as the reader, showing that MAPLE’s explanation along with the LLM’s comprehension ability leads to enriched and personalized explanation as a result. We will release the code and data in this http upon acceptance.

arxiv情報

著者 Ching-Wen Yang,Che Wei Chen,Kun-da Wu,Hao Xu,Jui-Feng Yao,Hung-Yu Kao
発行日 2024-08-19 10:12:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, cs.LG パーマリンク