Zero-shot Item-based Recommendation via Multi-task Product Knowledge Graph Pre-Training

要約

既存のレコメンダーシステムは、ゼロショットアイテム、すなわち学習段階においてユーザとの歴史的な相互作用がないアイテムの扱いに難がある。最近の研究では、事前に学習した言語モデル(PLM)を用いて普遍的なアイテム表現を抽出しているが、重要なアイテムの関係性を無視している。本論文では、ゼロショット項目ベース推薦(ZSIR)タスクのための新しいパラダイムを提示し、商品知識グラフ(PKG)上でモデルを事前学習させ、PLMから項目の特徴を洗練する。このタスクは、PLMからアイテムの特徴を絞り込むために、製品知識グラフ(PKG)モデルを事前学習させるタスクである。我々は、PKGにおける複数種類の関係、アイテム一般情報と関係間の意味的乖離、PKGから下流のZSIRタスクまでのドメイン不一致という3つの課題を特定する。本論文では、4つの事前学習タスクと新しいタスク指向適応(ToA)レイヤーを提案することで、これらの課題に対処する。さらに、本論文では、ToA層がZSIRタスクに適応するように、新しい推薦タスクでモデルを微調整する方法について議論する。18の市場データセットを用いた包括的な実験を行い、知識予測とZSIRタスクの両方における提案モデルの有効性を検証する。

要約(オリジナル)

Existing recommender systems face difficulties with zero-shot items, i.e. items that have no historical interactions with users during the training stage. Though recent works extract universal item representation via pre-trained language models (PLMs), they ignore the crucial item relationships. This paper presents a novel paradigm for the Zero-Shot Item-based Recommendation (ZSIR) task, which pre-trains a model on product knowledge graph (PKG) to refine the item features from PLMs. We identify three challenges for pre-training PKG, which are multi-type relations in PKG, semantic divergence between item generic information and relations and domain discrepancy from PKG to downstream ZSIR task. We address the challenges by proposing four pre-training tasks and novel task-oriented adaptation (ToA) layers. Moreover, this paper discusses how to fine-tune the model on new recommendation task such that the ToA layers are adapted to ZSIR task. Comprehensive experiments on 18 markets dataset are conducted to verify the effectiveness of the proposed model in both knowledge prediction and ZSIR task.

arxiv情報

著者 Ziwei Fan,Zhiwei Liu,Shelby Heinecke,Jianguo Zhang,Huan Wang,Caiming Xiong,Philip S. Yu
発行日 2023-05-12 17:38:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.IR, cs.LG パーマリンク