Self Contrastive Learning for Session-based Recommendation

要約

セッションベースのレコメンデーションは、アイテムの既存のシーケンス インタラクションに従って、ユーザーが次に興味を持つアイテムを予測することを目的としており、ユーザーとアイテムの表現を改善した対照学習 (CL) のアプリケーションの増加を惹きつけています。
ただし、これらの対照的な目的は次のとおりです。(1) アイテム表現空間の最適化を無視しながら、クロスエントロピー損失と同様の役割を果たす。
(2) 通常、複雑な陽性/陰性サンプルの構築や追加のデータ拡張など、複雑なモデリングが必要です。
この研究では、CL の適用を簡素化し、最先端の CL ベースのレコメンデーション技術のパフォーマンスを強化する自己対照学習 (SCL) を導入します。
具体的には、SCL は、アイテム表現間の均一な分布を直接促進し、最先端のモデルの既存のすべての対照的な目的コンポーネントを効率的に置き換える目的関数として定式化されます。
以前の作品とは異なり、SCL ではポジティブ/ネガティブ サンプルの構築やデータ拡張の必要性がなくなり、アイテム表現空間の解釈可能性が向上し、既存のレコメンダー システムへの拡張が容易になります。
3 つのベンチマーク データセットでの実験を通じて、SCL が統計的に有意な最先端モデルのパフォーマンスを一貫して向上させることを実証しました。
特に、私たちの実験では、SCL が 2 つの最高パフォーマンスのモデルのパフォーマンスを、異なるベンチマーク全体で平均して P@10 (精度) で 8.2% と 9.5%、MRR@10 (平均逆数ランク) で 9.9% と 11.2% 向上させていることが示されています。
さらに、私たちの分析では、表現の位置合わせと均一性の点での改善と、低計算コストでの SCL の有効性が明らかになりました。

要約(オリジナル)

Session-based recommendation, which aims to predict the next item of users’ interest as per an existing sequence interaction of items, has attracted growing applications of Contrastive Learning (CL) with improved user and item representations. However, these contrastive objectives: (1) serve a similar role as the cross-entropy loss while ignoring the item representation space optimisation; and (2) commonly require complicated modelling, including complex positive/negative sample constructions and extra data augmentation. In this work, we introduce Self-Contrastive Learning (SCL), which simplifies the application of CL and enhances the performance of state-of-the-art CL-based recommendation techniques. Specifically, SCL is formulated as an objective function that directly promotes a uniform distribution among item representations and efficiently replaces all the existing contrastive objective components of state-of-the-art models. Unlike previous works, SCL eliminates the need for any positive/negative sample construction or data augmentation, leading to enhanced interpretability of the item representation space and facilitating its extensibility to existing recommender systems. Through experiments on three benchmark datasets, we demonstrate that SCL consistently improves the performance of state-of-the-art models with statistical significance. Notably, our experiments show that SCL improves the performance of two best-performing models by 8.2% and 9.5% in P@10 (Precision) and 9.9% and 11.2% in MRR@10 (Mean Reciprocal Rank) on average across different benchmarks. Additionally, our analysis elucidates the improvement in terms of alignment and uniformity of representations, as well as the effectiveness of SCL with a low computational cost.

arxiv情報

著者 Zhengxiang Shi,Xi Wang,Aldo Lipani
発行日 2023-12-20 17:01:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, cs.LG パーマリンク