要約
レコメンダー システムは、新しいユーザーがプラットフォームに参加するたび、または新しいアイテムがカタログに追加されるたびに、コールド スタートの問題に悩まされます。
アイテムのコールドスタートに対処するために、シーケンシャル レコメンダーの埋め込み層を、学習可能な重みを持たず、任意の数の表現を保持できる動的ストレージに置き換えることを提案します。
この論文では、新しい情報が利用可能になると、ユーザーとアイテムの既存の表現を再帰的に改良する大規模な埋め込みネットワークである FELRec を紹介します。
同様のアプローチとは対照的に、私たちのモデルは、サイド情報や時間のかかる微調整を行わずに新しいユーザーとアイテムを表し、代わりに一連の既存の表現に対して単一の前方パスを実行します。
アイテムのコールドスタート中、私たちの方法は同様の方法よりも 29.50% ~ 47.45% 優れています。
さらに、私たちが提案したモデルは、ゼロショット設定でこれまで見たことのないデータセットを十分に一般化します。
ソース コードは https://github.com/kweimann/FELRec で公開されています。
要約(オリジナル)
Recommender systems suffer from the cold-start problem whenever a new user joins the platform or a new item is added to the catalog. To address item cold-start, we propose to replace the embedding layer in sequential recommenders with a dynamic storage that has no learnable weights and can keep an arbitrary number of representations. In this paper, we present FELRec, a large embedding network that refines the existing representations of users and items in a recursive manner, as new information becomes available. In contrast to similar approaches, our model represents new users and items without side information and time-consuming finetuning, instead it runs a single forward pass over a sequence of existing representations. During item cold-start, our method outperforms similar method by 29.50%-47.45%. Further, our proposed model generalizes well to previously unseen datasets in zero-shot settings. The source code is publicly available at https://github.com/kweimann/FELRec .
arxiv情報
著者 | Kuba Weimann,Tim O. F. Conrad |
発行日 | 2024-10-01 14:39:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google