Scaling Session-Based Transformer Recommendations using Optimized Negative Sampling and Loss Functions

要約

この作品では、最適化されたネガティブ サンプリングを使用したスケーラブルなセッションベースの Transformer Recommender である TRON を紹介します。
SASRec や GRU4Rec+ などの一般的なモデルのスケーラビリティとパフォーマンスの制限を動機として、TRON は、top-k ネガティブ サンプリングとリストワイズ損失関数を統合して、推奨精度を向上させます。
関連する大規模電子商取引データセットの評価では、TRON が SASRec と同様のトレーニング速度を維持しながら、現在の手法の推奨品質を向上させていることが示されています。
ライブ A/B テストでは、SASRec よりもクリックスルー率が 18.14% 増加し、実用的な設定における TRON の可能性が強調されました。
さらなる研究のために、https://github.com/otto-de/TRON でソース コードへのアクセスを提供し、https://github.com/otto-de/recsys-dataset で匿名化されたデータセットへのアクセスを提供します。

要約(オリジナル)

This work introduces TRON, a scalable session-based Transformer Recommender using Optimized Negative-sampling. Motivated by the scalability and performance limitations of prevailing models such as SASRec and GRU4Rec+, TRON integrates top-k negative sampling and listwise loss functions to enhance its recommendation accuracy. Evaluations on relevant large-scale e-commerce datasets show that TRON improves upon the recommendation quality of current methods while maintaining training speeds similar to SASRec. A live A/B test yielded an 18.14% increase in click-through rate over SASRec, highlighting the potential of TRON in practical settings. For further research, we provide access to our source code at https://github.com/otto-de/TRON and an anonymized dataset at https://github.com/otto-de/recsys-dataset.

arxiv情報

著者 Timo Wilm,Philipp Normann,Sophie Baumeister,Paul-Vincent Kobow
発行日 2023-07-27 14:47:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, cs.LG パーマリンク