要約
この作品では、最適化されたネガティブ サンプリングを使用したスケーラブルなセッションベースの Transformer Recommender である TRON を紹介します。
SASRec や GRU4Rec+ などの一般的なモデルのスケーラビリティとパフォーマンスの制限を動機として、TRON は、top-k ネガティブ サンプリングとリストワイズ損失関数を統合して、推奨精度を向上させます。
関連する大規模電子商取引データセットの評価では、TRON が SASRec と同様のトレーニング速度を維持しながら、現在の手法の推奨品質を向上させていることが示されています。
ライブ A/B テストでは、SASRec よりもクリックスルー率が 18.14% 増加し、実用的な設定における TRON の可能性が強調されました。
さらなる研究のために、https://github.com/otto-de/TRON でソース コードへのアクセスを提供し、https://github.com/otto-de/recsys-dataset で匿名化されたデータセットへのアクセスを提供します。
要約(オリジナル)
This work introduces TRON, a scalable session-based Transformer Recommender using Optimized Negative-sampling. Motivated by the scalability and performance limitations of prevailing models such as SASRec and GRU4Rec+, TRON integrates top-k negative sampling and listwise loss functions to enhance its recommendation accuracy. Evaluations on relevant large-scale e-commerce datasets show that TRON improves upon the recommendation quality of current methods while maintaining training speeds similar to SASRec. A live A/B test yielded an 18.14% increase in click-through rate over SASRec, highlighting the potential of TRON in practical settings. For further research, we provide access to our source code at https://github.com/otto-de/TRON and an anonymized dataset at https://github.com/otto-de/recsys-dataset.
arxiv情報
著者 | Timo Wilm,Philipp Normann,Sophie Baumeister,Paul-Vincent Kobow |
発行日 | 2023-07-27 14:47:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google