Turning Dross Into Gold Loss: is BERT4Rec really better than SASRec?

要約

最近、レコメンダー システムの分野では、逐次的なレコメンデーションと次のアイテムの予測タスクがますます普及してきています。
現在、2 つの最先端のベースラインは、Transformer ベースのモデル SASRec と BERT4Rec です。
過去数年にわたって、これら 2 つのアルゴリズムを比較し、新しい最先端のモデルを提案する出版物がかなりの数が出てきました。
ほとんどの出版物では、BERT4Rec は SASRec よりも優れたパフォーマンスを実現しています。
ただし、BERT4Rec はすべての項目に対してソフトマックス上のクロスエントロピーを使用しますが、SASRec は負のサンプリングを使用し、1 つの正の項目と 1 つの負の項目に対してバイナリのクロスエントロピー損失を計算します。
私たちの研究では、両方のモデルが BERT4Rec で使用される同じ損失でトレーニングされた場合、SASRec が品質とトレーニング速度の両方の点で BERT4Rec よりも大幅に優れていることを示しました。
さらに、SASRec はネガティブ サンプリングで効果的にトレーニングでき、それでも BERT4Rec よりも優れたパフォーマンスを発揮しますが、ネガティブ サンプルの数は 1 つよりもはるかに多くなるはずであることを示します。

要約(オリジナル)

Recently sequential recommendations and next-item prediction task has become increasingly popular in the field of recommender systems. Currently, two state-of-the-art baselines are Transformer-based models SASRec and BERT4Rec. Over the past few years, there have been quite a few publications comparing these two algorithms and proposing new state-of-the-art models. In most of the publications, BERT4Rec achieves better performance than SASRec. But BERT4Rec uses cross-entropy over softmax for all items, while SASRec uses negative sampling and calculates binary cross-entropy loss for one positive and one negative item. In our work, we show that if both models are trained with the same loss, which is used by BERT4Rec, then SASRec will significantly outperform BERT4Rec both in terms of quality and training speed. In addition, we show that SASRec could be effectively trained with negative sampling and still outperform BERT4Rec, but the number of negative examples should be much larger than one.

arxiv情報

著者 Anton Klenitskiy,Alexey Vasilev
発行日 2023-09-14 11:07:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, cs.LG パーマリンク