Attention Mixtures for Time-Aware Sequential Recommendation

要約

トランスフォーマーは、逐次推薦のための強力な手法として登場した。しかし、既存のアーキテクチャは、ユーザーの嗜好と時間的文脈との間の複雑な依存関係をしばしば見落としている。この短い論文では、この限界に対処する改良型トランスフォーマー逐次推薦システムであるMOJITOを紹介する。MOJITOは逐次モデリングのために、注目ベースの時間的コンテキストとアイテム埋め込み表現のガウス混合を活用する。このようなアプローチにより、過去の行動と時間的コンテキストに応じて、ユーザに次にどのアイテムを推薦すべきかを正確に予測することができる。我々は、いくつかの実世界データセットにおいて、逐次推薦のための既存のTransformerを経験的に凌駕することにより、我々のアプローチの妥当性を実証する。

要約(オリジナル)

Transformers emerged as powerful methods for sequential recommendation. However, existing architectures often overlook the complex dependencies between user preferences and the temporal context. In this short paper, we introduce MOJITO, an improved Transformer sequential recommender system that addresses this limitation. MOJITO leverages Gaussian mixtures of attention-based temporal context and item embedding representations for sequential modeling. Such an approach permits to accurately predict which items should be recommended next to users depending on past actions and the temporal context. We demonstrate the relevance of our approach, by empirically outperforming existing Transformers for sequential recommendation on several real-world datasets.

arxiv情報

著者 Viet-Anh Tran,Guillaume Salha-Galvan,Bruno Sguerra,Romain Hennequin
発行日 2023-07-03 08:52:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.IR, cs.LG パーマリンク