Attention Mixtures for Time-Aware Sequential Recommendation

要約

タイトル: 「時間に注意した順序推薦のための注意混合」

要約:
– Transformersは、順序推薦にとって強力な手法として登場しました。
– しかし、既存のアーキテクチャはしばしば、ユーザーの嗜好と時間的文脈の複雑な依存関係を見落としています。
– この短い論文では、この制限に対処する改良されたTransformer順序推薦システムであるMOJITOを紹介します。
– MOJITOは、注意ベースの時間的文脈とアイテム埋め込み表現のガウス混合を活用した順序モデリングを実現します。
– この方法により、過去の行動と時間的文脈に応じて、どのアイテムを次にユーザーに推薦すべきかを正確に予測できます。
– 実世界の複数のデータセットにおいて、既存のTransformersよりも優れた結果を実証することにより、アプローチの関連性を示しています。

要約(オリジナル)

Transformers emerged as powerful methods for sequential recommendation. However, existing architectures often overlook the complex dependencies between user preferences and the temporal context. In this short paper, we introduce MOJITO, an improved Transformer sequential recommender system that addresses this limitation. MOJITO leverages Gaussian mixtures of attention-based temporal context and item embedding representations for sequential modeling. Such an approach permits to accurately predict which items should be recommended next to users depending on past actions and the temporal context. We demonstrate the relevance of our approach, by empirically outperforming existing Transformers for sequential recommendation on several real-world datasets.

arxiv情報

著者 Viet-Anh Tran,Guillaume Salha-Galvan,Bruno Sguerra,Romain Hennequin
発行日 2023-04-17 11:11:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.IR, cs.LG パーマリンク