Market-Aware Models for Efficient Cross-Market Recommendation

要約

より豊富な補助ソース市場からのデータを使用して、リソースの少ないターゲット市場での推奨を含むクロスマーケット推奨 (CMR) タスクを検討します。
CMR の以前の研究では、ターゲット市場での推奨パフォーマンスを向上させるためにメタ学習を利用しました。
ただし、メタ学習は複雑で、リソースを大量に消費する可能性があります。
この論文では、市場全体のメタ学習ではなく、市場の埋め込みを介して市場を直接モデル化する市場認識 (MA) モデルを提案します。
これらの埋め込みは、アイテムの表現を市場固有の表現に変換します。
私たちの実験は、単一のターゲットソース市場とのペアワイズ設定と、すべての市場で一斉にトレーニングされたグローバルモデルの両方で、MA モデルの有効性と効率性を強調しています。
前のペアワイズ設定では、nDCG@10 のケースの 85% で MA モデルが平均して市場を認識していないモデルよりも優れており、時間効率が高く、メタ学習モデルと比較して、MA モデルはトレーニング時間の 15% しか必要としません。
グローバルな設定では、MA モデルは一部の市場では常に市場を認識していないモデルよりも優れていますが、1 つの市場を除くすべての市場ではメタ学習ベースの方法よりも優れています。
MA モデルは、特にグローバルな設定において、メタ学習の効率的かつ効果的な代替手段であると結論付けています。

要約(オリジナル)

We consider the cross-market recommendation (CMR) task, which involves recommendation in a low-resource target market using data from a richer, auxiliary source market. Prior work in CMR utilised meta-learning to improve recommendation performance in target markets; meta-learning however can be complex and resource intensive. In this paper, we propose market-aware (MA) models, which directly model a market via market embeddings instead of meta-learning across markets. These embeddings transform item representations into market-specific representations. Our experiments highlight the effectiveness and efficiency of MA models both in a pairwise setting with a single target-source market, as well as a global model trained on all markets in unison. In the former pairwise setting, MA models on average outperform market-unaware models in 85% of cases on nDCG@10, while being time-efficient – compared to meta-learning models, MA models require only 15% of the training time. In the global setting, MA models outperform market-unaware models consistently for some markets, while outperforming meta-learning-based methods for all but one market. We conclude that MA models are an efficient and effective alternative to meta-learning, especially in the global setting.

arxiv情報

著者 Samarth Bhargav,Mohammad Aliannejadi,Evangelos Kanoulas
発行日 2023-02-14 15:44:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク