Efficient Feature Interactions with Transformers: Improving User Spending Propensity Predictions in Gaming

要約

Dream11 は、ユーザーが現実のスポーツ イベント用に独自の仮想チームを作成できるファンタジー スポーツ プラットフォームです。
2 億人以上のユーザー ベースを対象に、複数のスポーツや試合を主催しています。
この RMG (リアル マネー ゲーミング) 設定では、ユーザーは参加費を支払い、当社がユーザーに提供するさまざまなコンテスト製品に参加します。
私たちの現在の研究では、さまざまな下流アプリケーションに利用できるように、ゲーム ラウンドでのユーザーの支出傾向を予測する問題について説明します。
例えば
ユーザーの支出傾向に応じてわずかにインセンティブを与えることによってユーザーをアップセルしたり、ユーザーの支出傾向に基づいて製品リストをパーソナライズしたりする。
過去の取引データに基づいて各ユーザーの支出傾向をモデル化することを目指しています。
このペーパーでは、構造化データで良好な結果を示すツリーベースの深層学習モデルのベンチマークを行い、入力特徴間の豊富な相互作用を捉えるように特別に設計された新しいアーキテクチャの変更を提案します。
ユーザーのゲームラウンドでの支出傾向を予測するタスクにおいて、提案したアーキテクチャが既存のモデルよりも優れていることを示します。
当社の新しい変圧器モデルは最先端の FT 変圧器を上回り、MAE を 2.5\%、MSE を 21.8\% 向上させています。

要約(オリジナル)

Dream11 is a fantasy sports platform that allows users to create their own virtual teams for real-life sports events. We host multiple sports and matches for our 200M+ user base. In this RMG (real money gaming) setting, users pay an entry amount to participate in various contest products that we provide to users. In our current work, we discuss the problem of predicting the user’s propensity to spend in a gaming round, so it can be utilized for various downstream applications. e.g. Upselling users by incentivizing them marginally as per their spending propensity, or personalizing the product listing based on the user’s propensity to spend. We aim to model the spending propensity of each user based on past transaction data. In this paper, we benchmark tree-based and deep-learning models that show good results on structured data, and we propose a new architecture change that is specifically designed to capture the rich interactions among the input features. We show that our proposed architecture outperforms the existing models on the task of predicting the user’s propensity to spend in a gaming round. Our new transformer model surpasses the state-of-the-art FT-Transformer, improving MAE by 2.5\% and MSE by 21.8\%.

arxiv情報

著者 Ved Prakash,Kartavya Kothari
発行日 2024-09-25 16:40:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク