Uplift Modeling Under Limited Supervision

要約

電子商取引における因果効果の推定は、コストのかかる治療割り当てを伴う傾向があり、大規模な設定では現実的ではない。実際の介入を伴わない治療効果を予測するために機械学習を活用することは、リスクを軽減するための標準的な手法である。しかし、既存の治療効果予測手法は、実際の実験から作成された相当な規模の学習セットに依存する傾向があり、そのため、作成には本質的にリスクが伴う。本研究では、電子商取引データで一般的なグラフに依存することで、必要なトレーニングセットのサイズを減少させるグラフニューラルネットワークを提案する。具体的には、ラベル付けされたインスタンスの数が制限されたノード回帰として問題を捉え、これまでの因果効果推定器に似た2モデルのニューラルアーキテクチャを開発し、エンコーディングのためのメッセージパッシング層を変化させてテストする。さらに、追加ステップとして、実験予算が極端に少ない設定において学習セットの作成を導くために、モデルを獲得関数と組み合わせる。各ステップは他のモデルや治療方針と個別に使用できるため、フレームワークは柔軟である。実際の大規模ネットワークを用いた実験から、多くの場合ランダムに近い性能を示す最新技術に対する我々の手法の明確な優位性が示され、実験リスクを低減するために、限られた監視で汎化できるモデルの必要性が強調された。

要約(オリジナル)

Estimating causal effects in e-commerce tends to involve costly treatment assignments which can be impractical in large-scale settings. Leveraging machine learning to predict such treatment effects without actual intervention is a standard practice to diminish the risk. However, existing methods for treatment effect prediction tend to rely on training sets of substantial size, which are built from real experiments and are thus inherently risky to create. In this work we propose a graph neural network to diminish the required training set size, relying on graphs that are common in e-commerce data. Specifically, we view the problem as node regression with a restricted number of labeled instances, develop a two-model neural architecture akin to previous causal effect estimators, and test varying message-passing layers for encoding. Furthermore, as an extra step, we combine the model with an acquisition function to guide the creation of the training set in settings with extremely low experimental budget. The framework is flexible since each step can be used separately with other models or treatment policies. The experiments on real large-scale networks indicate a clear advantage of our methodology over the state of the art, which in many cases performs close to random, underlining the need for models that can generalize with limited supervision to reduce experimental risks.

arxiv情報

著者 George Panagopoulos,Daniele Malitesta,Fragkiskos D. Malliaros,Jun Pang
発行日 2024-06-03 13:49:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, stat.ME パーマリンク