Metalearners for Ranking Treatment Effects

要約

予算の制約がある中で効率的に治療を割り当てることは、様々な領域で重要な課題となっている。例えば、マーケティングでは、潜在顧客をターゲットにしてコンバージョンを高めるためのプロモーションの使用は、利用可能な予算によって制限される。多くの研究が因果効果の推定に焦点を当てている一方で、運用上の文脈を考慮しながら治療を割り当てる学習に関する研究は比較的限られている。アップリフトモデリングや因果推論のための既存の手法は、予算制約を尊重する利益最大化配分方針との関係を考慮することなく、主に治療効果を推定する。これらの方法を使用することの潜在的な欠点は、結果として得られる予測モデルが、運用上のコンテキストと整合していないことである。したがって、予測誤差は予算配分問題の最適化に伝播し、その結果、最適でない配分政策につながる。我々は、ランク付け学習に基づく代替アプローチを提案する。我々の提案する手法は、その増分利益の観点からインスタンスに優先順位を付けることにより、直接的に割り当て方針を学習する。本方法論を大規模データセットに拡張するために、ランキングモデルの最適化のための効率的なサンプリング手順を提案する。理論的には、ランク付け学習がどのようにしてポリシーの増分利益曲線の下の面積を最大化できるかを示す。経験的には、合成データと実データを用いた一連の実験を通して、我々の手法を検証し、その有効性を示す。

要約(オリジナル)

Efficiently allocating treatments with a budget constraint constitutes an important challenge across various domains. In marketing, for example, the use of promotions to target potential customers and boost conversions is limited by the available budget. While much research focuses on estimating causal effects, there is relatively limited work on learning to allocate treatments while considering the operational context. Existing methods for uplift modeling or causal inference primarily estimate treatment effects, without considering how this relates to a profit maximizing allocation policy that respects budget constraints. The potential downside of using these methods is that the resulting predictive model is not aligned with the operational context. Therefore, prediction errors are propagated to the optimization of the budget allocation problem, subsequently leading to a suboptimal allocation policy. We propose an alternative approach based on learning to rank. Our proposed methodology directly learns an allocation policy by prioritizing instances in terms of their incremental profit. We propose an efficient sampling procedure for the optimization of the ranking model to scale our methodology to large-scale data sets. Theoretically, we show how learning to rank can maximize the area under a policy’s incremental profit curve. Empirically, we validate our methodology and show its effectiveness in practice through a series of experiments on both synthetic and real-world data.

arxiv情報

著者 Toon Vanderschueren,Wouter Verbeke,Felipe Moraes,Hugo Manuel Proença
発行日 2024-05-03 15:31:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク