Weighting-Based Treatment Effect Estimation via Distribution Learning

要約

タイトル: 分布学習を用いた重み付け治療効果推定
要約:
– 治療効果推定の既存の重み付け方法は、しばしば傾向スコアや共変量バランスのアイデアに基づいて構築されている。そして、バイアスのない推定を得るために、治療割り当てやアウトカムモデルに直線性や特定の機能形を加えるなど、強い仮定を課す場合が多い。これは、モデルの誤指定の主要な欠点につながる。
– 本論文では、分布学習に基づく重み付け方法を開発することで、これらの問題を解消することを目指している。まず、治療割り当てに基づいて共変量の真の基になる分布を学習し、治療群と対照群の共変量密度の比率を治療効果の推定に利用する重みとして利用する。具体的には、変数変換を介して治療群および対照群の共変量の分布を逆変換によって近似する方法を提案している。
– 合成データおよび実データを用いて、手法の優位性、堅牢性、および汎化性を示すために、幅広い実験を行う。実験結果から、観察データにおける平均治療効果(ATT)の推定において、当社の手法がいくつかの最先端の重み付けを用いたベンチマーク法を上回り、ウェーディングにいくつかの高度なアウトカムモデリング手法を結合したダブルロバスト推定フレームワークの下でも利点を維持していることがわかった。

要約(オリジナル)

Existing weighting methods for treatment effect estimation are often built upon the idea of propensity scores or covariate balance. They usually impose strong assumptions on treatment assignment or outcome model to obtain unbiased estimation, such as linearity or specific functional forms, which easily leads to the major drawback of model mis-specification. In this paper, we aim to alleviate these issues by developing a distribution learning-based weighting method. We first learn the true underlying distribution of covariates conditioned on treatment assignment, then leverage the ratio of covariates’ density in the treatment group to that of the control group as the weight for estimating treatment effects. Specifically, we propose to approximate the distribution of covariates in both treatment and control groups through invertible transformations via change of variables. To demonstrate the superiority, robustness, and generalizability of our method, we conduct extensive experiments using synthetic and real data. From the experiment results, we find that our method for estimating average treatment effect on treated (ATT) with observational data outperforms several cutting-edge weighting-only benchmarking methods, and it maintains its advantage under a doubly-robust estimation framework that combines weighting with some advanced outcome modeling methods.

arxiv情報

著者 Dongcheng Zhang,Kunpeng Zhang
発行日 2023-05-08 15:57:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, econ.EM, stat.ML パーマリンク