要約
近年、治療効果の推定に機械学習技術を使用することへの関心が高まっています。
最もパフォーマンスの高い方法のほとんどは、治療効果推定の精度を高めるために、潜在的な結果間での共有行動を促進する表現学習戦略に依存しています。
この論文では、アルゴリズムの誘導バイアスの観点からこれらのモデルを議論および分類し、因果グラフからの追加情報を考慮する新しいモデル NN-CGC を提示します。
NN-CGC は、モデルに新しい制約を実装することで、偽の変数相互作用から生じるバイアスに取り組み、他の表現学習手法と統合できます。
一般的なベンチマークで 3 つの異なる基本モデルを使用して、メソッドの有効性をテストします。
私たちの結果は、モデルの制約が大幅な改善につながり、治療効果の推定において新しい最先端の結果が得られることを示しています。
また、私たちの方法が不完全な因果グラフに対して堅牢であること、および部分的な因果情報を無視するよりも使用する方が望ましいことも示します。
要約(オリジナル)
In recent years, there has been a growing interest in using machine learning techniques for the estimation of treatment effects. Most of the best-performing methods rely on representation learning strategies that encourage shared behavior among potential outcomes to increase the precision of treatment effect estimates. In this paper we discuss and classify these models in terms of their algorithmic inductive biases and present a new model, NN-CGC, that considers additional information from the causal graph. NN-CGC tackles bias resulting from spurious variable interactions by implementing novel constraints on models, and it can be integrated with other representation learning methods. We test the effectiveness of our method using three different base models on common benchmarks. Our results indicate that our model constraints lead to significant improvements, achieving new state-of-the-art results in treatment effects estimation. We also show that our method is robust to imperfect causal graphs and that using partial causal information is preferable to ignoring it.
arxiv情報
著者 | Roger Pros,Jordi Vitrià |
発行日 | 2024-04-18 14:57:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google