Dynamic Regularized CBDT: Variance-Calibrated Causal Boosting for Interpretable Heterogeneous Treatment Effects

要約

ハイステークスアプリケーションの不均一な治療効果の推定には、精度、解釈可能性、およびキャリブレーションを同時に最適化するモデルが必要です。
ただし、多くの既存の樹木ベースの因果推論手法は、観測データに適用されると高い推定エラーを示します。これは、要因間の複雑な相互作用をキャプチャするのに苦労し、静的な正則化スキームに依存するためです。
この作業では、分散の正則化と平均治療効果のキャリブレーションを勾配ブーストされた決定ツリーの損失関数に統合する新しいフレームワークである動的な正規化された因果関係の決定ツリー(CBDT)を提案します。
当社のアプローチは、勾配統計を使用して正則化パラメーターを動的に更新し、バイアス分散トレードオフのバランスをより良くします。
標準のベンチマークデータセットと実際の臨床データに関する広範な実験は、提案された方法が真の治療効果の信頼できるカバレッジを維持しながら、推定精度を大幅に改善することを示しています。
集中治療室の患者トリアージ研究では、この方法は臨床的に実用的なルールを正常に特定し、治療効果の推定において高精度を達成しました。
結果は、動的正規化がエラー境界を効果的に引き締め、予測パフォーマンスとモデルの解釈可能性の両方を強化できることを検証します。

要約(オリジナル)

Heterogeneous treatment effect estimation in high-stakes applications demands models that simultaneously optimize precision, interpretability, and calibration. Many existing tree-based causal inference techniques, however, exhibit high estimation errors when applied to observational data because they struggle to capture complex interactions among factors and rely on static regularization schemes. In this work, we propose Dynamic Regularized Causal Boosted Decision Trees (CBDT), a novel framework that integrates variance regularization and average treatment effect calibration into the loss function of gradient boosted decision trees. Our approach dynamically updates the regularization parameters using gradient statistics to better balance the bias-variance tradeoff. Extensive experiments on standard benchmark datasets and real-world clinical data demonstrate that the proposed method significantly improves estimation accuracy while maintaining reliable coverage of true treatment effects. In an intensive care unit patient triage study, the method successfully identified clinically actionable rules and achieved high accuracy in treatment effect estimation. The results validate that dynamic regularization can effectively tighten error bounds and enhance both predictive performance and model interpretability.

arxiv情報

著者 Yichen Liu
発行日 2025-04-18 15:02:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62H12, 68T05, 90C30, cs.LG, G.3, stat.ML パーマリンク