Federated Learning for Estimating Heterogeneous Treatment Effects

要約

異種治療効果 (HTE) を推定するための機械学習手法は、医療、政策立案、教育などのさまざまな領域にわたる大規模な個別の意思決定を容易にします。
HTE に対する現在の機械学習アプローチでは、治療ごとにかなりの量のデータにアクセスする必要があり、介入に関連するコストが高いため、介入ごとに大量のデータを一元的に収集するのは非常に困難な課題となっています。
この障害を克服するために、この研究では、Federated Learning を介して機関を超えた HTE 推定量の共同学習のための新しいフレームワークを提案します。
我々は、クライアント間で介入や被験者集団が多様であっても、共通の特徴表現を共同で学習しながら、施設間で異なる介入下での結果に対する特定の予測関数を同時にかつ個人的に学習できることを示す。
私たちのフレームワークと関連アルゴリズムはこの洞察に基づいており、表形式のトランスフォーマーを活用して複数の入力データを特徴表現にマッピングし、その後、マルチタスク学習による結果予測に使用されます。
また、異種の入力特徴空間を処理できる、パーソナライズされたトランスフォーマーのフェデレーテッド トレーニングの新しい方法も提案します。
実際の臨床試験データに関する実験結果は、私たちの方法の有効性を実証しています。

要約(オリジナル)

Machine learning methods for estimating heterogeneous treatment effects (HTE) facilitate large-scale personalized decision-making across various domains such as healthcare, policy making, education, and more. Current machine learning approaches for HTE require access to substantial amounts of data per treatment, and the high costs associated with interventions makes centrally collecting so much data for each intervention a formidable challenge. To overcome this obstacle, in this work, we propose a novel framework for collaborative learning of HTE estimators across institutions via Federated Learning. We show that even under a diversity of interventions and subject populations across clients, one can jointly learn a common feature representation, while concurrently and privately learning the specific predictive functions for outcomes under distinct interventions across institutions. Our framework and the associated algorithm are based on this insight, and leverage tabular transformers to map multiple input data to feature representations which are then used for outcome prediction via multi-task learning. We also propose a novel way of federated training of personalised transformers that can work with heterogeneous input feature spaces. Experimental results on real-world clinical trial data demonstrate the effectiveness of our method.

arxiv情報

著者 Disha Makhija,Joydeep Ghosh,Yejin Kim
発行日 2024-02-27 17:33:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク