Technical Report: Aggregation on Learnable Manifolds for Asynchronous Federated Optimization

要約

Federated Learning(FL)では、クライアントモデルのサーバー側の集約に対する主な課題は、損失状況のジオメトリと計算能力の両方におけるデバイスの不均一性です。
この問題は、データ分布の変動(クラスの不均衡によって悪化する)、インフラストラクチャの要件、およびサンプルサイズが一般的である臨床コンテキストで特に顕著です。
地元のトレーニング、遅延補正、集約段階のそれぞれで、基礎となるソリューションスペースジオメトリを活用することにより、これらの問題に対処するための新しい非同期FLフレームワークであるAsyncmanifoldを提案します。
私たちの提案には、一般的な形式での収束証明が伴い、局所的な行動の動機付けの徹底的な探索的研究、非線形モード接続に沿って集約を実行するため、線形補間に基づいた技術が遭遇する収束を回避する概念の証明アルゴリズムが伴います。

要約(オリジナル)

In Federated Learning (FL), a primary challenge to the server-side aggregation of client models is device heterogeneity, in both loss landscape geometry and computational capacity. This issue can be particularly pronounced in clinical contexts where variations in data distribution (aggravated by class imbalance), infrastructure requirements, and sample sizes are common. We propose AsyncManifold, a novel asynchronous FL framework to address these issues by taking advantage of underlying solution space geometry, at each of the local training, delay-correction, and aggregation stages. Our proposal is accompanied by a convergence proof in a general form and, motivated thorough exploratory studies of local behaviour, a proof-of-concept algorithm which performs aggregation along non-linear mode connections and hence avoids barriers to convergence that techniques based on linear interpolation will encounter.

arxiv情報

著者 Archie Licudi
発行日 2025-03-18 16:36:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Technical Report: Aggregation on Learnable Manifolds for Asynchronous Federated Optimization はコメントを受け付けていません

Landscape Complexity for the Empirical Risk of Generalized Linear Models: Discrimination between Structured Data

要約

KACライス式とランダムマトリックス理論の結果を使用して、高次元の経験的損失関数のファミリーの重要なポイントの平均数を取得します。データが$ D $ d $ d $のガウスベクターと相関しています。
現在の機械学習システムで一般的であるように、データの構造の存在をモデル化するために相関が導入されます。
技術的な仮説の下では、結果は大規模な$ d $制限で正確であり、アニールされた景観の複雑さ、つまり、損失の特定の値における予想される重要なポイントの対数を特徴付けます。
最初に、単一のパーセプトロンの損失関数の風景を詳細に扱い、次に異なる共分散行列を持つ2つの競合するデータセットが存在する場合に一般化し、Perceptronはそれらを区別しようとしています。
後者のモデルは、逆境と非自明のデータ構造との相互作用を理解するために適用できます。
完全性のために、相関入力データの存在下で一般化された線形モデルのトレーニングに使用される損失関数のケースも扱います。

要約(オリジナル)

We use the Kac-Rice formula and results from random matrix theory to obtain the average number of critical points of a family of high-dimensional empirical loss functions, where the data are correlated $d$-dimensional Gaussian vectors, whose number has a fixed ratio with their dimension. The correlations are introduced to model the existence of structure in the data, as is common in current Machine-Learning systems. Under a technical hypothesis, our results are exact in the large-$d$ limit, and characterize the annealed landscape complexity, namely the logarithm of the expected number of critical points at a given value of the loss. We first address in detail the landscape of the loss function of a single perceptron and then generalize it to the case where two competing data sets with different covariance matrices are present, with the perceptron seeking to discriminate between them. The latter model can be applied to understand the interplay between adversity and non-trivial data structure. For completeness, we also treat the case of a loss function used in training Generalized Linear Models in the presence of correlated input data.

arxiv情報

著者 Theodoros G. Tsironis,Aris L. Moustakas
発行日 2025-03-18 16:44:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML | Landscape Complexity for the Empirical Risk of Generalized Linear Models: Discrimination between Structured Data はコメントを受け付けていません

Deep learning modelling of manufacturing and build variations on multi-stage axial compressors aerodynamics

要約

計算流体のダイナミクスなどの物理的シミュレーションへの深い学習のアプリケーションは、最近関心の急増を経験しており、それらの実行可能性は異なるドメインで実証されています。
ただし、非常に複雑で乱流、3次元の流れにより、ターボチャイナリーアプリケーションではまだ使用可能であることが証明されていません。
ガスタービン用途向けの多段階軸コンプレッサーは、幾何学的変数と運用変数からの流れ場の回帰の高次元性により、非常に困難なケースを表しています。
このペーパーでは、多段階軸コンプレッサーのフローフィールドの予測と空力性能の予測のための深い学習フレームワークの開発と応用を示しています。
物理ベースの次元削減アプローチは、フローフィールド予測の可能性を解き放ちます。これは、構造化されていないものから構造化されたものに回帰問題を再構築し、自由度の数を減らすためです。
従来の「ブラックボックス」サロゲートモデルと比較して、対応する空力ドライバーを特定することにより、全体的なパフォーマンスの予測に説明可能性を提供します。
モデルは、関連するパフォーマンス散布が$ CO_2 $排出量に大きな影響を与えることが知られているため、製造および構築のバリエーションに適用されます。
提案されたアーキテクチャは、業界に関連するアプリケーションのために、リアルタイムでCFDベンチマークの精度に匹敵する精度を達成することが証明されています。
展開されたモデルは、ガスタービンの製造および構築プロセス内に容易に統合されているため、実用的で説明可能なデータを使用してパフォーマンスへの影響を分析的に評価する機会が提供されます。

要約(オリジナル)

Applications of deep learning to physical simulations such as Computational Fluid Dynamics have recently experienced a surge in interest, and their viability has been demonstrated in different domains. However, due to the highly complex, turbulent, and three-dimensional flows, they have not yet been proven usable for turbomachinery applications. Multistage axial compressors for gas turbine applications represent a remarkably challenging case, due to the high-dimensionality of the regression of the flow field from geometrical and operational variables. This paper demonstrates the development and application of a deep learning framework for predictions of the flow field and aerodynamic performance of multistage axial compressors. A physics-based dimensionality reduction approach unlocks the potential for flow-field predictions, as it re-formulates the regression problem from an unstructured to a structured one, as well as reducing the number of degrees of freedom. Compared to traditional ‘black-box’ surrogate models, it provides explainability to the predictions of the overall performance by identifying the corresponding aerodynamic drivers. The model is applied to manufacturing and build variations, as the associated performance scatter is known to have a significant impact on $CO_2$ emissions, which poses a challenge of great industrial and environmental relevance. The proposed architecture is proven to achieve an accuracy comparable to that of the CFD benchmark, in real-time, for an industrially relevant application. The deployed model is readily integrated within the manufacturing and build process of gas turbines, thus providing the opportunity to analytically assess the impact on performance with actionable and explainable data.

arxiv情報

著者 Giuseppe Bruni,Sepehr Maleki,Senthil K. Krishnababu
発行日 2025-03-18 16:48:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, physics.flu-dyn | Deep learning modelling of manufacturing and build variations on multi-stage axial compressors aerodynamics はコメントを受け付けていません

Graph-CNNs for RF Imaging: Learning the Electric Field Integral Equations

要約

無線周波数(RF)イメージングは​​、分散レシーバーの散乱フィールドに基づいて、シーンオブジェクトの表面のデジタルレクリエーションに関するものです。
この困難な逆散乱の問題を解決するために、最小限のレイテンシを提供しながら、同様のトレーニングの例からパターンを抽出するデータ駆動型の方法がしばしば採用されます。
この論文では、最初にデータ生成のための電界積分方程式に基づいたおおよその高速電磁モデルを提供し、その後、対応する逆モデルを学習するために深いニューラルネットワーク(DNN)アーキテクチャを提案します。
グラフアテンションバックボーンにより、システムジオメトリをDNNに渡すことができます。DNNでは、残留畳み込み層がオブジェクトに特徴を抽出し、UNETヘッドが最終画像再構成を実行します。
さまざまな特性の2つの合成データセットに関する定量的および定性的評価は、提案された高度なアーキテクチャと、信号ノイズレベルとさまざまな受信構成に対するその相対的な回復力のパフォーマンスの向上を示しています。

要約(オリジナル)

Radio-Frequency (RF) imaging concerns the digital recreation of the surfaces of scene objects based on the scattered field at distributed receivers. To solve this difficult inverse scattering problems, data-driven methods are often employed that extract patterns from similar training examples, while offering minimal latency. In this paper, we first provide an approximate yet fast electromagnetic model, which is based on the electric field integral equations, for data generation, and subsequently propose a Deep Neural Network (DNN) architecture to learn the corresponding inverse model. A graph-attention backbone allows for the system geometry to be passed to the DNN, where residual convolutional layers extract features about the objects, while a UNet head performs the final image reconstruction. Our quantitative and qualitative evaluations on two synthetic data sets of different characteristics showcase the performance gains of thee proposed advanced architecture and its relative resilience to signal noise levels and various reception configurations.

arxiv情報

著者 Kyriakos Stylianopoulos,Panagiotis Gavriilidis,Gabriele Gradoni,George C. Alexandropoulos
発行日 2025-03-18 17:16:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP | Graph-CNNs for RF Imaging: Learning the Electric Field Integral Equations はコメントを受け付けていません

Inducing Causal Structure for Interpretable Neural Networks Applied to Glucose Prediction for T1DM Patients

要約

インターチェンジ介入トレーニング(IIT)などの因果的な抽象化技術は、神経ネットワークに因果モデルにエンコードされた専門知識を注入することが提案されていますが、実際の問題への適用は依然として限られています。
この記事では、1型糖尿病(T1DM)患者の血糖値を予測する際のIITの適用について説明します。
この研究では、FDAによって承認されたシングルコースシミュレーターの非環式バージョンを使用して、多層パーセプトロン(MLP)モデルを訓練し、IITを使用して因果関係を課しています。
結果は、IITで訓練されたモデルが因果構造を効果的に抽象化し、さまざまな予測範囲(PHS)後のさまざまな予測視野(PHS)にわたって予測パフォーマンスの観点から標準的な構造を上回ったことを示しています。
さらに、反事実上の損失の内訳を活用して、因果メカニズムのどの部分がモデルによってより効果的に捉えられているかを説明することができます。
これらの予備的な結果は、専門知識を効果的に遵守することにより、ヘルスケアの予測モデルを強化するIITの可能性を示唆しています。

要約(オリジナル)

Causal abstraction techniques such as Interchange Intervention Training (IIT) have been proposed to infuse neural network with expert knowledge encoded in causal models, but their application to real-world problems remains limited. This article explores the application of IIT in predicting blood glucose levels in Type 1 Diabetes Mellitus (T1DM) patients. The study utilizes an acyclic version of the simglucose simulator approved by the FDA to train a Multi-Layer Perceptron (MLP) model, employing IIT to impose causal relationships. Results show that the model trained with IIT effectively abstracted the causal structure and outperformed the standard one in terms of predictive performance across different prediction horizons (PHs) post-meal. Furthermore, the breakdown of the counterfactual loss can be leveraged to explain which part of the causal mechanism are more or less effectively captured by the model. These preliminary results suggest the potential of IIT in enhancing predictive models in healthcare by effectively complying with expert knowledge.

arxiv情報

著者 Ana Esponera,Giovanni Cinnà
発行日 2025-03-18 17:18:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM | Inducing Causal Structure for Interpretable Neural Networks Applied to Glucose Prediction for T1DM Patients はコメントを受け付けていません

EnvBench: A Benchmark for Automated Environment Setup

要約

大規模な言語モデル(LLM)の最近の進歩により、研究者はソフトウェアエンジニアリングドメインの実用的なリポジトリレベルのタスクに焦点を当てることができました。
この作業では、ソフトウェアリポジトリと環境のセットアップで作業を自動化するための基礎タスク、つまりシステム上のリポジトリ固有の開発環境を構成するタスクを検討します。
環境のセットアップに関する既存の研究では、革新的なエージェント戦略が導入されていますが、その評価は、実際に遭遇したすべての構成の課題をキャプチャしない可能性のある小さなデータセットに基づいていることがよくあります。
このギャップに対処するために、包括的な環境セットアップベンチマークEnvenchを紹介します。
329のPythonと665 JVMベースの(Java、Kotlin)リポジトリが含まれ、単純な決定論的スクリプトで完全に構成できるプロジェクトを除き、本物の構成の課題を提示するリポジトリに焦点を当てています。
モデルチューニングのためのさらなるベンチマーク拡張機能と使用を可能にするために、2つの自動メトリックを実装します。Pythonの不足しているインポートの静的分析チェックとJVM言語のコンパイルチェック。
単純なゼロショットベースラインと2つのエージェントワークフローを含む3つの環境セットアップアプローチを評価することにより、ベンチマークの適用性を実証し、2つの強力なLLMバックボーン、GPT-4OとGPT-4O-MINIでテストします。
最良のアプローチは、Pythonの6.69%のリポジトリとJVMの29.47%のリポジトリを正常に構成することに成功しており、Envenchは現在のアプローチに挑戦し続けていることを示唆しています。
当社のベンチマークスイートは、https://github.com/jetbrains-research/envbenchで公開されています。
データセットと実験の軌跡は、https://jb.gg/envbenchで入手できます。

要約(オリジナル)

Recent advances in Large Language Models (LLMs) have enabled researchers to focus on practical repository-level tasks in software engineering domain. In this work, we consider a cornerstone task for automating work with software repositories-environment setup, i.e., a task of configuring a repository-specific development environment on a system. Existing studies on environment setup introduce innovative agentic strategies, but their evaluation is often based on small datasets that may not capture the full range of configuration challenges encountered in practice. To address this gap, we introduce a comprehensive environment setup benchmark EnvBench. It encompasses 329 Python and 665 JVM-based (Java, Kotlin) repositories, with a focus on repositories that present genuine configuration challenges, excluding projects that can be fully configured by simple deterministic scripts. To enable further benchmark extension and usage for model tuning, we implement two automatic metrics: a static analysis check for missing imports in Python and a compilation check for JVM languages. We demonstrate the applicability of our benchmark by evaluating three environment setup approaches, including a simple zero-shot baseline and two agentic workflows, that we test with two powerful LLM backbones, GPT-4o and GPT-4o-mini. The best approach manages to successfully configure 6.69% repositories for Python and 29.47% repositories for JVM, suggesting that EnvBench remains challenging for current approaches. Our benchmark suite is publicly available at https://github.com/JetBrains-Research/EnvBench. The dataset and experiment trajectories are available at https://jb.gg/envbench.

arxiv情報

著者 Aleksandra Eliseeva,Alexander Kovrigin,Ilia Kholkin,Egor Bogomolov,Yaroslav Zharov
発行日 2025-03-18 17:19:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE | EnvBench: A Benchmark for Automated Environment Setup はコメントを受け付けていません

Sustainable Greenhouse Microclimate Modeling: A Comparative Analysis of Recurrent and Graph Neural Networks

要約

太陽光発電(PV)システムを温室に統合すると、土地利用を最適化するだけでなく、食料生産と再生可能エネルギーの生成の二重の利点を可能にすることにより、持続可能な農業慣行を強化します。
ただし、エネルギー生産を最大化しながら最適な作物の成長を確保するには、内部環境条件の正確な予測が重要です。
この研究では、時空間グラフニューラルネットワーク(STGNNS)の新しい用途を温室効果微気候モデリングに紹介し、その性能を従来の再発性ニューラルネットワーク(RNN)と比較します。
RNNSは一時的なパターン認識に優れていますが、環境変数間の方向性の関係を明示的にモデル化することはできません。
STGNNアプローチは、これらの関係を指示されたグラフとして表現することにより、この制限に対処し、モデルが環境依存関係とその方向性の両方をキャプチャできるようにします。
ギリシャのVolosの温室から15分間隔で収集された高周波データを使用して、RNNは冬の条件($ r^2 = 0.985 $)で例外的な精度を達成するが、夏の冷却システムの操作中に制限を示していることを示します。
STGNNSは現在、パフォーマンスが低いことを示していますが(冬の$ r^2 = 0.947 $)、それらのアーキテクチャは、PV生成や作物の成長指標などの追加の変数を統合する可能性が高くなります。

要約(オリジナル)

The integration of photovoltaic (PV) systems into greenhouses not only optimizes land use but also enhances sustainable agricultural practices by enabling dual benefits of food production and renewable energy generation. However, accurate prediction of internal environmental conditions is crucial to ensure optimal crop growth while maximizing energy production. This study introduces a novel application of Spatio-Temporal Graph Neural Networks (STGNNs) to greenhouse microclimate modeling, comparing their performance with traditional Recurrent Neural Networks (RNNs). While RNNs excel at temporal pattern recognition, they cannot explicitly model the directional relationships between environmental variables. Our STGNN approach addresses this limitation by representing these relationships as directed graphs, enabling the model to capture both environmental dependencies and their directionality. Using high-frequency data collected at 15-minute intervals from a greenhouse in Volos, Greece, we demonstrate that RNNs achieve exceptional accuracy in winter conditions ($R^2 = 0.985$) but show limitations during summer cooling system operation. Though STGNNs currently show lower performance (winter $R^2 = 0.947$), their architecture offers greater potential for integrating additional variables such as PV generation and crop growth indicators.

arxiv情報

著者 Emiliano Seri,Marcello Petitta,Cristina Cornaro
発行日 2025-03-18 17:20:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.AP | Sustainable Greenhouse Microclimate Modeling: A Comparative Analysis of Recurrent and Graph Neural Networks はコメントを受け付けていません

FNDaaS: Content-agnostic Detection of Fake News sites

要約

自動偽のニュース検出は、誤った情報の広がりにおける困難な問題であり、現実世界の政治的および社会的影響を誇っています。
過去の研究では、このような偽のニュースを検出するための機械学習に基づいた方法を提案し、実際のコンテンツの言語特性など、公開されたニュース記事のさまざまな特性に焦点を当てていますが、それは見かけの言語障壁による制限があります。
Departing from such efforts, we propose Fake News Detection-as-a Service (FNDaaS), the first automatic, content-agnostic fake news detection method, that considers new and unstudied features such as network and structural characteristics per news website.
この方法は、ISPサイドでas-as-a-serviceを強制して、スケーラビリティとメンテナンスを容易にするため、またはユーザー側のエンドユーザーのプライバシーをより優れていることができます。
637の偽物と1183の実際のニュースWebサイトの既存のリストからrawう340k以上のデータポイントを使用して、および提案を実現する概念システムを構築およびテストすることにより、私たちの方法の有効性を実証します。
これらのWebサイトから収集されたデータの分析は、偽のニュースドメインの大部分が非常に若く、実際のニュースよりもドメインに関連付けられたIPの期間が低いように見えることを示しています。
機械学習分類器を使用してさまざまな実験を実施することにより、FNDAAが過去のサイトで最大0.967のAUCスコアを達成できること、新たにフラグを立てられたサイトで最大77-92%の精度を達成できることを実証します。

要約(オリジナル)

Automatic fake news detection is a challenging problem in misinformation spreading, and it has tremendous real-world political and social impacts. Past studies have proposed machine learning-based methods for detecting such fake news, focusing on different properties of the published news articles, such as linguistic characteristics of the actual content, which however have limitations due to the apparent language barriers. Departing from such efforts, we propose Fake News Detection-as-a Service (FNDaaS), the first automatic, content-agnostic fake news detection method, that considers new and unstudied features such as network and structural characteristics per news website. This method can be enforced as-a-Service, either at the ISP-side for easier scalability and maintenance, or user-side for better end-user privacy. We demonstrate the efficacy of our method using more than 340K datapoints crawled from existing lists of 637 fake and 1183 real news websites, and by building and testing a proof of concept system that materializes our proposal. Our analysis of data collected from these websites shows that the vast majority of fake news domains are very young and appear to have lower time periods of an IP associated with their domain than real news ones. By conducting various experiments with machine learning classifiers, we demonstrate that FNDaaS can achieve an AUC score of up to 0.967 on past sites, and up to 77-92% accuracy on newly-flagged ones.

arxiv情報

著者 Panagiotis Papadopoulos,Dimitris Spithouris,Evangelos P. Markatos,Nicolas Kourtellis
発行日 2025-03-18 17:28:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CY, cs.LG | FNDaaS: Content-agnostic Detection of Fake News sites はコメントを受け付けていません

Online Conformal Probabilistic Numerics via Adaptive Edge-Cloud Offloading

要約

リニアシステムのソリューションのクエリをエッジプロセッサに送信するエッジコンピューティング設定を考えてみましょう。
Edgeプロセッサは、割り当てられた時間とコンピューティングの予算内でユーザーのクエリに応答できるように、確率的線形ソルバー(PLS)を適用します。
ユーザーへのフィードバックは、不確実性セットの形式です。
モデルの誤解により、PLSの直接適用を介して得られた不確実性セットは、線形システムの真の解についてはカバレッジ保証が付いていません。
この作業では、長期的なカバレッジ要件を保証することを目的として、PLSによって生成される不確実性セットを調整する新しい方法を紹介します。
オンラインコンフォーマル予測-PLS(OCP-PLS)と呼ばれる提案された方法は、クラウドからエッジへの散発的なフィードバックを想定しています。
これにより、予測モデルのコンテキストで以前に研究されたオンライン最適化方法であるオンラインコンフォーマル予測(OCP)を介した不確実性しきい値のオンラインキャリブレーションが可能になります。
OCP-PLSの妥当性は、カバレッジ、予測セットサイズ、およびクラウド使用の間のトレードオフに洞察をもたらす実験によって検証されます。

要約(オリジナル)

Consider an edge computing setting in which a user submits queries for the solution of a linear system to an edge processor, which is subject to time-varying computing availability. The edge processor applies a probabilistic linear solver (PLS) so as to be able to respond to the user’s query within the allotted time and computing budget. Feedback to the user is in the form of an uncertainty set. Due to model misspecification, the uncertainty set obtained via a direct application of PLS does not come with coverage guarantees with respect to the true solution of the linear system. This work introduces a new method to calibrate the uncertainty sets produced by PLS with the aim of guaranteeing long-term coverage requirements. The proposed method, referred to as online conformal prediction-PLS (OCP-PLS), assumes sporadic feedback from cloud to edge. This enables the online calibration of uncertainty thresholds via online conformal prediction (OCP), an online optimization method previously studied in the context of prediction models. The validity of OCP-PLS is verified via experiments that bring insights into trade-offs between coverage, prediction set size, and cloud usage.

arxiv情報

著者 Qiushuo Hou,Sangwoo Park,Matteo Zecchin,Yunlong Cai,Guanding Yu,Osvaldo Simeone
発行日 2025-03-18 17:30:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Online Conformal Probabilistic Numerics via Adaptive Edge-Cloud Offloading はコメントを受け付けていません

Doubly robust identification of treatment effects from multiple environments

要約

実用的および倫理的な制約では、多くの場合、特に医学と社会科学において、因果推論のために観察データを使用する必要があります。
しかし、観察データセットは交絡する傾向があり、因果的結論の妥当性を潜在的に損なう傾向があります。
根本的な因果グラフがわかっている場合、バイアスを修正することは可能ですが、実際のシナリオではこれが実行可能な質問ではありません。
一般的な戦略は、利用可能なすべての共変量を調整することですが、このアプローチは、特に治療後または観測されていない変数が存在する場合、偏った治療効果の推定値をもたらすことができます。
基礎となる因果グラフを知るか学習する必要なく、複数のデータソースの不均一性を活用することにより、偏りのない治療効果の推定値を生成するアルゴリズムであるラーメンを提案します。
特に、ラーメンは二重に堅牢な識別を実現します。治療の因果的な親または結果の親が観察されるたびに、治療効果を識別でき、両親が観察されたノードが不変性の仮定を満たします。
合成および実世界のデータセットに関する経験的評価は、私たちのアプローチが既存の方法よりも優れていることを示しています。

要約(オリジナル)

Practical and ethical constraints often require the use of observational data for causal inference, particularly in medicine and social sciences. Yet, observational datasets are prone to confounding, potentially compromising the validity of causal conclusions. While it is possible to correct for biases if the underlying causal graph is known, this is rarely a feasible ask in practical scenarios. A common strategy is to adjust for all available covariates, yet this approach can yield biased treatment effect estimates, especially when post-treatment or unobserved variables are present. We propose RAMEN, an algorithm that produces unbiased treatment effect estimates by leveraging the heterogeneity of multiple data sources without the need to know or learn the underlying causal graph. Notably, RAMEN achieves doubly robust identification: it can identify the treatment effect whenever the causal parents of the treatment or those of the outcome are observed, and the node whose parents are observed satisfies an invariance assumption. Empirical evaluations on synthetic and real-world datasets show that our approach outperforms existing methods.

arxiv情報

著者 Piersilvio De Bartolomeis,Julia Kostin,Javier Abad,Yixin Wang,Fanny Yang
発行日 2025-03-18 17:33:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME, stat.ML | Doubly robust identification of treatment effects from multiple environments はコメントを受け付けていません