Sample Complexity of Nonparametric Closeness Testing for Continuous Distributions and Its Application to Causal Discovery with Hidden Confounding

要約

継続的な分布のための親密性テストの問題と、因果発見への影響を研究します。
具体的には、ノンパラメトリックな仮定の下でKullback-Leibler(KL)発散に関して、2つの多次元の連続分布が同一であるか、少なくとも$ \ epsilon $によって異なるかどうかを区別するサンプルの複雑さを分析します。
この目的のために、Von Misesの拡張に基づいたKL Divergenceの推定器を提案します。
私たちの近さテストは、滑らかさの仮定の下で最適なパラメトリックレートを達成します。
因果発見アルゴリズムの構成要素として機能するこのテストを装備し、2つの多次元ランダム変数間の因果構造を識別するため、因果発見方法のサンプルの複雑さ保証を確立します。
私たちの知る限り、この作業は、観測されていない交絡の存在下で非ガウス連続変数を備えた多次元の非線形モデルでの際の原因と結果を区別するためのサンプルの複雑さの保証を提供する最初の作業です。

要約(オリジナル)

We study the problem of closeness testing for continuous distributions and its implications for causal discovery. Specifically, we analyze the sample complexity of distinguishing whether two multidimensional continuous distributions are identical or differ by at least $\epsilon$ in terms of Kullback-Leibler (KL) divergence under non-parametric assumptions. To this end, we propose an estimator of KL divergence which is based on the von Mises expansion. Our closeness test attains optimal parametric rates under smoothness assumptions. Equipped with this test, which serves as a building block of our causal discovery algorithm to identify the causal structure between two multidimensional random variables, we establish sample complexity guarantees for our causal discovery method. To the best of our knowledge, this work is the first work that provides sample complexity guarantees for distinguishing cause and effect in multidimensional non-linear models with non-Gaussian continuous variables in the presence of unobserved confounding.

arxiv情報

著者 Fateme Jamshidi,Sina Akbari,Negar Kiyavash
発行日 2025-03-10 15:49:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク