Distributionally Robust Skeleton Learning of Discrete Bayesian Networks

要約

私たちは、破損した可能性のあるデータから一般的な離散ベイジアン ネットワークの正確な骨格を学習する問題を検討します。
分布的にロバストな最適化と回帰アプローチに基づいて、有界ワッサースタイン距離または経験的分布に対する KL 発散内の分布ファミリーにわたる最も有害なリスクを最適化することを提案します。
最悪の場合のリスクは、外れ値の影響を考慮しています。
提案されたアプローチは、忠実性、順序関係、または特定の形式の条件付き分布を仮定することなく、一般的なカテゴリカル確率変数に適用されます。
効率的なアルゴリズムを提示し、提案された方法が標準的な正則化回帰アプローチと密接に関連していることを示します。
穏やかな仮定の下で、有界次数グラフの対数サンプル複雑さによる構造学習の成功に対する非漸近保証を導き出します。
合成データセットと実際のデータセットに関する数値研究により、私たちの方法の有効性が検証されます。
コードは https://github.com/DanielLeee/drslbn で入手できます。

要約(オリジナル)

We consider the problem of learning the exact skeleton of general discrete Bayesian networks from potentially corrupted data. Building on distributionally robust optimization and a regression approach, we propose to optimize the most adverse risk over a family of distributions within bounded Wasserstein distance or KL divergence to the empirical distribution. The worst-case risk accounts for the effect of outliers. The proposed approach applies for general categorical random variables without assuming faithfulness, an ordinal relationship or a specific form of conditional distribution. We present efficient algorithms and show the proposed methods are closely related to the standard regularized regression approach. Under mild assumptions, we derive non-asymptotic guarantees for successful structure learning with logarithmic sample complexities for bounded-degree graphs. Numerical study on synthetic and real datasets validates the effectiveness of our method. Code is available at https://github.com/DanielLeee/drslbn.

arxiv情報

著者 Yeshu Li,Brian D. Ziebart
発行日 2023-11-10 15:33:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク