Deception by Omission: Using Adversarial Missingness to Poison Causal Structure Learning

要約

観察データからの因果構造の推論は、因果機械学習の重要な要素です。
実際には、このデータは不完全に観察される可能性があります。
これまでの研究では、完全に観察されたトレーニング データの敵対的摂動が、不正確な因果構造モデル (SCM) の学習を強制するために使用される可能性があることが実証されています。
ただし、データの正確性を監査できる場合 (たとえば、ソースによって暗号的に署名されている場合)、この敵対的なメカニズムは無効になります。
この研究では、攻撃者が真のトレーニング データの一部を欺瞞的に省略して、学習した因果構造を望ましい方法で偏らせるという、新しい攻撃手法が導入されています。
理論的に健全な攻撃メカニズムが任意の SCM の場合に導出され、サンプル効率の良い学習ベースのヒューリスティックがガウス SCM に対して与えられます。
実際のデータセットと合成データセットに対するこれらのアプローチの実験的検証により、一般的な因果構造学習アルゴリズムを欺く際の敵対的欠損攻撃の有効性が実証されました。

要約(オリジナル)

Inference of causal structures from observational data is a key component of causal machine learning; in practice, this data may be incompletely observed. Prior work has demonstrated that adversarial perturbations of completely observed training data may be used to force the learning of inaccurate causal structural models (SCMs). However, when the data can be audited for correctness (e.g., it is crytographically signed by its source), this adversarial mechanism is invalidated. This work introduces a novel attack methodology wherein the adversary deceptively omits a portion of the true training data to bias the learned causal structures in a desired manner. Theoretically sound attack mechanisms are derived for the case of arbitrary SCMs, and a sample-efficient learning-based heuristic is given for Gaussian SCMs. Experimental validation of these approaches on real and synthetic data sets demonstrates the effectiveness of adversarial missingness attacks at deceiving popular causal structure learning algorithms.

arxiv情報

著者 Deniz Koyuncu,Alex Gittens,Bülent Yener,Moti Yung
発行日 2023-05-31 17:14:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク