Causal Triplet: An Open Challenge for Intervention-centric Causal Representation Learning

要約

近年、介入下で低レベルの画像ペアから高レベルの因果表現を学習することに関心が高まっています。
しかし、既存の取り組みは、現実世界の問題からかけ離れた単純な合成設定に大きく限定されています。
このホワイトペーパーでは、視覚的により複雑なシーンだけでなく、以前の作品で一般的に見落とされていた2つの重要な必要性を特徴とする因果表現学習ベンチマークであるCausal Tripletを提示します。
他の人はそうではありませんが、反事実的な観察。
(ii)独立した因果メカニズムの原則からの分布外の堅牢性に重点を置いた介入的な下流のタスク。
大規模な実験を通じて、絡み合っていない表現またはオブジェクト中心の表現の知識を使用して構築されたモデルは、分散型のモデルよりも大幅に優れていることがわかりました。
ただし、最近の因果表現学習方法は、そのような潜在的な構造を特定するのにまだ苦労しており、将来の作業に対する実質的な課題と機会を示しています。
私たちのコードとデータセットは、https://sites.google.com/view/causaltriplet で入手できます。

要約(オリジナル)

Recent years have seen a surge of interest in learning high-level causal representations from low-level image pairs under interventions. Yet, existing efforts are largely limited to simple synthetic settings that are far away from real-world problems. In this paper, we present Causal Triplet, a causal representation learning benchmark featuring not only visually more complex scenes, but also two crucial desiderata commonly overlooked in previous works: (i) an actionable counterfactual setting, where only certain object-level variables allow for counterfactual observations whereas others do not; (ii) an interventional downstream task with an emphasis on out-of-distribution robustness from the independent causal mechanisms principle. Through extensive experiments, we find that models built with the knowledge of disentangled or object-centric representations significantly outperform their distributed counterparts. However, recent causal representation learning methods still struggle to identify such latent structures, indicating substantial challenges and opportunities for future work. Our code and datasets will be available at https://sites.google.com/view/causaltriplet.

arxiv情報

著者 Yuejiang Liu,Alexandre Alahi,Chris Russell,Max Horn,Dominik Zietlow,Bernhard Schölkopf,Francesco Locatello
発行日 2023-01-12 17:43:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク