Backtracking Counterfactuals

要約

反事実的推論 — いくつかの状況が (f) 実際に発生したものとは異なる (事実に反する) 仮説シナリオまたは可能な世界を想像する — は、人間の認識のいたるところに存在します。
従来、反事実的に改変された状況は、同じ初期条件を共有しながら局所的に自然の法則に違反する「小さな奇跡」として扱われてきました。
パールの構造的因果モデル (SCM) フレームワークでは、外生変数の値を共有しながら因果法則を修正する介入によって、これは数学的に厳密になります。
しかし、近年、反事実に関するこの純粋に介入主義的な説明は、哲学者と心理学者の両方からますます精査されるようになっています。
代わりに、彼らは反事実の遡及的な説明を示唆しており、それによれば、因果律は反事実の世界で不変のままです。
事実世界との違いは、代わりに変更された初期条件 (外生変数) に「バックトラック」されます。
現在の作業では、SCM フレームワーク内の反事実推論のこの代替モードを調査し、形式化します。
人間が後戻りするという十分な証拠にもかかわらず、現在の研究は、私たちの知る限り、反事実を後戻りする最初の一般的な説明とアルゴリズム化を構成しています。
関連文献のコンテキストでバックトラッキングのセマンティクスについて説明し、説明可能な人工知能 (XAI) の最近の開発との関連性を引き出します。

要約(オリジナル)

Counterfactual reasoning — envisioning hypothetical scenarios, or possible worlds, where some circumstances are different from what (f)actually occurred (counter-to-fact) — is ubiquitous in human cognition. Conventionally, counterfactually-altered circumstances have been treated as ‘small miracles’ that locally violate the laws of nature while sharing the same initial conditions. In Pearl’s structural causal model (SCM) framework this is made mathematically rigorous via interventions that modify the causal laws while the values of exogenous variables are shared. In recent years, however, this purely interventionist account of counterfactuals has increasingly come under scrutiny from both philosophers and psychologists. Instead, they suggest a backtracking account of counterfactuals, according to which the causal laws remain unchanged in the counterfactual world; differences to the factual world are instead ‘backtracked’ to altered initial conditions (exogenous variables). In the present work, we explore and formalise this alternative mode of counterfactual reasoning within the SCM framework. Despite ample evidence that humans backtrack, the present work constitutes, to the best of our knowledge, the first general account and algorithmisation of backtracking counterfactuals. We discuss our backtracking semantics in the context of related literature and draw connections to recent developments in explainable artificial intelligence (XAI).

arxiv情報

著者 Julius von Kügelgen,Abdirisak Mohamed,Sander Beckers
発行日 2023-02-21 12:52:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク