Robust agents learn causal world models

要約

因果推論が堅牢で一般的な知能において基本的な役割を果たしているという仮説が長年にわたって立てられてきました。
ただし、エージェントが新しい領域に一般化するために因果モデルを学習する必要があるのか​​、それとも他の誘導バイアスで十分なのかは不明です。
我々はこの質問に答え、大規模な分布シフトの下でリグレス限界を満たすことができるエージェントは、最適なエージェントの真の因果モデルに収束する、データ生成プロセスの近似因果モデルを学習しているに違いないことを示します。
私たちは、転移学習や因果推論を含むいくつかの研究分野に対するこの結果の意味について議論します。

要約(オリジナル)

It has long been hypothesised that causal reasoning plays a fundamental role in robust and general intelligence. However, it is not known if agents must learn causal models in order to generalise to new domains, or if other inductive biases are sufficient. We answer this question, showing that any agent capable of satisfying a regret bound under a large set of distributional shifts must have learned an approximate causal model of the data generating process, which converges to the true causal model for optimal agents. We discuss the implications of this result for several research areas including transfer learning and causal inference.

arxiv情報

著者 Jonathan Richens,Tom Everitt
発行日 2024-02-16 18:29:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク