Combining Induction and Transduction for Abstract Reasoning

要約

非常に少数の例から入出力マッピングを学習する場合、最初に例を説明する潜在関数を推論する方が良いのでしょうか、それとも新しいテスト出力を直接予測する方が良いのでしょうか。
ニューラルネットワークを使っているのか?
私たちは、帰納 (潜在関数の推論) と変換 (特定のテスト入力に対するテスト出力を直接予測) のニューラル モデルをトレーニングすることによって、ARC でこの問題を研究します。
ARC トレーニング タスクを解決する、合成的に生成された Python プログラムのバリエーションを使用してトレーニングします。
同じトレーニング問題を持ち、同じニューラル アーキテクチャを共有しているにもかかわらず、帰納的モデルと変換的モデルは異なる種類のテスト問題を解決することがわかりました。帰納的プログラム合成は正確な計算と複数の概念の合成に優れていますが、変換はより曖昧な知覚概念で成功します。
それらをアンサンブルすると、ARC 上で人間レベルのパフォーマンスに近づきます。

要約(オリジナル)

When learning an input-output mapping from very few examples, is it better to first infer a latent function that explains the examples, or is it better to directly predict new test outputs, e.g. using a neural network? We study this question on ARC by training neural models for induction (inferring latent functions) and transduction (directly predicting the test output for a given test input). We train on synthetically generated variations of Python programs that solve ARC training tasks. We find inductive and transductive models solve different kinds of test problems, despite having the same training problems and sharing the same neural architecture: Inductive program synthesis excels at precise computations, and at composing multiple concepts, while transduction succeeds on fuzzier perceptual concepts. Ensembling them approaches human-level performance on ARC.

arxiv情報

著者 Wen-Ding Li,Keya Hu,Carter Larsen,Yuqing Wu,Simon Alford,Caleb Woo,Spencer M. Dunn,Hao Tang,Michelangelo Naim,Dat Nguyen,Wei-Long Zheng,Zenna Tavares,Yewen Pu,Kevin Ellis
発行日 2024-12-02 12:36:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク