Towards Learning Abductive Reasoning using VSA Distributed Representations

要約

Learn-VRF に基づいて抽象推論タスクを解決するモデルである、コンテキスト認識型アブダクティブ ルール学習者 (ARLC) を紹介します。
ARLC は、アブダクティブ推論のための斬新でより広範囲に適用可能なトレーニング目標を特徴としており、その結果、Raven の漸進行列 (RPM) を解く際の解釈性と精度が向上します。
ARLC では、プログラミング分野の知識と、データ配布の基礎となるルールの学習の両方が可能になります。
I-RAVEN データセットで ARLC を評価し、分布内テストと分布外 (目に見えない属性とルールのペア) の両方のテストにわたる最先端の精度を示します。
ARLC は、パラメータが桁違いに少ないにもかかわらず、大規模な言語モデルを含む神経記号的およびコネクショニストのベースラインを上回ります。
プログラムされた知識に基づいて例から段階的に学習することで、ARLC のプログラミング後のトレーニングに対する堅牢性を示します。これにより、パフォーマンスが向上するだけで、プログラムされたソリューションを壊滅的に忘れることはありません。
2×2 RPM コンスタレーションから目に見えないコンスタレーションまでの ARLC のシームレスな転移学習を検証します。
私たちのコードは https://github.com/IBM/abductive-rule-learner-with-context-awareness で入手できます。

要約(オリジナル)

We introduce the Abductive Rule Learner with Context-awareness (ARLC), a model that solves abstract reasoning tasks based on Learn-VRF. ARLC features a novel and more broadly applicable training objective for abductive reasoning, resulting in better interpretability and higher accuracy when solving Raven’s progressive matrices (RPM). ARLC allows both programming domain knowledge and learning the rules underlying a data distribution. We evaluate ARLC on the I-RAVEN dataset, showcasing state-of-the-art accuracy across both in-distribution and out-of-distribution (unseen attribute-rule pairs) tests. ARLC surpasses neuro-symbolic and connectionist baselines, including large language models, despite having orders of magnitude fewer parameters. We show ARLC’s robustness to post-programming training by incrementally learning from examples on top of programmed knowledge, which only improves its performance and does not result in catastrophic forgetting of the programmed solution. We validate ARLC’s seamless transfer learning from a 2×2 RPM constellation to unseen constellations. Our code is available at https://github.com/IBM/abductive-rule-learner-with-context-awareness.

arxiv情報

著者 Giacomo Camposampiero,Michael Hersche,Aleksandar Terzić,Roger Wattenhofer,Abu Sebastian,Abbas Rahimi
発行日 2024-06-27 12:05:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SC パーマリンク