Sketch-Plan-Generalize: Continual Few-Shot Learning of Inductively Generalizable Spatial Concepts

要約

私たちの目標は、身体化されたエージェントが帰納的に一般化可能な空間概念を学習できるようにすることです。たとえば、高さが増加する塔の帰納的構成として階段を学習できます。
人間によるデモンストレーションを考慮して、観察されたインスタンスを説明する簡潔な ${program}$ 表現を推論する学習アーキテクチャを求めます。
さらに、このアプローチは、さまざまなサイズの新しい構造、または以前に学習した概念の階層構成として表現される複雑な構造に帰納的に一般化する必要があります。
純粋なニューラル モデルだけでなく、事前にトレーニングされた大規模 (視覚的) 言語モデルのコード生成機能を使用する既存のアプローチでは、事前に目に見えない複雑な概念への一般化が不十分です。
私たちの重要な洞察は、帰納的概念の学習を、(i) ${\it Sketch:}$ が新しい概念の大まかな特徴を検出および推論すること、(ii) ${\it Plan:}$ が、根拠のあるアクション シーケンスに対して MCTS 検索を実行することとして考慮することです (
iii) ${\it Generalize:}$ は、根拠のある計画を帰​​納的プログラムとして抽象化します。
当社のパイプラインは一般化とモジュールの再利用を促進し、継続的な概念の学習を可能にします。
私たちのアプローチは、大規模言語モデル (LLM) のコード生成能力の利点と、根拠のあるニューラル表現を組み合わせたもので、その結果、LLM のみとニューラル言語に関連した複雑な構造を構築するタスクにおいて、より強力な帰納的一般化を示す神経記号プログラムが得られます。
近づくだけです。
さらに、私たちは、次の具体的な指導のために学んだ概念を使用して推論と計画の能力を実証します。

要約(オリジナル)

Our goal is to enable embodied agents to learn inductively generalizable spatial concepts, e.g., learning staircase as an inductive composition of towers of increasing height. Given a human demonstration, we seek a learning architecture that infers a succinct ${program}$ representation that explains the observed instance. Additionally, the approach should generalize inductively to novel structures of different sizes or complex structures expressed as a hierarchical composition of previously learned concepts. Existing approaches that use code generation capabilities of pre-trained large (visual) language models, as well as purely neural models, show poor generalization to a-priori unseen complex concepts. Our key insight is to factor inductive concept learning as (i) ${\it Sketch:}$ detecting and inferring a coarse signature of a new concept (ii) ${\it Plan:}$ performing MCTS search over grounded action sequences (iii) ${\it Generalize:}$ abstracting out grounded plans as inductive programs. Our pipeline facilitates generalization and modular reuse, enabling continual concept learning. Our approach combines the benefits of the code generation ability of large language models (LLM) along with grounded neural representations, resulting in neuro-symbolic programs that show stronger inductive generalization on the task of constructing complex structures in relation to LLM-only and neural-only approaches. Furthermore, we demonstrate reasoning and planning capabilities with learned concepts for embodied instruction following.

arxiv情報

著者 Namasivayam Kalithasan,Sachit Sachdeva,Himanshu Gaurav Singh,Vishal Bindal,Arnav Tuli,Gurarmaan Singh Panjeta,Divyanshu Aggarwal,Rohan Paul,Parag Singla
発行日 2024-05-29 09:46:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク