Sketch-Plan-Generalize: Continual Few-Shot Learning of Inductively Generalizable Spatial Concepts for Language-Guided Robot Manipulation

要約

私たちの目標は、帰納的に一般化可能な空間概念を継続的に学習できる、具体化されたエージェントを構築することです (たとえば、特定の高さの塔を建設するなど)。
既存の研究には特定の制限があり、(a) (Liang et al., 2023) およびそのマルチモーダルな拡張は、事前知識に大きく依存しており、実証に基づいていない (b) (Liu et al., 2023) 能力が欠如している。
彼らの純粋に神経的なアプローチにより、一般化することができます。
主な課題は、一般化する機能を持つ記号表現と、物理的に根拠のあるニューラル表現の間の微妙なバランスを達成することです。
これに応えて、我々は帰納的概念を根拠のある神経概念上の象徴的構成として表現することによる神経象徴的アプローチを提案する。
私たちの重要な洞察は、概念学習の問題を次のステップに分解することです。 1) スケッチ: 指定された命令のプログラム表現を取得します。 2) 計画: 一連の根拠のあるニューラル動作概念に対してモデルベースの RL を実行して、根拠のある計画を学習します。 3)
一般化: 一般化を容易にするために、汎用 (リフトされた) Python プログラムを抽象化します。
継続的な学習は、より高いレベルの記号構造を使用して、根拠のある神経概念の学習を散在させることによって実現されます。
私たちの実験は、新しい概念を学習し、帰納的に一般化する能力の点で、私たちのアプローチが既存のベースラインを大幅に上回っていることを示しています。

要約(オリジナル)

Our goal is to build embodied agents that can learn inductively generalizable spatial concepts in a continual manner, e.g, constructing a tower of a given height. Existing work suffers from certain limitations (a) (Liang et al., 2023) and their multi-modal extensions, rely heavily on prior knowledge and are not grounded in the demonstrations (b) (Liu et al., 2023) lack the ability to generalize due to their purely neural approach. A key challenge is to achieve a fine balance between symbolic representations which have the capability to generalize, and neural representations that are physically grounded. In response, we propose a neuro-symbolic approach by expressing inductive concepts as symbolic compositions over grounded neural concepts. Our key insight is to decompose the concept learning problem into the following steps 1) Sketch: Getting a programmatic representation for the given instruction 2) Plan: Perform Model-Based RL over the sequence of grounded neural action concepts to learn a grounded plan 3) Generalize: Abstract out a generic (lifted) Python program to facilitate generalizability. Continual learning is achieved by interspersing learning of grounded neural concepts with higher level symbolic constructs. Our experiments demonstrate that our approach significantly outperforms existing baselines in terms of its ability to learn novel concepts and generalize inductively.

arxiv情報

著者 Namasivayam Kalithasan,Sachit Sachdeva,Himanshu Gaurav Singh,Divyanshu Aggarwal,Gurarmaan Singh Panjeta,Vishal Bindal,Arnav Tuli,Rohan Paul,Parag Singla
発行日 2024-04-11 14:09:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク