要約
エージェントの目標や動作スタイルによって定義されるエージェントの意図を学習することは、多くの場合、ほんの数例からでは非常に困難です。
私たちはこの問題をタスク概念学習と呼び、可逆ニューラル生成モデルを活用して新しいタスク概念を学習する、逆生成モデリングによる少数ショット タスク学習 (FTL-IGM) というアプローチを紹介します。
中心となるアイデアは、一連の基本概念とそのデモンストレーションに基づいて生成モデルを事前トレーニングすることです。
次に、新しい概念 (新しい目標や新しいアクションなど) をいくつかデモンストレーションすると、生成モデルの可逆性のおかげで、私たちのメソッドはモデルの重みを更新せずにバックプロパゲーションを通じて基礎となる概念を学習します。
私たちは、オブジェクトの再配置、目標指向のナビゲーション、人間の行動のモーション キャプション、自動運転、現実世界のテーブルトップ操作の 5 つの領域でメソッドを評価します。
私たちの実験結果は、事前訓練された生成モデルを介して、(1) 目に見えない環境、および (2) 訓練概念との組み合わせにおいて、新しい概念を学習し、これらの概念に対応するエージェントの計画または動作を生成することに成功したことを示しています。
要約(オリジナル)
Learning the intents of an agent, defined by its goals or motion style, is often extremely challenging from just a few examples. We refer to this problem as task concept learning and present our approach, Few-Shot Task Learning through Inverse Generative Modeling (FTL-IGM), which learns new task concepts by leveraging invertible neural generative models. The core idea is to pretrain a generative model on a set of basic concepts and their demonstrations. Then, given a few demonstrations of a new concept (such as a new goal or a new action), our method learns the underlying concepts through backpropagation without updating the model weights, thanks to the invertibility of the generative model. We evaluate our method in five domains — object rearrangement, goal-oriented navigation, motion caption of human actions, autonomous driving, and real-world table-top manipulation. Our experimental results demonstrate that via the pretrained generative model, we successfully learn novel concepts and generate agent plans or motion corresponding to these concepts in (1) unseen environments and (2) in composition with training concepts.
arxiv情報
著者 | Aviv Netanyahu,Yilun Du,Antonia Bronars,Jyothish Pari,Joshua Tenenbaum,Tianmin Shu,Pulkit Agrawal |
発行日 | 2024-11-07 18:55:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google