要約
効果的なタスク表現は、さまざまな基本タスクを学習した後、エージェントが構成要素ステップの表現を一緒に構成するだけで複数のステップで構成される複合タスクを実行できるように、構成性を促進する必要があります。
これは概念的にシンプルで魅力的ですが、この種の構成性を可能にする表現を自動的に学習する方法は明確ではありません。
現在および将来の状態の表現を一時的なアライメント損失に関連付けることを学ぶことで、明示的なサブタスク計画または強化学習がない場合でも、組成の一般化を改善できることを示します。
多様なロボット操作タスクとシミュレーションにおけるアプローチを評価し、言語画像または目標画像で指定されたタスクの大幅な改善を示します。
要約(オリジナル)
Effective task representations should facilitate compositionality, such that after learning a variety of basic tasks, an agent can perform compound tasks consisting of multiple steps simply by composing the representations of the constituent steps together. While this is conceptually simple and appealing, it is not clear how to automatically learn representations that enable this sort of compositionality. We show that learning to associate the representations of current and future states with a temporal alignment loss can improve compositional generalization, even in the absence of any explicit subtask planning or reinforcement learning. We evaluate our approach across diverse robotic manipulation tasks as well as in simulation, showing substantial improvements for tasks specified with either language or goal images.
arxiv情報
著者 | Vivek Myers,Bill Chunyuan Zheng,Anca Dragan,Kuan Fang,Sergey Levine |
発行日 | 2025-02-13 08:54:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google