要約
【タイトル】ロボット学習における対比的言語、アクション、状態の事前学習
【要約】
-ロボット学習において、言語、アクション、状態の情報を共有の埋め込み空間で統一する方法を提案し、下流の多様なタスクを実現する。 Contrastive Language、Action、State Pre-training(CLASP)は、分布学習を組み込んだCLIPフォーミュレーションを拡張し、行動-テキストの一対多の関係と複雑性を捉えることができる。
-テキストと行動エンコーダーの両方に分散出力を使用することで、モデルは多様なテキストコマンドを1つの行動に効果的に関連付け、その逆を可能にする。
-論文では、ゼロショットのテキスト-行動検索、見知らぬロボットの行動に対するキャプション生成、および言語依存型強化学習のための行動事前学習に、CLASPが有用であることを示している。
-分散エンコーダーは、見知らぬデータセットにおける取得とキャプションのパフォーマンスが優れており、テキストコマンドから意味のある探索的行動を生成でき、言語、アクション、状態の複雑な関係を捉えることができる。
-この研究は、ロボット学習のための統一された事前学習モデルの開発に向けた初歩的なステップを表し、幅広い下流タスクに汎用的に適用する可能性がある。
要約(オリジナル)
In this paper, we introduce a method for unifying language, action, and state information in a shared embedding space to facilitate a range of downstream tasks in robot learning. Our method, Contrastive Language, Action, and State Pre-training (CLASP), extends the CLIP formulation by incorporating distributional learning, capturing the inherent complexities and one-to-many relationships in behaviour-text alignment. By employing distributional outputs for both text and behaviour encoders, our model effectively associates diverse textual commands with a single behaviour and vice-versa. We demonstrate the utility of our method for the following downstream tasks: zero-shot text-behaviour retrieval, captioning unseen robot behaviours, and learning a behaviour prior for language-conditioned reinforcement learning. Our distributional encoders exhibit superior retrieval and captioning performance on unseen datasets, and the ability to generate meaningful exploratory behaviours from textual commands, capturing the intricate relationships between language, action, and state. This work represents an initial step towards developing a unified pre-trained model for robotics, with the potential to generalise to a broad range of downstream tasks.
arxiv情報
著者 | Krishan Rana,Andrew Melnik,Niko Sünderhauf |
発行日 | 2023-04-21 07:19:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI