PoCo: Policy Composition from and for Heterogeneous Robot Learning

要約

様々なタスクのための異種データから一般的なロボットポリシーを学習することは重要な課題である。既存のロボットデータセットは、色、深度、触覚、固有知覚情報などのモダリティが異なり、シミュレーション、実ロボット、人間のビデオなどの異なるドメインで収集されている。現在の手法では、通常、1つのドメインから全てのデータを収集し、プールすることで、タスクやドメインにおけるこのような異種性を扱うための単一のポリシーを学習しているが、これは法外なコストがかかり困難である。本研究では、拡散モデルで表現された異なるデータ分布を合成することで、シーンレベルとタスクレベルの一般化された操作スキルを学習するために、このような多様なモダリティとドメインにまたがる情報を組み合わせる、ポリシー合成と呼ばれる柔軟なアプローチを提示する。本手法は、マルチタスク操作のためのタスクレベル合成を用いることができ、推論時にポリシーの振る舞いを適応させるための分析的コスト関数と合成することができる。本手法をシミュレーション、人間、および実際のロボットのデータで訓練し、道具使用タスクで評価する。その結果、様々なシーンやタスクの下で、ロバストで器用な性能を達成し、シミュレーションと実世界の実験の両方で、単一のデータソースからのベースラインを凌駕した。詳細は https://liruiw.github.io/policycomp を参照。

要約(オリジナル)

Training general robotic policies from heterogeneous data for different tasks is a significant challenge. Existing robotic datasets vary in different modalities such as color, depth, tactile, and proprioceptive information, and collected in different domains such as simulation, real robots, and human videos. Current methods usually collect and pool all data from one domain to train a single policy to handle such heterogeneity in tasks and domains, which is prohibitively expensive and difficult. In this work, we present a flexible approach, dubbed Policy Composition, to combine information across such diverse modalities and domains for learning scene-level and task-level generalized manipulation skills, by composing different data distributions represented with diffusion models. Our method can use task-level composition for multi-task manipulation and be composed with analytic cost functions to adapt policy behaviors at inference time. We train our method on simulation, human, and real robot data and evaluate in tool-use tasks. The composed policy achieves robust and dexterous performance under varying scenes and tasks and outperforms baselines from a single data source in both simulation and real-world experiments. See https://liruiw.github.io/policycomp for more details .

arxiv情報

著者 Lirui Wang,Jialiang Zhao,Yilun Du,Edward H. Adelson,Russ Tedrake
発行日 2024-02-04 14:51:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO パーマリンク