Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers

要約

今日のジェネラリストロボットモデルをトレーニングする際の障害の 1 つは、異質性です。
従来のロボット学習方法では、1 つのタスクに対して 1 つの特定の実施形態でトレーニングするためにデータを収集することがよくありましたが、これはコストが高く、過剰学習になりがちでした。
この研究では、さまざまな実施形態および大規模なタスクにわたるロボットデータの異種事前トレーニングを通じてポリシー表現を学習する問題を研究します。
我々は、タスクと実施形態にとらわれない共有表現を学習するために、ポリシー ニューラル ネットワークの大規模な共有可能なトランクを事前トレーニングする異種事前トレーニング済みトランスフォーマー (HPT) を提案します。
この一般的なアーキテクチャは、別個の実施形態からの特定の固有受容および視覚入力を短いトークンシーケンスに整列させ、次いでそのようなトークンを処理して、異なるタスクの制御ロボットにマッピングする。
最近の大規模な複数の実施形態の実世界のロボット データセット、シミュレーション、展開されたロボット、人間のビデオ データセットを活用して、異種混合にわたる事前トレーニング ポリシーを調査します。
52 個のデータセットの範囲で、トレーニング目標のスケーリング動作を調査するための実験を実施します。
HPT はいくつかのベースラインを上回り、複数のシミュレータ ベンチマークや現実世界の設定における目に見えないタスクで、微調整されたポリシーのパフォーマンスを 20% 以上向上させます。
コードとビデオについては、プロジェクト Web サイト (https://liruiw.github.io/hpt/) を参照してください。

要約(オリジナル)

One of the roadblocks for training generalist robotic models today is heterogeneity. Previous robot learning methods often collect data to train with one specific embodiment for one task, which is expensive and prone to overfitting. This work studies the problem of learning policy representations through heterogeneous pre-training on robot data across different embodiments and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT), which pre-train a large, shareable trunk of a policy neural network to learn a task and embodiment agnostic shared representation. This general architecture aligns the specific proprioception and vision inputs from distinct embodiments to a short sequence of tokens and then processes such tokens to map to control robots for different tasks. Leveraging the recent large-scale multi-embodiment real-world robotic datasets as well as simulation, deployed robots, and human video datasets, we investigate pre-training policies across heterogeneity. We conduct experiments to investigate the scaling behaviors of training objectives, to the extent of 52 datasets. HPTs outperform several baselines and enhance the fine-tuned policy performance by over 20% on unseen tasks in multiple simulator benchmarks and real-world settings. See the project website (https://liruiw.github.io/hpt/) for code and videos.

arxiv情報

著者 Lirui Wang,Xinlei Chen,Jialiang Zhao,Kaiming He
発行日 2024-09-30 17:39:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク