要約
私たちは、深い模倣学習を使用して、ヒューマノイドの移動操作スキルを開発するという問題に取り組みます。
自由度の高いヒューマノイドのタスク デモンストレーションとトレーニング ポリシーを収集することは、大きな課題となります。
人間のデモンストレーションから人型ロボットの運動操作ポリシーをトレーニングするためのデータ効率の高いフレームワークである TRILL を紹介します。
このフレームワークでは、直感的な仮想現実 (VR) インターフェイスを通じて人間のデモンストレーション データを収集します。
私たちは、全身制御定式化を採用して、人間のオペレーターによるタスク空間コマンドをロボットの関節トルク作動に変換し、そのダイナミクスを安定させます。
ヒューマノイドの移動操作に合わせて調整された高レベルのアクション抽象化を採用することで、私たちのメソッドは複雑な感覚運動スキルを効率的に学習できます。
さまざまな移動操作タスクを実行するための TRILL の有効性を、シミュレーションおよび現実世界のロボットで実証します。
ビデオと追加資料はプロジェクト ページ https://ut-austin-rpl.github.io/TRILL でご覧いただけます。
要約(オリジナル)
We tackle the problem of developing humanoid loco-manipulation skills with deep imitation learning. The difficulty of collecting task demonstrations and training policies for humanoids with a high degree of freedom presents substantial challenges. We introduce TRILL, a data-efficient framework for training humanoid loco-manipulation policies from human demonstrations. In this framework, we collect human demonstration data through an intuitive Virtual Reality (VR) interface. We employ the whole-body control formulation to transform task-space commands by human operators into the robot’s joint-torque actuation while stabilizing its dynamics. By employing high-level action abstractions tailored for humanoid loco-manipulation, our method can efficiently learn complex sensorimotor skills. We demonstrate the effectiveness of TRILL in simulation and on a real-world robot for performing various loco-manipulation tasks. Videos and additional materials can be found on the project page: https://ut-austin-rpl.github.io/TRILL.
arxiv情報
著者 | Mingyo Seo,Steve Han,Kyutae Sim,Seung Hyeon Bang,Carlos Gonzalez,Luis Sentis,Yuke Zhu |
発行日 | 2023-11-19 09:09:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google