要約
模倣ベースのロボット学習は、転移可能性と一般化可能性の理論的可能性により、最近ロボット工学分野で大きな注目を集めています。
ただし、ハードウェアとデータ収集の両方の点で依然としてコストがかかることで悪名が高く、実世界の環境に導入するにはロボットの綿密なセットアップと正確な実験条件が必要です。
この論文では、簡単に再現でき、さまざまなロボットや環境に移行できる、低コストのロボット学習フレームワークを紹介します。
私たちは、展開可能な模倣学習が、高価な協働ロボット アームだけでなく、産業グレードのロボットにもうまく適用できることを実証します。
さらに、私たちの結果は、マルチタスクのロボット学習が、単純なネットワークアーキテクチャと、これまで必要と考えられていたよりも少ないデモで実現可能であることを示しています。
現実世界の操作タスクに関しては、現在の評価方法はほとんど主観的であるため、パフォーマンスのより客観的な評価を提供する新しい評価戦略である投票肯定率 (VPR) を提案します。
私たちは、独自に設計したさまざまなタスクの成功率を広範に比較して、アプローチを検証します。
コラボレーションを促進し、ロボット学習コミュニティをサポートするために、関連するすべてのデータセットとモデル チェックポイントをオープンソース化し、huggingface.co/ZhiChengAI で入手できます。
要約(オリジナル)
Imitation based robot learning has recently gained significant attention in the robotics field due to its theoretical potential for transferability and generalizability. However, it remains notoriously costly, both in terms of hardware and data collection, and deploying it in real-world environments demands meticulous setup of robots and precise experimental conditions. In this paper, we present a low-cost robot learning framework that is both easily reproducible and transferable to various robots and environments. We demonstrate that deployable imitation learning can be successfully applied even to industrial-grade robots, not just expensive collaborative robotic arms. Furthermore, our results show that multi-task robot learning is achievable with simple network architectures and fewer demonstrations than previously thought necessary. As the current evaluating method is almost subjective when it comes to real-world manipulation tasks, we propose Voting Positive Rate (VPR) – a novel evaluation strategy that provides a more objective assessment of performance. We conduct an extensive comparison of success rates across various self-designed tasks to validate our approach. To foster collaboration and support the robot learning community, we have open-sourced all relevant datasets and model checkpoints, available at huggingface.co/ZhiChengAI.
arxiv情報
著者 | Jiahuan Yan,Zhouyang Hong,Yu Zhao,Yu Tian,Yunxin Liu,Travis Davies,Luhui Hu |
発行日 | 2024-09-18 15:34:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google