要約
HomeRobot (名詞): 日常のタスクを完了するために家の中を移動し、さまざまな物体を操作する、手頃な価格の準拠ロボット。
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境にある任意のオブジェクトを選択し、指示された場所に配置するという問題です。
これは、ロボットが人間の環境で有用なアシスタントとなるための根本的な課題です。これは、ロボット工学全体のサブ問題に取り組む必要があるためです。つまり、知覚、言語理解、ナビゲーション、操作はすべて OVMM にとって不可欠です。
さらに、これらの下位問題に対するソリューションを統合すると、それ自体が大きな課題を引き起こします。
この分野の研究を推進するために、私たちは HomeRobot OVMM ベンチマークを導入しました。このベンチマークでは、エージェントが家庭環境をナビゲートして新しい物体を把握し、ターゲットの容器に置きます。
HomeRobot には 2 つのコンポーネントがあります。1 つは、新しい高品質のマルチルーム ホーム環境に設定された大規模で多様な厳選されたオブジェクトを使用するシミュレーション コンポーネントです。
もう 1 つは現実世界のコンポーネントで、低コストの Hello Robot Strech 用のソフトウェア スタックを提供し、ラボ間での現実世界の実験の複製を促進します。
強化学習とヒューリスティック (モデルベース) ベースラインの両方を実装し、シミュレーションからリアルへの移行の証拠を示します。
私たちのベースラインは、現実世界では 20% の成功率を達成しています。
私たちの実験は、将来の研究活動がパフォーマンスを向上させる方法を特定します。
当社の Web サイトでビデオをご覧ください: https://ovmm.github.io/。
要約(オリジナル)
HomeRobot (noun): An affordable compliant robot that navigates homes and manipulates a wide range of objects in order to complete everyday tasks. Open-Vocabulary Mobile Manipulation (OVMM) is the problem of picking any object in any unseen environment, and placing it in a commanded location. This is a foundational challenge for robots to be useful assistants in human environments, because it involves tackling sub-problems from across robotics: perception, language understanding, navigation, and manipulation are all essential to OVMM. In addition, integration of the solutions to these sub-problems poses its own substantial challenges. To drive research in this area, we introduce the HomeRobot OVMM benchmark, where an agent navigates household environments to grasp novel objects and place them on target receptacles. HomeRobot has two components: a simulation component, which uses a large and diverse curated object set in new, high-quality multi-room home environments; and a real-world component, providing a software stack for the low-cost Hello Robot Stretch to encourage replication of real-world experiments across labs. We implement both reinforcement learning and heuristic (model-based) baselines and show evidence of sim-to-real transfer. Our baselines achieve a 20% success rate in the real world; our experiments identify ways future research work improve performance. See videos on our website: https://ovmm.github.io/.
arxiv情報
著者 | Sriram Yenamandra,Arun Ramachandran,Karmesh Yadav,Austin Wang,Mukul Khanna,Theophile Gervet,Tsung-Yen Yang,Vidhi Jain,Alexander William Clegg,John Turner,Zsolt Kira,Manolis Savva,Angel Chang,Devendra Singh Chaplot,Dhruv Batra,Roozbeh Mottaghi,Yonatan Bisk,Chris Paxton |
発行日 | 2023-06-20 14:30:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google