QuadWBG: Generalizable Quadrupedal Whole-Body Grasping

要約

高度な操作能力を備えた脚式ロボットは、家事や都市の維持管理を大幅に改善する可能性を秘めています。
堅牢な移動と正確な操作方法の開発はかなりの進歩を遂げているにもかかわらず、これらを実世界のアプリケーション向けの一貫した全身制御にシームレスに統合することは依然として困難です。
この論文では、単一の腕に取り付けられたカメラに基づいた、堅牢で汎用性のある全身移動操作コントローラーのためのモジュール式フレームワークを紹介します。
強化学習 (RL) を使用することで、5 次元 (5D) にわたるコマンド実行のための堅牢な低レベル ポリシーと、新しい指標である一般化指向到達可能性マップ (GORM) に基づく把握を意識した高レベル ポリシーが可能になります。
提案されたシステムは、透明な物体の把握などの困難なタスクを含む、現実世界において 89% という最先端の 1 回の把握精度を達成します。
広範なシミュレーションと実際の実験を通じて、私たちのシステムが床レベルから体の高さより上の高さまでの広い作業スペースを効果的に管理し、多様な全身運動器操作タスクを実行できることを実証しました。

要約(オリジナル)

Legged robots with advanced manipulation capabilities have the potential to significantly improve household duties and urban maintenance. Despite considerable progress in developing robust locomotion and precise manipulation methods, seamlessly integrating these into cohesive whole-body control for real-world applications remains challenging. In this paper, we present a modular framework for robust and generalizable whole-body loco-manipulation controller based on a single arm-mounted camera. By using reinforcement learning (RL), we enable a robust low-level policy for command execution over 5 dimensions (5D) and a grasp-aware high-level policy guided by a novel metric, Generalized Oriented Reachability Map (GORM). The proposed system achieves state-of-the-art one-time grasping accuracy of 89% in the real world, including challenging tasks such as grasping transparent objects. Through extensive simulations and real-world experiments, we demonstrate that our system can effectively manage a large workspace, from floor level to above body height, and perform diverse whole-body loco-manipulation tasks.

arxiv情報

著者 Jilong Wang,Javokhirbek Rajabov,Chaoyi Xu,Yiming Zheng,He Wang
発行日 2024-11-11 08:19:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク