You Only Scan Once: A Dynamic Scene Reconstruction Pipeline for 6-DoF Robotic Grasping of Novel Objects

要約

ロボット把持の領域では、環境との正確で信頼性の高いインタラクションを実現することが極めて重要な課題である。深度画像から得られる部分的な点群を利用する従来の把持計画手法は、オクルージョンによるシーン理解の低下に悩まされることが多く、最終的に把持精度を阻害しています。さらに、シーン再構成法は主に静的な手法に依存しており、操作過程における環境変化の影響を受けやすく、リアルタイム把持タスクにおける有効性に限界がある。これらの限界に対処するために、本論文では動的なシーン再構成のための新しい2段階パイプラインを紹介する。第一段階では、シーンスキャンを入力とし、各ターゲットオブジェクトをメッシュ再構成と新しいオブジェクトポーズ追跡により登録する。第二段階では、リアルタイムでオブジェクトのポーズを提供するためにポーズトラッキングが実行され、再構成されたオブジェクトの点群をシーンに変換することを可能にする。静的なシーンスナップショットに依存する従来の方法論とは異なり、我々の手法は進化するシーンジオメトリを継続的にキャプチャし、包括的で最新の点群表現をもたらす。オクルージョンによる制約を回避することで、本手法は全体的な把持計画プロセスを強化し、最先端の6自由度ロボット把持アルゴリズムに著しい精度向上をもたらす。

要約(オリジナル)

In the realm of robotic grasping, achieving accurate and reliable interactions with the environment is a pivotal challenge. Traditional methods of grasp planning methods utilizing partial point clouds derived from depth image often suffer from reduced scene understanding due to occlusion, ultimately impeding their grasping accuracy. Furthermore, scene reconstruction methods have primarily relied upon static techniques, which are susceptible to environment change during manipulation process limits their efficacy in real-time grasping tasks. To address these limitations, this paper introduces a novel two-stage pipeline for dynamic scene reconstruction. In the first stage, our approach takes scene scanning as input to register each target object with mesh reconstruction and novel object pose tracking. In the second stage, pose tracking is still performed to provide object poses in real-time, enabling our approach to transform the reconstructed object point clouds back into the scene. Unlike conventional methodologies, which rely on static scene snapshots, our method continuously captures the evolving scene geometry, resulting in a comprehensive and up-to-date point cloud representation. By circumventing the constraints posed by occlusion, our method enhances the overall grasp planning process and empowers state-of-the-art 6-DoF robotic grasping algorithms to exhibit markedly improved accuracy.

arxiv情報

著者 Lei Zhou,Haozhe Wang,Zhengshen Zhang,Zhiyang Liu,Francis EH Tay,adn Marcelo H. Ang. Jr
発行日 2024-04-04 14:13:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク