要約
従来の方法は深度センサーに依存していましたが、現在の傾向は、深度キューがないにもかかわらず、コスト効率の高い RGB 画像を利用することに傾いています。
この論文では、単一の RGB 画像から掴みポーズを検出する興味深いアプローチを紹介します。
この目的を達成するために、平行板グリッパーを備えたロボットに合わせて、把握検出とセマンティック セグメンテーションを強化したモジュール型学習ネットワークを提案します。
当社のネットワークは、把握可能な物体を識別するだけでなく、事前の把握分析とセマンティック セグメンテーションを融合することで、把握の検出精度を高めます。
重要なことに、私たちのデザインは復元力を示し、ぼやけたノイズのあるビジュアルを適切に処理します。
主な貢献には、RGB 画像からの把握検出のためのトレーニング可能なネットワーク、実現可能な把握の実装を促進するモジュール設計、および一般的な画像の歪みに対して堅牢なアーキテクチャが含まれます。
実際の実験と評価を通じて、提案したアプローチの実現可能性と精度を実証します。
要約(オリジナル)
While traditional methods relies on depth sensors, the current trend leans towards utilizing cost-effective RGB images, despite their absence of depth cues. This paper introduces an interesting approach to detect grasping pose from a single RGB image. To this end, we propose a modular learning network augmented with grasp detection and semantic segmentation, tailored for robots equipped with parallel-plate grippers. Our network not only identifies graspable objects but also fuses prior grasp analyses with semantic segmentation, thereby boosting grasp detection precision. Significantly, our design exhibits resilience, adeptly handling blurred and noisy visuals. Key contributions encompass a trainable network for grasp detection from RGB images, a modular design facilitating feasible grasp implementation, and an architecture robust against common image distortions. We demonstrate the feasibility and accuracy of our proposed approach through practical experiments and evaluations.
arxiv情報
著者 | Zhaocong Li |
発行日 | 2023-10-30 02:01:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google