MagicGripper: A Multimodal Sensor-Integrated Gripper for Contact-Rich Robotic Manipulation

要約

構造化されていない環境での接触リッチ操作には、堅牢で適応的な制御を可能にするために、正確でマルチモーダルな知覚が必要です。
視覚ベースの触覚センサー(VBTS)は、効果的なソリューションとして浮上しています。
ただし、従来のVBTSは、ハードウェアの制約とアルゴリズムの複雑さのために、コンパクトでマルチモーダル機能を達成する上で課題に直面することがよくあります。
この作業では、接触豊富なロボット操作用に設計されたマルチモーダルセンサー統合グリッパーであるMagicGripperを紹介します。
以前のデザインであるMagictacに基づいて、コンパクトなバリアントであるMini-Magictacを開発します。これは、ソフトエラストマーに埋め込まれた3次元の多層グリッドを特徴としています。
MagicGripperはMini-Magictacを統合し、コンパクトでグリッパー互換フォームファクター内の近接性と視覚センシングとともに高解像度の触覚フィードバックを可能にします。
Mini-Magictacのパフォーマンスを徹底的に評価し、空間解像度、接触ローカリゼーション、および力回帰にその能力を実証します。
また、現実世界の条件下での製造の変動、機械的変形、およびセンシングパフォーマンス全体の堅牢性を評価します。
さらに、3つの代表的なロボットタスクを使用して、MagicGripperの有効性を検証します。テレロイザーアセンブリタスク、連絡先ベースのアライメントタスク、および自律的なロボットグラッピングタスクです。
これらの実験全体で、MagicGripperは、信頼できるマルチモーダル認識、正確な力の推定、および挑戦的な操作シナリオへの高い適応性を示します。
私たちの結果は、複雑で接触豊富な環境で具体化されたインテリジェンスのための実用的で汎用性の高いツールとしてのMagicGripperの可能性を強調しています。

要約(オリジナル)

Contact-rich manipulation in unstructured environments demands precise, multimodal perception to enable robust and adaptive control. Vision-based tactile sensors (VBTSs) have emerged as an effective solution; however, conventional VBTSs often face challenges in achieving compact, multi-modal functionality due to hardware constraints and algorithmic complexity. In this work, we present MagicGripper, a multimodal sensor-integrated gripper designed for contact-rich robotic manipulation. Building on our prior design, MagicTac, we develop a compact variant, mini-MagicTac, which features a three-dimensional, multi-layered grid embedded in a soft elastomer. MagicGripper integrates mini-MagicTac, enabling high-resolution tactile feedback alongside proximity and visual sensing within a compact, gripper-compatible form factor. We conduct a thorough evaluation of mini-MagicTac’s performance, demonstrating its capabilities in spatial resolution, contact localization, and force regression. We also assess its robustness across manufacturing variability, mechanical deformation, and sensing performance under real-world conditions. Furthermore, we validate the effectiveness of MagicGripper through three representative robotic tasks: a teleoperated assembly task, a contact-based alignment task, and an autonomous robotic grasping task. Across these experiments, MagicGripper exhibits reliable multimodal perception, accurate force estimation, and high adaptability to challenging manipulation scenarios. Our results highlight the potential of MagicGripper as a practical and versatile tool for embodied intelligence in complex, contact-rich environments.

arxiv情報

著者 Wen Fan,Haoran Li,Dandan Zhang
発行日 2025-05-30 09:10:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, eess.SP パーマリンク