DIFFTACTILE: A Physics-based Differentiable Tactile Simulator for Contact-rich Robotic Manipulation

要約

DIFFTACTILE は、高密度で物理的に正確な触覚フィードバックによりロボット操作を強化するように設計された、物理ベースの微分可能な触覚シミュレーション システムです。
主に剛体の操作に焦点を当て、接触する材料の応力や変形をモデル化するために単純化された近似に依存することが多い従来の触覚シミュレータとは対照的に、DIFFTACTILE は物理ベースの高忠実度の接触モデリングを重視しており、さまざまな接触モードや物体との相互作用のシミュレーションをサポートしています。
幅広い材料特性を持っています。
当社のシステムには、感知エラストマーをシミュレートするための有限要素法 (FEM) ベースのソフト ボディ モデル、操作中のさまざまなオブジェクト タイプ (弾性、弾塑性、ケーブルなど) をモデル化するためのマルチマテリアル シミュレータ、ペナルティなど、いくつかの重要なコンポーネントが組み込まれています。
接触ダイナミクスを処理するためのベースの接触モデル。
私たちのシステムの微分可能な性質により、1) 現実世界のデータを使用したシミュレーションでの物理的特性の洗練、つまりシミュレーションと現実のギャップの縮小、および 2) 触覚支援による把握と接触を伴う操作の効率的な学習の両方に対する勾配ベースの最適化が容易になります。
スキル。
さらに、効率的なピクセルベースのニューラルモジュールを使用して、接触に対する触覚センサーの光学的応答を推測する方法を紹介します。
私たちは、DIFFTACTILE が、高密度の触覚フィードバックと微分可能な物理学の利点を活用して、接触が多い操作を研究するための有用なプラットフォームとして機能すると期待しています。
コードと補足資料は、プロジェクト Web サイト https://difftactile.github.io/ で入手できます。

要約(オリジナル)

We introduce DIFFTACTILE, a physics-based differentiable tactile simulation system designed to enhance robotic manipulation with dense and physically accurate tactile feedback. In contrast to prior tactile simulators which primarily focus on manipulating rigid bodies and often rely on simplified approximations to model stress and deformations of materials in contact, DIFFTACTILE emphasizes physics-based contact modeling with high fidelity, supporting simulations of diverse contact modes and interactions with objects possessing a wide range of material properties. Our system incorporates several key components, including a Finite Element Method (FEM)-based soft body model for simulating the sensing elastomer, a multi-material simulator for modeling diverse object types (such as elastic, elastoplastic, cables) under manipulation, a penalty-based contact model for handling contact dynamics. The differentiable nature of our system facilitates gradient-based optimization for both 1) refining physical properties in simulation using real-world data, hence narrowing the sim-to-real gap and 2) efficient learning of tactile-assisted grasping and contact-rich manipulation skills. Additionally, we introduce a method to infer the optical response of our tactile sensor to contact using an efficient pixel-based neural module. We anticipate that DIFFTACTILE will serve as a useful platform for studying contact-rich manipulations, leveraging the benefits of dense tactile feedback and differentiable physics. Code and supplementary materials are available at the project website https://difftactile.github.io/.

arxiv情報

著者 Zilin Si,Gu Zhang,Qingwei Ben,Branden Romero,Zhou Xian,Chao Liu,Chuang Gan
発行日 2024-03-13 17:18:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク