要約
この論文では、陸上環境と水生環境の両方で触覚相互作用を推定および再構築できる、柔らかいロボット指のための新しい視覚ベースの固有受容アプローチを紹介します。
このシステムの鍵は、指のユニークなメタマテリアル構造にあり、これにより、掴む際の全方向性の受動的適応が促進され、さまざまなシナリオにわたって繊細な物体が保護されます。
コンパクトな指内カメラは、接触中の指の変形を高フレームレートの画像でキャプチャし、重要な触覚データをリアルタイムで抽出します。
柔らかい指の体積離散化モデルを提示し、カメラで捉えた幾何学的制約を使用して変形形状の最適な推定を見つけます。
このアプローチは、まばらなマーカーを備えたモーション キャプチャ システムと密な測定を備えた触覚デバイスを使用してベンチマークされます。
どちらの結果も最先端の精度を示しており、体全体の変形の中央値誤差は 1.96 mm、指の長さの 2.1% に相当します。
さらに重要なことは、水中物体形状センシングへの使用を実証する際に、状態推定が陸上環境と水中環境の両方でロバストであることです。
受動的な適応とリアルタイムの触覚センシングのこの組み合わせは、水陸両用のロボットによる把握アプリケーションへの道を開きます。
要約(オリジナル)
This paper presents a novel vision-based proprioception approach for a soft robotic finger that can estimate and reconstruct tactile interactions in both terrestrial and aquatic environments. The key to this system lies in the finger’s unique metamaterial structure, which facilitates omni-directional passive adaptation during grasping, protecting delicate objects across diverse scenarios. A compact in-finger camera captures high-framerate images of the finger’s deformation during contact, extracting crucial tactile data in real-time. We present a volumetric discretized model of the soft finger and use the geometry constraints captured by the camera to find the optimal estimation of the deformed shape. The approach is benchmarked using a motion capture system with sparse markers and a haptic device with dense measurements. Both results show state-of-the-art accuracies, with a median error of 1.96 mm for overall body deformation, corresponding to 2.1% of the finger’s length. More importantly, the state estimation is robust in both on-land and underwater environments as we demonstrate its usage for underwater object shape sensing. This combination of passive adaptation and real-time tactile sensing paves the way for amphibious robotic grasping applications.
arxiv情報
著者 | Ning Guo,Xudong Han,Shuqiao Zhong,Zhiyuan Zhou,Jian Lin,Jian S. Dai,Fang Wan,Chaoyang Song |
発行日 | 2024-07-21 17:25:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google