eFlesh: Highly customizable Magnetic Touch Sensing using Cut-Cell Microstructures

要約

人間の経験がガイドである場合、家やオフィスなどの非構造化された環境で効果的に動作するには、物理​​的な相互作用中に力を感知するためにロボットが必要です。
しかし、汎用性が高く、アクセスしやすく、簡単にカスタマイズ可能な触覚センサーがないため、ロボット操作における断片化されたセンサー固有のソリューション、および多くの場合、力を持たないセンサーレスアプローチにつながりました。
Efleshを使用すると、低コストで、製造しやすく、高度にカスタマイズ可能な磁気触覚センサーを導入することにより、このギャップを埋めます。
Efleshセンサーの構築には、4つのコンポーネントのみが必要です。趣味の3Dプリンター、既製の磁石(<$ 5)、目的の形状のCADモデル、磁力計回路基板のみです。 センサーは、センサーのジオメトリとその機械的応答を調整できるタイル張りのパラメーター化された微細構造から構成されています。 凸型OBJ/STLファイルを製造のために3Dプリント可能なSTLに変換するオープンソース設計ツールを提供します。 このモジュラー設計フレームワークにより、ユーザーはアプリケーション固有のセンサーを作成し、タスクに応じて感度を調整できます。 センサーの特性評価実験は、Efleshの能力を示しています:0.5 mmの局在RMSEと接触し、通常の力では0.27 Nの力予測RMSE、せん断力で0.12 Nの力予測RMSEを示します。 また、95%の精度で目に見えないオブジェクトに一般化する学習スリップ検出モデル、および視覚のみのベースラインよりも操作パフォーマンスを40%改善するVisuotactile制御ポリシーを提示します。 すべての設計ファイル、コード、およびCADからエフレシュへのSTL変換ツールはオープンソースで、https://e-flesh.comで入手できます。

要約(オリジナル)

If human experience is any guide, operating effectively in unstructured environments — like homes and offices — requires robots to sense the forces during physical interaction. Yet, the lack of a versatile, accessible, and easily customizable tactile sensor has led to fragmented, sensor-specific solutions in robotic manipulation — and in many cases, to force-unaware, sensorless approaches. With eFlesh, we bridge this gap by introducing a magnetic tactile sensor that is low-cost, easy to fabricate, and highly customizable. Building an eFlesh sensor requires only four components: a hobbyist 3D printer, off-the-shelf magnets (<$5), a CAD model of the desired shape, and a magnetometer circuit board. The sensor is constructed from tiled, parameterized microstructures, which allow for tuning the sensor's geometry and its mechanical response. We provide an open-source design tool that converts convex OBJ/STL files into 3D-printable STLs for fabrication. This modular design framework enables users to create application-specific sensors, and to adjust sensitivity depending on the task. Our sensor characterization experiments demonstrate the capabilities of eFlesh: contact localization RMSE of 0.5 mm, and force prediction RMSE of 0.27 N for normal force and 0.12 N for shear force. We also present a learned slip detection model that generalizes to unseen objects with 95% accuracy, and visuotactile control policies that improve manipulation performance by 40% over vision-only baselines -- achieving 91% average success rate for four precise tasks that require sub-mm accuracy for successful completion. All design files, code and the CAD-to-eFlesh STL conversion tool are open-sourced and available on https://e-flesh.com.

arxiv情報

著者 Venkatesh Pattabiraman,Zizhou Huang,Daniele Panozzo,Denis Zorin,Lerrel Pinto,Raunaq Bhirangi
発行日 2025-06-11 17:59:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク