要約
剛性の推定は、ロボットや義手の繊細な物体操作にとって重要ですが、力と変位の測定、およびリアルタイムの感覚統合に依存しているため、依然として困難です。
この研究では、従来の力ベースの手法の限界に対処し、ピンチ把握時の最初の接触時の剛性を推定するための圧電センシング フレームワークを紹介します。
人間の皮膚からヒントを得て、振動と力のデータを捕捉するマルチモーダル触覚センサーが開発され、義手の指先に統合されました。
サポート ベクター マシンや畳み込みニューラル ネットワークを含む機械学習モデルは、最初の接触後の重要な 15 ミリ秒以内の振動信号が剛性を確実にエンコードし、実世界の物体で最大 98.6% の分類精度と 2.39 ショア A という低い回帰誤差を達成することを実証しています。
さまざまな硬さ。
1.5 ミリ秒未満の推論時間は、平均的な把握完了時間 (データセットでは 16.65 ミリ秒) よりも大幅に高速であり、オブジェクトが完全に把握される前にリアルタイムの剛性推定が可能になります。
この方法は、一方の指が他方の指より先に物体に接触するという把握ダイナミクスにおける一時的な非対称性を利用することで、早期の把握調整を可能にし、義手の安全性と直観性を向上させるとともに、ロボット工学における幅広い用途を提供します。
要約(オリジナル)
Stiffness estimation is crucial for delicate object manipulation in robotic and prosthetic hands but remains challenging due to dependence on force and displacement measurement and real-time sensory integration. This study presents a piezoelectric sensing framework for stiffness estimation at first contact during pinch grasps, addressing the limitations of traditional force-based methods. Inspired by human skin, a multimodal tactile sensor that captures vibrational and force data is developed and integrated into a prosthetic hand’s fingertip. Machine learning models, including support vector machines and convolutional neural networks, demonstrate that vibrational signals within the critical 15 ms after first contact reliably encode stiffness, achieving classification accuracies up to 98.6% and regression errors as low as 2.39 Shore A on real-world objects of varying stiffness. Inference times of less than 1.5 ms are significantly faster than the average grasp closure time (16.65 ms in our dataset), enabling real-time stiffness estimation before the object is fully grasped. By leveraging the transient asymmetry in grasp dynamics, where one finger contacts the object before the others, this method enables early grasp modulation, enhancing safety and intuitiveness in prosthetic hands while offering broad applications in robotics.
arxiv情報
著者 | Anway S. Pimpalkar,Ariel Slepyan,Nitish V. Thakor |
発行日 | 2024-12-12 19:59:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google