要約
触覚センシングは、さまざまな作業におけるロボットマニピュレータのパフォーマンスを向上させることができる重要な技術です。
この研究では、イベントベースのカメラを使用して、ロボットマニピュレーターとその環境の間の相互作用に関する情報を迅速に捕捉して伝達する、生物にインスピレーションを得た新しい神経形態視覚ベースの触覚センサーを紹介します。
センサー内のカメラは、安価で入手可能な 3D プリント材料から製造された柔軟なスキンの変形を観察しますが、3D プリントされた硬質ケースにはセンサーのコンポーネントがまとめて収容されています。
このセンサーは、データ駆動型の学習ベースのアプローチを使用して、複数のオブジェクトを含む把握段階の分類タスクでテストされます。
結果は、提案されたアプローチにより、センサーが 2 ミリ秒以内の速度で押下とスリップのインシデントを検出できることを示しています。
提案されたセンサーの高速触覚認識特性により、高速ピックアンドプレース操作を伴う産業においてさまざまな物体を安全に把握するための理想的な候補となります。
要約(オリジナル)
Tactile sensing represents a crucial technique that can enhance the performance of robotic manipulators in various tasks. This work presents a novel bioinspired neuromorphic vision-based tactile sensor that uses an event-based camera to quickly capture and convey information about the interactions between robotic manipulators and their environment. The camera in the sensor observes the deformation of a flexible skin manufactured from a cheap and accessible 3D printed material, whereas a 3D printed rigid casing houses the components of the sensor together. The sensor is tested in a grasping stage classification task involving several objects using a data-driven learning-based approach. The results show that the proposed approach enables the sensor to detect pressing and slip incidents within a speed of 2 ms. The fast tactile perception properties of the proposed sensor makes it an ideal candidate for safe grasping of different objects in industries that involve high-speed pick-and-place operations.
arxiv情報
著者 | Omar Faris,Mohammad I. Awad,Murana A. Awad,Yahya Zweiri,Kinda Khalaf |
発行日 | 2024-03-15 09:10:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google