要約
最近、光学式触覚センサーが普及している。それらは高い空間分解能を提供するが、微細な時間分解能を提供するのに苦労している。この欠点を克服するために、我々はRGBカメラをイベントベースのカメラに置き換えるアイデアを研究し、Evetacと呼ばれる新しいイベントベースの光学触覚センサーを紹介する。ハードウェアの設計とともに、1000Hzのオンライン計測を処理するタッチ処理アルゴリズムを開発する。センサーの出力が疎であるにもかかわらず、刻印されたマーカーを通してエラストマーの変形を追跡する効率的なアルゴリズムを考案した。ベンチマーク実験により、Evetacが498Hzまでの振動を感知し、せん断力を再構築し、RGB光学触覚センサーと比較してデータレートを大幅に削減できることが実証された。さらに、Evetacの出力とマーカー追跡は、データ駆動型のスリップ検出・予測モデルを学習するための有意義な特徴を提供します。学習されたモデルは、ロバストで適応的な閉ループ把持コントローラの基礎となり、様々な物体を扱うことができます。我々は、Evetacのような高速で効率的なイベントベースの触覚センサは、ロボティクスに人間のような操作能力をもたらすために不可欠であると考えている。センサーの設計は https://sites.google.com/view/evetac でオープンソース化されている。
要約(オリジナル)
Optical tactile sensors have recently become popular. They provide high spatial resolution, but struggle to offer fine temporal resolutions. To overcome this shortcoming, we study the idea of replacing the RGB camera with an event-based camera and introduce a new event-based optical tactile sensor called Evetac. Along with hardware design, we develop touch processing algorithms to process its measurements online at 1000 Hz. We devise an efficient algorithm to track the elastomer’s deformation through the imprinted markers despite the sensor’s sparse output. Benchmarking experiments demonstrate Evetac’s capabilities of sensing vibrations up to 498 Hz, reconstructing shear forces, and significantly reducing data rates compared to RGB optical tactile sensors. Moreover, Evetac’s output and the marker tracking provide meaningful features for learning data-driven slip detection and prediction models. The learned models form the basis for a robust and adaptive closed-loop grasp controller capable of handling a wide range of objects. We believe that fast and efficient event-based tactile sensors like Evetac will be essential for bringing human-like manipulation capabilities to robotics. The sensor design is open-sourced at https://sites.google.com/view/evetac .
arxiv情報
著者 | Niklas Funk,Erik Helmut,Georgia Chalvatzaki,Roberto Calandra,Jan Peters |
発行日 | 2023-12-02 22:01:49+00:00 |
arxivサイト | arxiv_id(pdf) |