WSTac: Interactive Surface Perception based on Whisker-Inspired and Self-Illuminated Vision-Based Tactile Sensor

要約

最新の視覚ベースの触覚センサー (VBTS) は、コスト効率の高いカメラを使用してエラストマーの変形を追跡しますが、周囲光の干渉に悩まされています。
通常、解決策には内部 LED の使用と外部光の遮断が含まれるため、複雑さが増します。
カメラとエラストマーだけで周囲光に強い VBTS を作成することは依然として課題です。
この研究では、応力発光 (ML) ウィスカー エラストマー、カメラ、3D プリント部品で構成される自己発光 VBTS である WStac を紹介します。
ビブリッサのタッチ感度からインスピレーションを得た ML ウィスカー エラストマーは、応力下での光遮断と高い ML 強度の両方を提供するため、追加の LED モジュールが不要になります。
機械学習を組み込むことにより、センサーは 25 個のひげの動的接触変化を効果的に利用して、速度回帰、方向識別、テクスチャ分類などのタスクを正常に実行します。
ビデオは https://sites.google.com/view/wstac/ でご覧いただけます。

要約(オリジナル)

Modern Visual-Based Tactile Sensors (VBTSs) use cost-effective cameras to track elastomer deformation, but struggle with ambient light interference. Solutions typically involve using internal LEDs and blocking external light, thus adding complexity. Creating a VBTS resistant to ambient light with just a camera and an elastomer remains a challenge. In this work, we introduce WStac, a self-illuminating VBTS comprising a mechanoluminescence (ML) whisker elastomer, camera, and 3D printed parts. The ML whisker elastomer, inspired by the touch sensitivity of vibrissae, offers both light isolation and high ML intensity under stress, thereby removing the necessity for additional LED modules. With the incorporation of machine learning, the sensor effectively utilizes the dynamic contact variations of 25 whiskers to successfully perform tasks like speed regression, directional identification, and texture classification. Videos are available at: https://sites.google.com/view/wstac/.

arxiv情報

著者 Kai Chong Lei,Kit Wa Sou,Wang Sing Chan,Jiayi Yan,Siqi Ping,Dengfeng Peng,Wenbo Ding,Xiao-Ping Zhang
発行日 2023-08-25 08:21:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.RO, physics.optics パーマリンク