Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors

要約

コンプライアンスは、エンジニアリング、農業、生物医学の用途におけるオブジェクトを記述するための重要なパラメーターです。
従来のコンプライアンス検出方法は、携帯性とスケーラビリティの欠如によって制限され、専門的でしばしば高価な機器に依存しており、ロボットアプリケーションには適していません。
さらに、ビジョンベースの触覚センサーを使用した既存のニューラルネットワークベースのアプローチは、予測の精度が不十分であることに悩まされています。
このホワイトペーパーでは、RGB触覚画像とビジョンベースのセンサーゲルシュがキャプチャしてコンプライアンスメトリックを正確に予測するためにキャプチャされたその他の情報を活用する、長期の再発畳み込みネットワーク(LRCNS)とトランスアーキテクチャに基づいた2つのモデルを提案します。
複数のメトリックを使用してこれらのモデルのパフォーマンスを検証し、コンプライアンスを正確に推定する際の有効性を実証します。
提案されたモデルは、ベースラインよりも大幅なパフォーマンス改善を示します。
さらに、センサーコンプライアンスとオブジェクトコンプライアンスの推定との相関関係を調査しました。これにより、センサーよりも難しいオブジェクトが推定がより困難であることが明らかになりました。

要約(オリジナル)

Compliance is a critical parameter for describing objects in engineering, agriculture, and biomedical applications. Traditional compliance detection methods are limited by their lack of portability and scalability, rely on specialized, often expensive equipment, and are unsuitable for robotic applications. Moreover, existing neural network-based approaches using vision-based tactile sensors still suffer from insufficient prediction accuracy. In this paper, we propose two models based on Long-term Recurrent Convolutional Networks (LRCNs) and Transformer architectures that leverage RGB tactile images and other information captured by the vision-based sensor GelSight to predict compliance metrics accurately. We validate the performance of these models using multiple metrics and demonstrate their effectiveness in accurately estimating compliance. The proposed models exhibit significant performance improvement over the baseline. Additionally, we investigated the correlation between sensor compliance and object compliance estimation, which revealed that objects that are harder than the sensor are more challenging to estimate.

arxiv情報

著者 Ziteng Li,Malte Kuhlmann,Ilana Nisky,Nicolás Navarro-Guerrero
発行日 2025-06-17 21:10:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, I.2.9 パーマリンク