Investigating Active Sampling for Hardness Classification with Vision-Based Tactile Sensors

要約

人間とロボットがタッチを通して知覚する最も重要なオブジェクト特性の1つは硬度です。
このペーパーでは、視力ベースの触覚センサーを使用したサンプル効率の高い硬度分類のための情報理論的アクティブサンプリング戦略を調査します。
ロボットのセットアップと、ヒトテスターが収集したサンプルの以前に公開されたデータセットで、3つの確率的分類モデルと2つのモデル不確実性ベースのサンプリング戦略を評価します。
私たちの調査結果は、不確実性メトリックによって駆動されるアクティブなサンプリングアプローチが、精度と安定性の観点からランダムなサンプリングベースラインを上回ることを示しています。
さらに、私たちの人間の研究では、参加者は平均精度48.00%を達成しますが、当社の最良のアプローチは、同じオブジェクトのセットで平均精度88.78%を達成し、オブジェクト硬度分類のための視覚ベースの触覚センサーの有効性を実証します。

要約(オリジナル)

One of the most important object properties that humans and robots perceive through touch is hardness. This paper investigates information-theoretic active sampling strategies for sample-efficient hardness classification with vision-based tactile sensors. We evaluate three probabilistic classifier models and two model-uncertainty-based sampling strategies on a robotic setup as well as on a previously published dataset of samples collected by human testers. Our findings indicate that the active sampling approaches, driven by uncertainty metrics, surpass a random sampling baseline in terms of accuracy and stability. Additionally, while in our human study, the participants achieve an average accuracy of 48.00%, our best approach achieves an average accuracy of 88.78% on the same set of objects, demonstrating the effectiveness of vision-based tactile sensors for object hardness classification.

arxiv情報

著者 Junyi Chen,Alap Kshirsagar,Frederik Heller,Mario Gómez Andreu,Boris Belousov,Tim Schneider,Lisa P. Y. Lin,Katja Doerschner,Knut Drewing,Jan Peters
発行日 2025-05-19 15:15:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク