要約
触覚探査は、把握や操作などの基本的なロボット工学タスクの物体の構造を理解する上で重要な役割を果たします。
しかし、触覚センサーを使用してそのような物体を効率的に探索することは、主に大規模な未知の環境とこれらのセンサーの感知範囲が限られているため、困難です。
この目的を達成するために、限られた数のステップでオブジェクトの表面を自動的に探索するスケールでのオブジェクトの再構築のための強化学習によって駆動されるアクティブな触覚探索手法である AcTExplore を紹介します。
十分な探索を通じて、私たちのアルゴリズムは触覚データを段階的に収集し、オブジェクトの 3D 形状も再構築します。これは、より高いレベルの下流タスクの表現として機能します。
私たちのメソッドは、プリミティブ形状でトレーニングされているだけで、目に見えない YCB オブジェクトで平均 95.97% の IoU カバレッジを達成します。
プロジェクトの Web ページ: https://prg.cs.umd$.$edu/AcTExplore
要約(オリジナル)
Tactile exploration plays a crucial role in understanding object structures for fundamental robotics tasks such as grasping and manipulation. However, efficiently exploring such objects using tactile sensors is challenging, primarily due to the large-scale unknown environments and limited sensing coverage of these sensors. To this end, we present AcTExplore, an active tactile exploration method driven by reinforcement learning for object reconstruction at scales that automatically explores the object surfaces in a limited number of steps. Through sufficient exploration, our algorithm incrementally collects tactile data and reconstructs 3D shapes of the objects as well, which can serve as a representation for higher-level downstream tasks. Our method achieves an average of 95.97% IoU coverage on unseen YCB objects while just being trained on primitive shapes. Project Webpage: https://prg.cs.umd$.$edu/AcTExplore
arxiv情報
著者 | Amir-Hossein Shahidzadeh,Seong Jong Yoo,Pavan Mantripragada,Chahat Deep Singh,Cornelia Fermüller,Yiannis Aloimonos |
発行日 | 2023-10-18 17:18:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google