要約
視覚ベースの触覚センサーの進歩により、特に操作対象の正確な位置決めと接触状態が実行の成功に重要な場合に、ロボットが接触を多く含む操作を実行する適性が高まりました。
この研究では、3D 形状の再構築と 6D 力推定機能を提供する、簡単でありながら多用途な触覚センサー 9DTact を紹介します。
概念的には、9DTact は非常にコンパクトで堅牢で、さまざまなロボット プラットフォームに適応できるように設計されています。
さらに、低コストで製造が容易であり、必要な組み立てスキルは最小限です。
機能的には、9DTact は DTact の光学原理に基づいて構築されており、向上した精度と効率で 3D 形状の再構成を実現するように最適化されています。
注目すべきことに、半透明ゲルの光学的および変形可能な特性を活用しているため、9DTact はゲル表面上の補助マーカーやパターンの関与なしに 6D 力推定を実行できます。
より具体的には、175 の複雑な物体から約 100,000 の像と力のペアで構成されるデータセットを収集し、目に見えない物体に一般化できる 6D 力を回帰するようにニューラル ネットワークをトレーニングします。
ビジョンベースの触覚センサーの開発と応用を促進するために、9DTact のハードウェアとソフトウェアの両方と、包括的なビデオ チュートリアルをオープンソース化しています。これらはすべて https://linchangyi1.github.io/9DTact で入手できます。
要約(オリジナル)
The advancements in vision-based tactile sensors have boosted the aptitude of robots to perform contact-rich manipulation, particularly when precise positioning and contact state of the manipulated objects are crucial for successful execution. In this work, we present 9DTact, a straightforward yet versatile tactile sensor that offers 3D shape reconstruction and 6D force estimation capabilities. Conceptually, 9DTact is designed to be highly compact, robust, and adaptable to various robotic platforms. Moreover, it is low-cost and easy-to-fabricate, requiring minimal assembly skills. Functionally, 9DTact builds upon the optical principles of DTact and is optimized to achieve 3D shape reconstruction with enhanced accuracy and efficiency. Remarkably, we leverage the optical and deformable properties of the translucent gel so that 9DTact can perform 6D force estimation without the participation of auxiliary markers or patterns on the gel surface. More specifically, we collect a dataset consisting of approximately 100,000 image-force pairs from 175 complex objects and train a neural network to regress the 6D force, which can generalize to unseen objects. To promote the development and applications of vision-based tactile sensors, we open-source both the hardware and software of 9DTact, along with a comprehensive video tutorial, all of which are available at https://linchangyi1.github.io/9DTact.
arxiv情報
著者 | Changyi Lin,Han Zhang,Jikai Xu,Lei Wu,Huazhe Xu |
発行日 | 2023-12-16 03:02:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google