要約
光学式触覚センサーは、構造化されていない環境でロボットが物をつかむための豊富な力情報をロボットに提供します。
3 次元接触力の迅速かつ正確な校正は、損傷や経年劣化が生じた可能性のある新しいセンサーや既存の触覚センサーにとって重要です。
しかし、従来のニューラルネットワークベースの力校正方法では、力の予測誤差を最小限に抑えるために大量の力でラベル付けされた触覚画像が必要であり、正確な力/トルク測定ツールと時間のかかるデータ収集プロセスが必要でした。
この課題に対処するために、我々は、マーカーの存在、照明条件、エラストマーの弾性率などのドメインギャップのさまざまな組み合わせを使用して、校正済みの光学触覚センサーから未校正の光学触覚センサーに力予測能力を伝達するように設計された、新しいディープドメイン適応力校正方法を提案します。
。
実験結果は、提案された教師なし力校正法の有効性を示しており、垂直力の最小力予測誤差は 0.102N (全力範囲で 3.4\%)、0.095N (6.3\%) および 0.062N (4.1\%) でした。
それぞれ x 軸と y 軸に沿ったせん断力の場合。
この研究は、光学式触覚センサーのための有望な一般的な力校正方法を提示します。
要約(オリジナル)
Optical tactile sensors provide robots with rich force information for robot grasping in unstructured environments. The fast and accurate calibration of three-dimensional contact forces holds significance for new sensors and existing tactile sensors which may have incurred damage or aging. However, the conventional neural-network-based force calibration method necessitates a large volume of force-labeled tactile images to minimize force prediction errors, with the need for accurate Force/Torque measurement tools as well as a time-consuming data collection process. To address this challenge, we propose a novel deep domain-adaptation force calibration method, designed to transfer the force prediction ability from a calibrated optical tactile sensor to uncalibrated ones with various combinations of domain gaps, including marker presence, illumination condition, and elastomer modulus. Experimental results show the effectiveness of the proposed unsupervised force calibration method, with lowest force prediction errors of 0.102N (3.4\% in full force range) for normal force, and 0.095N (6.3\%) and 0.062N (4.1\%) for shear forces along the x-axis and y-axis, respectively. This study presents a promising, general force calibration methodology for optical tactile sensors.
arxiv情報
著者 | Zhuo Chen,Ni Ou,Jiaqi Jiang,Shan Luo |
発行日 | 2024-07-19 15:09:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google