Flexible Gear Assembly With Visual Servoing and Force Feedback

要約

歯車組立は、産業オートメーションにおいて必要不可欠であるが、困難な作業である。本論文では、高精度かつ柔軟なギアアセンブリを実現するための新しい2段階アプローチを紹介する。提案するアプローチは、探索フェーズでワークピースを粗くローカライズするYOLOと、挿入を完了するための深層強化学習(DRL)を統合する。具体的には、DRLは、手首上のカメラがワークピースに近すぎる場合の部分的な視認性という課題に対処します。さらに、第1フェーズから第2フェーズへプロセスをスムーズに移行するために、フォースフィードバックが使用されています。ディープニューラルネットワークをトレーニングするためのデータ収集の労力を軽減するため、YOLOのトレーニングには合成RGB画像を使用し、DRLエージェントのトレーニングにはサンプリングした実世界のデータを活用したオフラインの対話環境を構築します。提案手法を、精度公差0.3mmの歯車組立実験で評価する。その結果、本手法は、任意の位置からの検索と挿入を平均15秒以内にロバストかつ効率的に完了できることが示された。

要約(オリジナル)

Gear assembly is an essential but challenging task in industrial automation. This paper presents a novel two-stage approach for achieving high-precision and flexible gear assembly. The proposed approach integrates YOLO to coarsely localize the workpiece in a searching phase and deep reinforcement learning (DRL) to complete the insertion. Specifically, DRL addresses the challenge of partial visibility when the on-wrist camera is too close to the workpiece. Additionally, force feedback is used to smoothly transit the process from the first phase to the second phase. To reduce the data collection effort for training deep neural networks, we use synthetic RGB images for training YOLO and construct an offline interaction environment leveraging sampled real-world data for training DRL agents. We evaluate the proposed approach in a gear assembly experiment with a precision tolerance of 0.3mm. The results show that our method can robustly and efficiently complete searching and insertion from arbitrary positions within an average of 15 seconds.

arxiv情報

著者 Junjie Ming,Daniel Bargmann,Hongpeng Cao,Marco Caccamo
発行日 2023-03-06 14:13:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク