Mastering Autonomous Assembly in Fusion Application with Learning-by-doing: a Peg-in-hole Study

要約

ロボットによるペグインホールの組み立ては、ロボットによる自動化における重要な研究分野です。
強化学習 (RL) とディープ ニューラル ネットワーク (DNN) の融合は、この分野で目覚ましい進歩をもたらしました。
しかし、既存の RL ベースの手法は、融合アプリケーション特有の環境およびミッションの制約の下で最適なパフォーマンスを提供することに取り組んでいます。
その結果、発明的に設計された RL ベースのアプローチを提案します。
代替手法とは対照的に、私たちは RL モデルではなく DNN アーキテクチャの強化に重点を置いています。
私たちの戦略は、RGB カメラと力/トルク (F/T) センサーからのデータを受信して​​統合し、人間の手と目の調整に似た方法でペグインホール組み立てタスクを実行するようにエージェントをトレーニングします。
すべてのトレーニングと実験は現実的な環境内で展開され、経験的な結果は、このマルチセンサー融合アプローチが厳密なペグインホール組み立て作業に優れ、不確実かつ不確かな環境で使用されるロボット アームの再現精度 (0.1 mm) を上回ることを示しています。
不安定な状況。

要約(オリジナル)

Robotic peg-in-hole assembly represents a critical area of investigation in robotic automation. The fusion of reinforcement learning (RL) and deep neural networks (DNNs) has yielded remarkable breakthroughs in this field. However, existing RL-based methods grapple with delivering optimal performance under the unique environmental and mission constraints of fusion applications. As a result, we propose an inventively designed RL-based approach. In contrast to alternative methods, our focus centers on enhancing the DNN architecture rather than the RL model. Our strategy receives and integrates data from the RGB camera and force/torque (F/T) sensor, training the agent to execute the peg-in-hole assembly task in a manner akin to human hand-eye coordination. All training and experimentation unfold within a realistic environment, and empirical outcomes demonstrate that this multi-sensor fusion approach excels in rigid peg-in-hole assembly tasks, surpassing the repeatable accuracy of the robotic arm utilized–0.1 mm–in uncertain and unstable conditions.

arxiv情報

著者 Ruochen Yin,Huapeng Wu,Ming Li,Yong Cheng,Yuntao Song,Heikki Handroos
発行日 2023-07-10 18:11:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク