Learning Human-Inspired Force Strategies for Robotic Assembly

要約

ロボット組立タスクのプログラミングは、製造と自動化の重要な要素です。
ただし、力に敏感なアセンブリでは、配置のわずかな変更や予期しない部品の詰まりに対処するための対応戦略が必要になることがよくあります。
人間のパフォーマンスからそのような戦略を学習することは有望なアプローチですが、2 つの共通の課題に直面しています: デモンストレーションから把握するのが困難な低い部品クリアランスの処理と、実際のハードウェアにアクセスせずに直感的な戦略をオフラインで学習することです。
ジョイスティックを使用した人間のデモンストレーションから、ロボットを使用しないシミュレーションでオフラインで簡単に取得できるデータから確率力戦略を学習することにより、これら 2 つの課題に対処します。
Long Short Term Memory (LSTM) と Mixture Density Network (MDN) を組み合わせて、学習した戦略が実際のハードウェアに簡単に転送されるように、人間にヒントを得た動作をモデル化します。
実験では、100 マイクロメートル未満のクリアランスでプラスチック アセンブリを完成させる UR10e ロボットの戦略がシミュレーションでのみ実証されたことを示しています。

要約(オリジナル)

The programming of robotic assembly tasks is a key component in manufacturing and automation. Force-sensitive assembly, however, often requires reactive strategies to handle slight changes in positioning and unforeseen part jamming. Learning such strategies from human performance is a promising approach, but faces two common challenges: the handling of low part clearances which is difficult to capture from demonstrations and learning intuitive strategies offline without access to the real hardware. We address these two challenges by learning probabilistic force strategies from data that are easily acquired offline in a robot-less simulation from human demonstrations with a joystick. We combine a Long Short Term Memory (LSTM) and a Mixture Density Network (MDN) to model human-inspired behavior in such a way that the learned strategies transfer easily onto real hardware. The experiments show a UR10e robot that completes a plastic assembly with clearances of less than 100 micrometers whose strategies were solely demonstrated in simulation.

arxiv情報

著者 Stefan Scherzinger,Arne Roennau,Rüdiger Dillmann
発行日 2023-03-22 10:20:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク